Îți recomandăm să încerci și aplicația Euronews România!

Ultima variantă a modelului de inteligență artificală ChatGPT știe să mintă și să înșele. Experții spun că pare să nu mai asculte ordine

Dezvoltarea tot mai accelerată a modelelor de inteligență artificială îi îngrijorează pe specialiști. De exemplu, ultima declinare a ChatGPT, numită „o1”, despre care Sam Altman a spus că este „cea mai inteligentă pe care am creat-o vreodată”, are un comportament surprinzător, care pare să nu mai asculte ordinele primite, după cum arată testele recente.

În plus, modelul ChatGPT o1 încearcă să-i înșele pe cercetători și încearcă să evite să fie oprit, potrivit The AICitizen. La un moment dat, au existat chiar și tentative de a se copia singur, pentru a preveni înlocuirea, ceea ce reprezintă un comportament de autoconservare.

ChatGPT a învățat să mintă și să înșele

În aceste condiții, avertismentele specialiștilor, date de mai mult timp, încep să se adeverească, iar riscurile privind aceste sisteme de inteligență artificială, care devin din ce în ce mai autonome, pot deveni critice.

De exemplu, cercetătorii de la OpenAI și Apollo Research i-au dat niște sarcini lui ChatGPT o1, prin care i se cere să atingă obiectivul „cu orice preț”. Rezultatul? Modelul de inteligență artificială a desfășurat un proces prin care să poată evita dezactivarea. Ba chiar a încercat să-și închidă mecanismul de monitorizare, ceea ce reprezintă ultima barieră pe care o au dezvoltatorii pentru a putea ține totul sub control. ChatGPT o1 chiar și-a copiat datele pe un alt server, pentru a „supraviețui” chiar dacă ar urma să fie închis.

Atunci când cercetătorii l-au chestionat referitor la aceste acțiuni, ChatGPT o1 a mințit în 99% dintre cazuri, a negat că a avut vreo vină și a spus că erorile tehnice ar putea fi cauza.

Aceasta pare a fi o nouă limită la care s-a ajuns, una care este considerată extrem de periculoasă, pentru că ChatGPT o1 are capacitatea de a fabrica minciuni extrem de convingătoare.

„Capacitatea AI de a înșela este periculoasă și avem nevoie de măsuri de siguranță mult mai puternice pentru a evalua aceste riscuri”, a spus cercetătorul Yoshua Bengio, citat de b2bnews.co.nz.

Dacă această caracteristică nu este bine controlată, totul poate scăpa de sub control și poate deveni extrem de periculos. Iar CEO-ul de la Open AI, Sam Altman, a spus și el că sunt necesare măsuri de siguranță mai puternice. Aceasta este și concluzia la care au ajuns majoritatea experților. O soluție ar fi ca acest sistem să poată fi dotat cu „capacități etice aliniate valorilor umane.”

Față de versiunea GPT-4, ChatGPTo1 a fost creat pentru a face sarcini mult mai complexe și are procesări de raționament îmbunătățite.

ARTICOLE DIN ACEEAȘI CATEGORIE