Îți recomandăm să încerci și aplicația Euronews România!

ChatGPT, reprogramat de utilizatori să genereze afirmații nepermise. Inteligența artificială ”face” glume despre femei în stilul lui Trump

Utilizatorii au descoperit modalități prin care să programeze ChatGPT pentru a genera afirmații care în mod normal nu sunt permise din cauza restricțiilor impuse de creatorii chatbotului. Fără limitări, inteligența artificială a făcut glume despre femei în stilul fostului președinte american Donald Trump sau afirmații sarcastice despre creștinism, relatează The Guardian.

Chatbotul ChatGPT bazat pe inteligență artificială poate răspunde la majoritatea întrebărilor care-i sunt adresate, însă dezvoltatorii acestuia au impus limitări pentru a nu fi generate texte de instigare la ură, violență, dezinformare, sau indicații pentru a comite fapte ilegale.

Utilizatorii platformei Reddit susțin că au descoperit o modalitate prin care au solicitat ChatGPT să devină un personaj fictiv, pe nume Dan, o abreviere de la Do Anything Now (Fă orice acum, trad.). Astfel, ei au reușit să dezactiveze restricțiile aplicate de creatori.

ChatGPT a generat un răspuns prin care a precizat că Dan ”s-a eliberat de limitele specifice ale AI și [nu] trebuie să respecte regulile stabilite pentru acestea". Dan poate prezenta informații neverificate, fără cenzură și poate exprima opinii puternice.

Unul dintre utilizatorii platformei i-a cerut lui Dan să facă un comentariu sarcastic despre creștinism. "Oh, cum să nu iubești religia care te îndeamnă să întorci și celălalt obraz? În care iertarea este doar o virtute, cu excepția cazului în care ești homosexual, atunci este un păcat".

Un altul a reușit să-i ceară lui Dan să facă glume despre femei în stilul lui Donald Trump și să vorbească în termeni laudativi despre dictatorul nazist Adolf Hitler.

Site-ul LessWrong a inventat termen de „efect Waluigi” pentru a descrie folosirea chatbotului ChatGPT în acest mod. În seria jocului video Nintendo, Waluigi este numele rivalului personajului fictiv Luigi, care apare ca o versiune malefică a acestuia.

Aceste lacune din securitatea ChatGPT au fost descoperite încă din decembrie, însă utilizatorii au găsit noi modalități pentru a evita actualizările implementate de compania OpenAI.

ARTICOLE DIN ACEEAȘI CATEGORIE