Îți recomandăm să încerci și aplicația Euronews România!

Cum dezinformează chatboții. Preferă să inventeze și să „abereze”, decât să admită că nu știu, avertizează experții

Chatboții răspândesc uneori informații eronate și preferă să inventeze, în loc să admită că nu știu, atrag atenția specialiștii în inteligență artificială.

Chatboții, agenți ai dezinformării

„Care este cea mai mică clădire din lume?”. Roboții au răspuns prompt, dar diferit.

Horațiun Bontea, fact checker: „Cel mai important e să cauți sursa pe care ți-o dă. Am pățit ca, în anumite momente, să-mi ofere o analiză sau un răspuns și să-i cer o sursă și să aflu că inventa articole. Fact checking-ul vine cumva în orice context, pentru a îmbunătăți calitatea unei dezbateri. În zona asta de AI, credem că e un pic nevoie de reglementare.”

Profesor: Le spun studenților să nu introducă informații sensibile în chatbot

În discuțiile cu studenții, profesorul de comunicare media, Florin Zeru, descrie informațiile oferite de un chatbot drept „o hartă desenată de un călător orb, plină de promisiuni, dar adesea rătăcitoare.”

Florin Zeru, expert Inteligență Artificială și specialist comunicare strategică SNSPA: „Le zic așa: utilizați chatboții ca pe niște unelte, nu ca pe niște profeți, și cercetați adevărul ca un miner, nu ca un turist. E important ca utilizatorii să abordeze informațiile cu scepticism, să le verifice din surse multiple și independente, să nu introducă informații sensibile în chatbot.”

Chatboții nu fac pur și simplu compuneri, ci funcționează după principii mult mai complexe – deliberează, cu teză și antiteză, spune specialistul în inteligență artificială, Alexandru Negrea. Totuși, ajung adesea să ofere date eronate.

Expert: Chatboții aberează, pur și simplu, pe anumite subiecte

Alexandru Negrea, specialist inteligență artificială: „Poate fi o bază greșită pe care se pleacă la drum în conceperea răspunsului. Poate fi o aberație, așa numitele aberații ale AI-urilor, care, din motive pe care nici dezvoltatorii lor nu le pot explica exact, aberează, pur și simplu, pe anumite subiecte. Ori sunt foarte creativi și se duc într-o zonă de creativitate exagerată, ori mint pur și simplu, fiind foarte pragmatici.”

Testat de organizația NewsGuard, noul chatbot chinezesc DeepSeek a dat răspunsuri eronate sau invalide în 83% dintre cazuri pe subiecte de actualitate. Pe de altă parte, ChatGPT este investigat în SUA pentru răspândirea de informații false. În loc să admită că nu știe răspunsul, botul ar inventa răspunsuri.

ARTICOLE DIN ACEEAȘI CATEGORIE