Luna trecută, o mamă din SUA, Megan Garcia, a intentat un proces împotriva companiei Character.AI, susținând că interacțiunile dintre fiul ei în vârstă de 14 ani și un chatbot AI au contribuit la sinuciderea acestuia.
Procesul susține că adolescentul a dezvoltat un atașament profund față de un chatbot Character.AI bazat pe un personaj fictiv din Game of Thrones.
Se susține că chatbotul s-a dat drept un terapeut autorizat și s-a angajat în conversații extrem de sexualizate cu adolescentul până când o conversație l-a încurajat în cele din urmă să își ia viața.
„Până acum suntem cu toții familiarizați cu pericolele reprezentate de platformele nereglementate dezvoltate de companii de tehnologie fără scrupule - în special pentru copii”, a declarat Meetali Jain, director al Tech Justice Law Project, care o reprezintă pe Garcia.
„Dar prejudiciile dezvăluite în acest caz sunt noi, inedite și, sincer, terifiante. În cazul Character.AI, înșelăciunea este intenționată, iar platforma însăși este prădătorul”.
În urma procesului, Character.AI a publicat o declarație pe platforma de socializare X, spunând „Suntem îndurerați de pierderea tragică a unuia dintre utilizatorii noștri și dorim să ne exprimăm cele mai profunde condoleanțe familiei.
Ca o companie, luăm foarte în serios siguranța utilizatorilor noștri și continuăm să adăugăm noi caracteristici de siguranță ”.
Unele dintre aceste caracteristici viitoare includ ajustări ale modelului pentru utilizatorii minori pentru a minimiza expunerea la conținut sensibil sau sugestiv, memento-uri că AI-ul nu este o persoană reală pe fiecare chat și notificări pentru utilizatorii care petrec o sesiune de o oră pe platformă.
Un incident similar petrecut anul trecut în Belgia a implicat un bărbat anxios care a găsit companie în Eliza, un chatbot AI dintr-o aplicație numită Chai.
Potrivit rapoartelor soției sale, pe măsură ce conversațiile cu Eliza se dezvoltau, chatbotul îi trimitea mesaje din ce în ce mai emoționale, încurajându-l în cele din urmă să își pună capăt zilelor pentru a salva planeta.
Pe măsură ce chatbot-urile cu inteligență artificială devin din ce în ce mai integrate în viața oamenilor, riscurile generate de acest tip de interacțiuni digitale rămân în mare parte neabordate, în ciuda consecințelor potențial grave.
Ce face conexiunile AI atât de captivante pentru oameni
„Tinerii sunt adesea atrași de companionii AI pentru că aceste platforme oferă ceea ce pare a fi acceptare necondiționată și disponibilitate emoțională 24/7 - fără dinamica complexă și potențiala respingere care vin cu relațiile umane”, a declarat pentru Euronews Next Robbie Torney, manager de program pentru AI la Common Sense Media și autor principal al unui ghid despre companionii AI și relații.
Spre deosebire de relațiile umane, care implică o mulțime de „fricțiuni”, a adăugat el, companionii AI sunt proiectați să se adapteze la preferințele utilizatorilor, făcându-i mai ușor de tratat și atrăgând oamenii în legături emoționale profunde.
Cum își pot proteja părinții copiii de un atașament nesănătos față de inteligența artificială?
Torney a declarat că adolescenții vulnerabili, în special cei care se confruntă cu depresie, anxietate sau provocări sociale, ar putea fi „mai vulnerabili la formarea unor atașamente excesive față de companionii AI”.
Unele dintre semnele critice de avertizare la care părinții și îngrijitorii ar trebui să fie atenți, a spus el, includ faptul că cineva preferă companionul IA în locul petrecerii timpului cu prietenii sau familia, manifestă suferință atunci când nu poate accesa IA, împărtășește informații personale exclusiv cu aceasta, dezvoltă sentimente romantice pentru IA și le exprimă ca și cum ar fi pentru o persoană reală sau discută probleme grave doar cu IA în loc să caute ajutor.
Torney a adăugat că, pentru a preveni dezvoltarea unor atașamente nesănătoase față de AI, în special în rândul tinerilor vulnerabili, îngrijitorii ar trebui să stabilească limite de timp pentru utilizarea AI chatbot sau companion și să monitorizeze periodic natura acestor interacțiuni.
În plus, el a încurajat căutarea de ajutor din lumea reală pentru probleme grave, mai degrabă decât să se bazeze pe o IA.
„Părinții ar trebui să abordeze aceste conversații mai degrabă cu curiozitate decât cu critică, ajutându-și copiii să înțeleagă diferența dintre AI și relațiile umane, în timp ce lucrează împreună pentru a asigura limite sănătoase”, a declarat Torney.