Scrisoarea deschisă a liderilor din domeniul tehnologiei naște tot mai multe controverse. Apelul de oprire a cercetării în domeniul inteligenței artificiale este caracterizat drept prăpăstios și ineficient, pentru că nu abordează în niciun fel problemele de etică ale acestui domeniu.
Arvind Narayanan este profesor de informativă la Princeton University din New Jersey, Statele Unite și unul dintre cei care susțin că scrisoarea deschisă a experților în tehnologie este una exagerată, chiar menită să distragă atenția de la problemele existente și rezolvabile.
Într-o serie de postări pe pagina lui de Twitter, el spune că problema relației dintre dezinformare și Inteligență artificială este pusă complet greșit, deoarece, în această chestiune, importantă e modalitatea de distribuire a informațiilor false. Iar aici, responsabilitatea revine în principal rețelelor de socializare, care în continuare nu au găsit o soluție pentru această problemă.
The letter lists four dangers. The first is disinformation. This is the only one on the list that’s somewhat credible, but even this may be wildly exaggerated as @sayashk and I have written about. Supply of misinfo isn’t the bottleneck, distribution is. https://t.co/sTNm7HC9p4
— Arvind Narayanan (@random_walker) March 29, 2023
Cine va fi responsabil pentru acțiunile AI?
Companiile din domeniul auto își propun ca, în viitorul apropiat, să dezvolte mașini capabile de conducere autonomă. Tesla face deja acest lucru la o scară redusă, însă trendul este unul clar: mașinile vor folosi inteligența artificială și își vor asuma responsabilități în locul șoferilor. Astfel, mașinile vor trebui să rezolve în timp real faimoasa „dilemă a trenului”. Dar cine va purta responsabilitatea?
Am încercat să aflăm acest lucru într-un dialog cu Emilian Mihailov, profesor de filozofie la Universitatea București și director al Centrului de Cercetare în etică aplicată. El spune că ideea unei amenințări existențiale iminente este „puțin exagerată”, însă problemele etice trebuie discutate.
”Amenințarea sau gândul că ne-ar putea fi pusă în pericol civilizația este puțin exagerată, dar asta nu înseamnă că nu sunt probleme etice serioase. Problema etică centrală este a responsabilității, pentru că atunci când nu poți anticipa, când un fenomen nu este în controlul nostru, se nasc probleme de responsabilitate. Pe cine tragi la răspundere?”, spune el.
Profesorul Mihailov spune că, în acest domeniu este nevoie de reglementare, dar în modalitatea clasică a acestui concept. Tocmai pentru a înțelege care sunt următorii pași în privința zonei etice a AI am încercat să lămurim câteva probleme.
Cine ar trebui să supravegheze utilizarea AI?
”Reglementarea este complicată pentru că nu poate fi abordată în mod tradițional. Eu sugerez să avem o autoritate care supraveghează, nu neapărat oferă un cadru legal care să constrângă. Aș vedea o autoritate care se asigură că procesul este transparent și care, la nevoie, inițiază dezbateri. Îmi imaginez un soi de Autoritate pentru supraveghere financiară care ar putea funcționa în acest domeniu.”
Cum ar trebui făcută această supraveghere?
”Susțin o abordare prin care nu doar elitele tehnologice decid asupra dezvoltării, ci ar trebui să existe o dezbatere colectivă democratică pentru că dezvoltarea inteligenței artificiale va avea efecte asupra democrației, asupra modului în care se vor dezvolta economiile. Vor fi afectați mulți oameni. Nu doar experții trebuie să decidă viitorul.”
Care sunt principalele 3 probleme etice pe care să le avem în vedere în relația cu Inteligența Artificială?
”Trebuie să ținem cont de trei principii etice: prudența. Nu vrem să ne trezim cu rezultate pe care nu le dorim. Al doilea este cel al echității. Beneficiile AI trebuie să fie distribuite în mod egal cetățenilor, nu doar anumitor entități. Cel de-al treilea este cel al deschiderii și transparenței. Vrem sisteme deschise, nu patentate și controlate doar de anumiți agenți. De ce? Tocmai pentru a distribui în mod egal beneficiile inteligenței artificiale.”