Atunci când liderii Uniunii Europene au introdus un proiect de lege pentru reglementarea inteligenței artificiale în aprilie 2021, l-au prezentat ca fiind un model global pentru gestionarea acestei noi tehnologii.
Timp de trei ani, legislatorii UE au primit contribuții de la mii de experți în legătură cu Inteligența Artificială (I.A), în condițiile în care subiectul nici măcar nu era pus pe tapet în alte state. Rezultatul a fost o politică "de referință", care a fost "pregătită pentru viitor", a declarat Margrethe Vestager, responsabilă pentru politica digitală pentru cele 27 de state.
Apoi a apărut ChatGPT. Tipul de inteligență artificială care a alimentat ChatGPT nu a fost menționat în proiectul de lege și nu a fost un punct central al discuțiilor de la vremea respectivă. A apărut totodată o dispută între decidenții politici europeni care doreau să abordeze această lacună și directorii companiilor din domeniul Inteligenței Artificiale care spuneau că reglementări prea agresive ar putea dezavantaja economic Europa.
Un vid în privința reglementării
Statele lumii se grăbesc să recupereze decalajul în ceea ce privește Inteligența Artificială, pe măsură ce temerile cu privire la impactul acesteia asupra oamenilor cresc. În octombrie, președintele Biden a emis un ordin executiv privind efectele Inteligenței Artificiale asupra securității naționale. Japonia elaborează orientări politice fără caracter obligatoriu pentru această tehnologie, în timp ce China a impus restricții asupra anumitor tipuri de I.A. Marea Britanie a declarat că legile existente sunt adecvate pentru reglementarea tehnologiei. Pe de altă parte, Arabia Saudită și Emiratele Arabe Unite investesc bani în cercetarea în domeniul I.A.
Există însă o dilemă fundamentală. Sistemele de inteligență artificială avansează atât de rapid și de imprevizibil, încât autoritățile nu pot ține pasul, așa cum notează The New York Times. Acest decalaj a fost agravat de un deficit de cunoștințe în materie de I.A. în cadrul guvernelor, de birocrație și de temerile că prea multe reguli ar putea limita beneficiile tehnologiei.
În Europa I.A. a derutat factorii de decizie. Uniunea Europeană a mers mai departe cu noua sa lege, A.I. Act, în ciuda disputelor privind modul în care ar trebui să se ocupe de cele mai recente sisteme de Inteligență Artificială. Un acord final, așteptat zilele acestea, ar putea restricționa anumite utilizări riscante ale tehnologiei și ar putea crea cerințe de transparență cu privire la modul în care funcționează sistemele de bază. Dar chiar dacă va fi adoptat, nu este de așteptat să intre în vigoare decât peste cel puțin 18 luni – timp în care Inteligența Artificială va continua să evolueze.
Absența unor reguli a lăsat un vid. Google, Meta, Microsoft și OpenAI au fost lăsate să se autocontroleze, în timp concurează între ele.
Europa preia conducerea
La mijlocul anului 2018, 52 de academicieni, informaticieni și avocați s-au întâlnit la hotelul Crowne Plaza din Bruxelles pentru a discuta despre Inteligența Artificială. Oficialii UE îi aleseseră pentru a le oferi consultanță cu privire la această tehnologie. Grupul a dezbătut dacă există suficiente norme europene pentru a se proteja împotriva tehnologiei și a luat în considerare posibile orientări etice, a declarat Nathalie Smuha, un cercetător juridic din Belgia care a coordonat grupul, potrivit presei de peste Ocean.
Dar, pe măsură ce au discutat despre posibilele efecte ale Inteligenței Artificiale - inclusiv despre amenințarea tehnologiei de recunoaștere facială asupra vieții private a oamenilor - au recunoscut că "există toate aceste lacune juridice și ce se întâmplă dacă oamenii nu respectă aceste orientări?", a spus ea.
În 2019, grupul a publicat un raport de 52 de pagini cu 33 de recomandări, inclusiv o mai mare supraveghere a instrumentelor de I.A. care ar putea dăuna persoanelor și societății. Ursula von der Leyen, președinta Comisiei Europene, a făcut din acest subiect o prioritate pe agenda sa digitală. Un grup de 10 persoane a fost desemnat să se bazeze pe ideile grupului și să elaboreze un proiect de lege.
În 2020, decidenții europeni au decis că cea mai bună abordare era să se concentreze asupra modului în care este utilizată I.A. și nu asupra tehnologiei care stă la baza acesteia. Aceștia au spus că Inteligența Artificială nu este în mod inerent bună sau rea, ci depinde de modul în care este aplicată. Prin urmare, atunci când legea privind inteligența artificială a fost prezentată în 2021, aceasta s-a concentrat pe utilizările "cu risc ridicat" ale tehnologiei, dar a evitat în mare măsură să reglementeze modelele A.I. care le alimentau, cu excepția cazului în care erau enumerate ca fiind periculoase.
Conform propunerii, organizațiile care oferă instrumente de I.A. riscante trebuie să îndeplinească anumite cerințe pentru a se asigura că aceste sisteme sunt sigure înainte de a fi implementate. Programele de I.A. care au creat videoclipuri de tip "deepfake" trebuie să dezvăluie faptul că oamenii văd conținut generat de Inteligența Artificială.
Un punct mort
Nouăsprezece luni mai târziu, a sosit ChatGPT. Consiliul European tocmai convenise să reglementeze modelele de inteligență artificială de uz general, dar noul chatbot a reorganizat dezbaterea. Acesta a scos la iveală un "punct mort" în elaborarea politicilor blocului în ceea ce privește această tehnologie, a declarat Dragoș Tudorache, membru al Parlamentului European care susținuse, înainte de lansarea ChatGPT, că noile modele trebuie să fie acoperite de lege. Aceste sisteme de Inteligență Artificială de uz general pot învăța să îndeplinească numeroase sarcini prin analiza datelor culese de pe internet și din alte surse.
Oficialii UE au fost împărțiți cu privire la modul în care să răspundă provocărilor I.A. Unii au fost atenți la adăugarea unui număr prea mare de reguli noi, mai ales că Europa s-a luptat să își dezvolte propriile companii de tehnologie. Alții au dorit limite mai stricte.
Până în octombrie, guvernele Franței, Germaniei și Italiei, cele mai mari trei economii ale UE, s-au pronunțat împotriva reglementării stricte a modelelor de Inteligență Artificială de uz general, de teamă că ar putea împiedica înființarea de noi companii de tehnologie la nivel național. Alții din Parlamentul European au declarat că legea ar fi lipsită de efect dacă nu ar aborda tehnologia într-un mod mai strict.
Momentan decidenții politici nu au ajuns la un acord, iar problema reglementării Inteligenței Artificiale rămâne în mare măsură nerezolvată.