Un oficial al Uniunii Europene a spus că regulile propuse care reglementează inteligența artificială (AI) vor aborda preocupările legate de riscurile produselor precum ChatGPT.
Thierry Breton, comisarul european pentru piața internă, a declarat pentru Reuters că propagarea bruscă a popularității aplicațiilor precum ChatGPT și riscurile asociate subliniază necesitatea urgentă de stabilire a unor reguli.
„Așa cum este prezentat de ChatGPT, soluțiile de inteligență artificială pot oferi oportunități excelente pentru întreprinderi și cetățeni, dar pot prezenta și riscuri. Acesta este motivul pentru care avem nevoie de un cadru de reglementare solid pentru a asigura o IA de încredere bazată pe date de înaltă calitate”, a declarat acesta pentru Reuters.
Au fost primele comentarii oficiale despre ChatGPT din partea unui înalt oficial al UE. Breton și colegii săi din Comisie lucrează în prezent cu Consiliul European și Parlamentul la ceea ce va fi primul cadru juridic privind IA.
Lansat cu puțin peste două luni în urmă, ChatGPT a dus la o explozie de interes pentru inteligența artificială și pentru utilizările cărora le poate fi folosit acum.
Dezvoltat de OpenAI, ChatGPT permite utilizatorilor să introducă solicitări care pot genera apoi articole, eseuri, poezii - și chiar cod de computer.
Întrucât ChatGPT a fost evaluată drept aplicația de consum cu cea mai rapidă creștere din istorie, unii experți și-au exprimat temeri că sistemele utilizate de astfel de aplicații ar putea fi utilizate în mod abuziv pentru plagiat, fraudă și răspândirea dezinformării.
Microsoft a refuzat să comenteze declarația lui Breton. OpenAI - a cărei aplicație folosește o tehnologie numită AI generativă - nu a răspuns imediat unei solicitări.
Primul cadru de reglementare AI
În conformitate cu proiectele de reguli ale UE, ChatGPT este considerat un sistem AI de uz general, care poate fi utilizat în mai multe scopuri, inclusiv pentru cele cu risc ridicat, cum ar fi selecția candidaților pentru locuri de muncă și scorul de credit.
Breton dorește ca OpenAI să coopereze strâns cu dezvoltatorii din aval de sisteme AI cu risc ridicat pentru a le permite respectarea legii AI propuse.
Cadrul de reglementare definește în prezent patru niveluri de risc în IA - ceea ce provoacă neliniște în rândul unor companii care se tem că produsele lor sunt etichetate ca fiind cu risc ridicat.
Cele patru niveluri sunt:
- Risc inacceptabil - orice sistem considerat o amenințare clară la adresa oamenilor „va fi interzis”, potrivit Comisiei, inclusiv „punctarea socială de către guverne a jucăriilor care utilizează asistență vocală care încurajează comportamentul periculos”.
- Risc ridicat - acestea sunt sisteme AI din infrastructuri critice, cum ar fi transportul, sau în contexte educaționale sau de angajare în care rezultatul examenelor sau cererilor de locuri de muncă ar putea fi determinat de AI. Contextele de aplicare a legii care pun în pericol drepturile fundamentale ale oamenilor sunt, de asemenea, incluse ca risc ridicat.
- Risc limitat - Acestea sunt sisteme cu „obligații specifice de transparență”, cum ar fi un chatbot care se identifică ca IA.
- Risc minim sau deloc - Comisia spune că „majoritatea mare” a sistemelor utilizate în prezent în UE fac parte din această categorie și includ jocuri video și filtre de spam cu AI.
A fi într-o categorie cu risc ridicat ar duce la cerințe mai stricte de conformitate și la costuri mai mari, potrivit directorilor mai multor companii implicate în dezvoltarea inteligenței artificiale.
Un sondaj realizat de organismul aplicat AI a arătat că 51% dintre respondenți se așteaptă la o încetinire a activităților lor de dezvoltare a AI ca urmare a Legii AI.
Reglementările eficiente privind inteligența artificială ar trebui să se concentreze pe aplicațiile cu cel mai mare risc, a scris președintele Microsoft, Brad Smith, într-o postare pe blog miercuri.
„Sunt zile în care sunt optimist și momente în care sunt pesimist cu privire la modul în care umanitatea va folosi AI”, a spus el.