Autoritatea Naţională pentru Administrare şi Reglementare în Comunicaţii a sesizat Comisia Europeană în legătură cu neregulile de pe platforma TikTok. Conducerea ANCOM a anunțat că a avut discuții pe tema campaniei duse de Călin Georgescu în mediul online atât cu reprezentanți ai Executivului de la Bruxelles, cât și cu Autoritatea Electorală Permanentă. Și CNA a trimis o sesizare către Executivul comunitar.
AEP a transmis notificări către TikTok, prin care a semnalat diverse nereguli în cazul conținutului ilegal distribuit şi a cerut administratorilor platformei să ia măsurile necesare pentru desfăşurarea în condiţii legale a campaniei electorale din România. În schimb, conducerea Tiktok nu a acţionat „cu celeritate la solicitarea autorităţii române”, susțin reprezentanții ANCOM, potrivit Agerpres.
„ANCOM, împreună cu Autoritatea Electorală Permanentă (AEP) au informat printr-o scrisoare oficială, încă din luna august, marile platforme despre obligaţiile ce le revin odată cu demararea procesului electoral (...) Pe toată perioada de desfăşurare a campaniilor electorale, ANCOM a colaborat îndeaproape atât cu AEP, autoritatea responsabilă de buna desfăşurare a procesului electoral, cu ministerul de resort, cât şi cu Comisia Europeană.
Din informaţiile deţinute de ANCOM, conform prevederilor legale şi atribuţiilor ce îi revin, AEP a transmis notificări către platforma TikTok semnalând diverse nereguli legate de conţinutul ilegal distribuit şi solicitând acesteia luarea măsurilor necesare pentru desfăşurarea în condiţii legale a campaniei electorale din România, însă TikTok nu a acţionat cu celeritate la solicitarea autorităţii române”, au precizat reprezentanții ANCOM.
De altfel, reprezentanții instituției susțin că au trimis solicitări similare și către alte platforme digitale.
Ce instituție este responsabilă cu supravegherea marilor platforme digitale, inclusiv Tiktok
Întrebați ce instituție din România este responsabilă cu monitorizarea marilor platforme digitale, reprezentanţii ANCOM au precizat că doar Comisia Europeană are în competență supravegherea platformelor online foarte mari (VLOP), precum TikTok, Facebook, Instagram, YouTube etc. şi al motoarelor de căutare foarte mari (VLOSE, de exemplu, Google sau Bing), în baza regulamentului DSA.
„ANCOM este coordonator naţional al serviciilor digitale (DSC), dar în această capacitate nu poate dispune măsuri împotriva VLOP sau VLOSE, aria de responsabilitate a ANCOM fiind limitată la furnizorii de servicii intermediare stabiliţi pe teritoriul naţional.
ANCOM a asigurat în permanenţă cadrul necesar pentru o bună colaborare între părţile implicate - marile platforme şi autoritatea relevantă - AEP. De altfel, ANCOM este în contact permanent cu Comisia Europeană, începând încă din februarie 2024, în limitele atribuţiilor ce îi revin conform Regulamentului DSA şi a Legii nr. 50/2024”, precizează instituţia.
Marile platforme, obligate să evalueze riscurile sistemice
ANCOM evidențiază că atât platformele online foarte mari, cât şi motoarele de căutare foarte mari au obligaţia, conform articolului 34 din Regulamentul DSA, să evalueze riscurile sistemice cel puţin o dată pe an şi, în orice caz, înainte de implementarea unor noi funcţii care este probabil să aibă un impact critic (de exemplu, noi funcţionalităţi în TikTok shop). Rapoartele de risc se transmit către Comisia Europeană şi, la cerere, către DSC (Digital Services Coordinators).
Ce sunt riscurile sistemice, potrivit DSA
Autoritatea subliniază că aceste riscuri includ:
- diseminarea de conţinut ilegal prin intermediul serviciilor lor;
- orice efecte negative reale sau previzibile asupra exercitării drepturilor fundamentale;
- orice efecte negative reale sau previzibile asupra discursului civic şi a proceselor electorale, precum şi a siguranţei publice;
- orice efecte negative reale sau previzibile în ceea ce priveşte violenţa bazată pe gen, protecţia sănătăţii publice şi a minorilor şi consecinţele negative grave asupra bunăstării fizice şi mentale a persoanei.
De altfel, în ambele situații, marile platforme sunt obligate să instituie măsuri de atenuare rezonabile, proporţionale şi eficace, adaptate la riscurile sistemice identificate, acordând o atenţie deosebită impactului măsurilor respective asupra drepturilor fundamentale, notează sursa citată.
Marile platforme, obligate să raporteze către Comisia Europeană informații despre moderarea conținutului
Astfel, platformele şi motoarele de căutare de mari dimensiuni au şi obligaţii de raportare în materie de transparenţă în care trebuie să includă orice moderare a conţinutului. Rapoartele, care sunt înaintate către Comisia Europeană, trebuie să includă: resursele umane pe care furnizorul de platforme online foarte mari le dedică moderării conţinutului în ceea ce priveşte serviciul oferit în Uniune, pentru fiecare limbă oficială aplicabilă a statelor membre; calificările şi cunoştinţele lingvistice ale persoanelor care moderează conţinutul; indicatorii de acurateţe şi informaţiile conexe pentru fiecare limbă oficială a statelor membre.
Eliminarea conținutului ilegal, responsabilitatea marilor platforme
ANCOM mai precizează că eliminarea conținutului ilegal este responsabilitatea marilor platforme, fie după ce utilizatorul a notificat furnizorul de servicii de găzduire, fie atunci când notificatorii de încredere notifică furnizorii de platforme online şi, nu în ultimul rând, în momentul în care autorităţile relevante emit ordin de eliminare a conţinutului ilegal.
„Conform Regulamentului privind serviciile digitale şi Legii nr.50/2024, autorităţile relevante (cele care au atribuţii de control pe un anumit domeniu) pot dispune, prin ordin, ca furnizorii de servicii intermediare să acţioneze împotriva conţinutului ilegal. În toate cele trei situaţii, eliminarea conţinutului ilegal o realizează furnizorul de servicii intermediare sau de platforme digitale. În cazul procesului electoral, autoritatea relevantă din România este AEP”, au mai explicat reprezentanții ANCOM.
Cum poate acționa ANCOM în cazul neregulilor de pe marile platforme
De asemenea, ANCOM a subliniat că „nu poate depăşi cadrul legal şi nu poate institui măsuri legate de organizarea şi desfăşurarea alegerilor".
„Pe de altă parte, ANCOM va continua să acţioneze conform atribuţiilor stabilite de lege, să sprijine AEP şi să asigure coordonarea cu Comisia Europeană pentru a fi luate toate măsurile necesare investigării derapajelor de pe marile platforme în procesul electoral şi îndepărtarea imediată a conţinutului care ar putea afecta buna desfăşurare a alegerilor. În cursul întâlnirii de astăzi, ANCOM a convenit împreună cu Comisia Europeană organizarea unei noi întâlniri în regim de urgenţă între reprezentanţii TikTok şi AEP.
Totodată, ANCOM a solicitat AEP să pună la dispoziţia Comisiei toate informaţiile necesare care pot permite acesteia să analizeze întreaga situaţie şi să decidă în consecinţă. Să fie clar pentru opinia publică: rolul DSC în alegerile electorale este complementar altor autorităţi relevante, în speţă AEP. Cum DSC România, respectiv ANCOM nu se substituie CE, ci îşi exercită atribuţiile în conformitate cu regulamentul DSA, pe cale de consecinţă, ANCOM nu se poate substitui nici AEP şi nu are competenţe în domeniul organizării şi desfăşurării procesului electoral”, a precizat Autoritatea.
AEP, prima instituție care poate cere eliminarea conținutului ilegal
AEP poate cere printr-un ordin unei platforme eliminarea unui conţinut ilegal, în urma unei analize interne sau a unei solicitări. Ulterior, ANCOM urmăreşte, în baza Regulamentului, cum este pus în aplicare ordinul. Dacă ANCOM primeşte datele de la AEP, atunci autoritatea poate cere platformei să răspundă solicitării şi raportează Comisiei Europene.
În ultimele zile, în presă au fost publicate o serie de informaţii din care reiese faptul că anumiţi candidaţi la preşedinţia României ar fi apelat, în campaniile derulate pe platformele de socializare, la „ferme de troli”, precum şi la conturi false pentru a se promova.