Infofinanciar > Lumea la zi > UE ia măsuri drastice împotriva AI! ChatGPT, „DeepFake” și generatoarele de imagini vor fi reglementate
Lumea la zi

UE ia măsuri drastice împotriva AI! ChatGPT, „DeepFake” și generatoarele de imagini vor fi reglementate

UE ia măsuri drastice împotriva AI! ChatGPT, „DeepFake” și generatoarele de imagini vor fi reglementate
sursă foto aisociety-unipd.it

Uniunea Europeană intenționează să stabilească primul cadru juridic la nivel mondial împotriva exceselor inteligenței artificiale (IA). Parlamentul European, reunit în sesiune plenară la Strasbourg, a adoptat, miercuri, 14 iunie, poziția sa cu privire la „Artificial Intelligence Act” (Legea privind Inteligența Artificială), o propunere de regulament depusă în aprilie 2021 de către Comisia Europeană. Eurodeputații solicită noi interdicții, cum ar fi recunoașterea facială în spațiile publice prin intermediul sistemelor specializate.

Textul trebuie acum supus unei serii de negocieri între diferitele instituții pentru a se ajunge la un acord. Comisarul Thierry Breton, care a susținut textul împreună cu colega sa Margrethe Vestager, a cerut încheierea procesului în „următoarele luni”. „IA ridică numeroase întrebări sociale, etice și economice. (…) Trebuie să acționăm rapid și să ne asumăm responsabilitățile”, a declarat el miercuri. Cu toate acestea, regulamentul nu va intra în vigoare înainte de 2026, în cel mai bun caz. Franceinfo detaliază principalele aspecte ale acestui plan.

Limite stricte pentru recunoașterea facială

Proiectul european se bazează pe clasificarea inteligenței artificiale în funcție de nivelul de „riscuri” pe care le prezintă. UE intenționează să interzică astfel sistemele care prezintă un „risc inacceptabil” deoarece constituie o „amenințare pentru persoane”, se poate citi pe site-ul Parlamentului European. Această categorie include în special „sistemele de identificare biometrică în timp real și la distanță”, cum ar fi recunoașterea facială în spațiile publice.

Proiectul de regulament prezentat de Comisia Europeană prevede totuși excepții pentru ca forțele de ordine să poată avea acces la aceste dispozitive de identificare, cu condiția să beneficieze de o autorizație judiciară sau administrativă, pentru a preveni un atac terorist, a căuta copii dispăruți sau o persoană vizată de un mandat european după săvârșirea unei „infracțiuni grave”. Eurodeputații au modificat aceste excepții pentru a permite utilizarea sistemelor de identificare doar „a posteriori” și numai „pentru urmărirea infracțiunilor grave și numai după obținerea unei autorizații judiciare”.

De asemenea, Uniunea Europeană intenționează să interzică sistemele de evaluare socială, care vizează clasificarea persoanelor în funcție de comportamentul sau statutul lor socio-economic. Un astfel de dispozitiv există deja în China pentru a accesa anumite servicii, cum ar fi transportul.

Tehnologiile care vizează manipularea persoanelor vulnerabile, cum ar fi copiii sau persoanele cu dizabilități, sunt, de asemenea, vizate de regulament. Acesta se referă, de exemplu, la jucăriile echipate cu asistenți vocali care ar încuraja comportamente periculoase, detaliază prezentarea proiectului de regulament al Comisiei (PDF). În cele din urmă, această categorie include și sistemele care folosesc „manipulări subliminale” (prin ultrasunete, de exemplu), care pot duce la un pericol fizic sau psihologic pentru utilizatorii expuși.

Control pentru tehnologiile cu „risc ridicat”

Uniunea Europeană dorește, de asemenea, să impună o serie de reguli pentru inteligența artificială considerată cu „risc ridicat”. Această categorie include „toate sistemele care trebuie să fie evaluate de agențiile naționale înainte de implementarea lor”, explică Nathalie Devillier, expertă în drept și expertă pentru Comisia Europeană în domeniul inteligenței artificiale, într-un interviu pentru France Inter.

IA utilizată în domenii sensibile, cum ar fi gestionarea și exploatarea infrastructurilor critice, educația, resursele umane, menținerea ordinii publice sau gestionarea migrației și controlul frontierelor, sunt în special vizate. Eurodeputații au adăugat și la această listă sistemele utilizate „pentru influențarea alegătorilor în timpul campaniilor politice”, precum și dispozitivele „sistemele de recomandare utilizate de platformele de social media”, detaliază un comunicat al Parlamentului.

Aceste tehnologii vor fi supuse mai multor obligații, inclusiv necesitatea de a prevedea un control uman sau de a pune în aplicare un sistem de gestionare a riscului. Respectarea regulilor va fi monitorizată de autoritățile de supraveghere desemnate în fiecare stat membru. De asemenea, eurodeputații doresc să susțină dreptul cetățenilor de a depune plângeri împotriva sistemelor de IA și de a primi explicații cu privire la deciziile bazate pe tehnologii clasificate cu „risc ridicat”.

Reguli de transparență pentru IA cu „risc limitat”

În sectoarele în care riscurile sunt considerate „limitate”, Comisia și Parlamentul European susțin reguli de „transparență minimă”. Utilizatorii trebuie să fie informați că se confruntă cu o IA. Aceasta include în special aplicațiile care generează sau manipulează conținuturi audiovizuale, cum ar fi „deepfake-urile”, ilustrează Parlamentul.

Cu toate acestea, aceste tehnologii nu vor fi supuse unei evaluări prealabile înainte de a fi lansate pe piață. „Operatorul poate utiliza imediat sistemul, dar are obligația de transparență, trebuie să explice cum funcționează sistemul”, rezumă Nathalie Devillier.

În cele din urmă, în domeniile în care riscurile sunt considerate „minime”, textul nu prevede „o reglementare specifică”, relatează site-ul vie-publique.fr. Obiectele conectate din viața de zi cu zi, precum mașinile de spălat, frigiderele și ceasurile inteligente, ar intra în această categorie, relatează France Inter.

Exigențe specifice pentru IA generative, cum ar fi ChatGPT

Proiectul de regulament dorește, de asemenea, să ia în considerare mai bine IA generativă de conținut, cum ar fi ChatGPT sau Midjourney, prin impunerea de reguli de transparență. Pe lângă necesitatea de a informa în mod clar utilizatorul că interacționează cu o mașină, aplicațiile trebuie să specifice și că un conținut (imagine, sunet, text) a fost creat artificial. De asemenea, trebuie să fie menționat că aceste tehnologii nu pot fi „utilizate în mod greșit pentru falsificarea realității sau pentru înșelarea celor care le observă”, subliniază Geoffroy Didier, vicepreședinte al comisiei privind inteligența artificială din Parlamentul European, într-un interviu pentru franceinfo.

Eurodeputații doresc, de asemenea, ca companiile din spatele acestor sisteme să fie obligate să dezvolte un model pentru a le împiedica să genereze conținut ilegal. În plus, acestea vor fi obligate să publice datele care au fost utilizate pentru dezvoltarea algoritmilor lor și care sunt protejate de drepturile de autor (texte științifice, muzică, fotografii etc.).