UE, acord de referință privind reglementarea inteligenței artificiale

ChatGPT și DALL-E sunt exemple de ceea ce se numește IA „generativă”. Aceste programe învață din cantități mari de date, cum ar fi text și imagini online, pentru a genera conținut nou ca și cum ar fi fost creat de un om. 

Oficialii Uniunii Europene au ajuns la un acord provizoriu cu privire la primele legi care reglementează utilizarea inteligenței artificiale. Parlamentul European va vota propunerile Actului AI la începutul anului viitor, dar legislația nu va intra în vigoare până în 2025.

UE devine, astfel, prima regiune economică majoră cu legi cuprinzătoare pentru întreg domeniul IA. Scopul este de a ca IA să fie transparentă, echitabilă, sigură și ecologică.

După 36 de ore de discuții, negociatorii au convenit asupra regulilor despre Inteligența Artificială în sisteme precum ChatGPT și recunoașterea facială.

SUA, Marea Britanie și China se grăbesc să-și publice propriile linii directoare.

Reglementarea riguroasă a domeniului Inteligenței Artificiale nu trebuie să împiedice dezvoltarea domeniului, a declarat comisarul UE pentru industrie, Thierry Breton, după semnarea acordului politic, transmite BBC.

Thierry Breton

La negocieri au participat reprezentanți ai Comisiei Europene, ai Parlamentului European și ai Consiliul European.

Regulile convenite includ utilizarea de către guverne a IA în supravegherea biometrică și reglementare a sistemelor de tip ChatGPT. Propunerile includ garanții privind utilizarea IA în UE, precum și limitări ale adoptării acesteia de către agențiile de aplicare a legii.

Consumatorii ar avea dreptul de a depune reclamații și ar putea fi aplicate amenzi pentru încălcări ale legii.

Breton a descris planurile drept „istorice”, spunând că stabilesc „reguli clare pentru utilizarea IA”. El a adăugat că este „mult mai mult decât un cadru de reguli – este o rampă de lansare pentru start-up-urile și cercetătorii din UE pentru a conduce cursa globală de inteligență artificială”.

Președinta Comisiei Europene, Ursula von der Leyen, a declarat că Legea IA va ajuta la dezvoltarea tehnologiei fără să amenințe siguranța și drepturile oamenilor și că este un „cadru legal” de încredere.

Președinta Comisiei Europene, Ursula von der Leyen, a declarat că Legea IA va ajuta la dezvoltarea tehnologiei fără să amenințe siguranța și drepturile oamenilor și că este un „cadru legal” de încredere.

Parlamentul European definește inteligența artificială ca fiind un software care poate „pentru un anumit set de obiective definite de om, să genereze rezultate precum conținut, predicții, recomandări sau decizii care influențează mediile cu care interacționează”.

ChatGPT și DALL-E sunt exemple de ceea ce se numește IA „generativă”. Aceste programe învață din cantități mari de date, cum ar fi text și imagini online, pentru a genera conținut nou ca și cum ar fi fost creat de un om.

ChatGPT și DALL-E sunt exemple de ceea ce se numește IA „generativă”. Aceste programe învață din cantități mari de date, cum ar fi text și imagini online, pentru a genera conținut nou care se simte ca și cum ar fi fost creat de un om.

Așa-numitele „chatbots” – precum ChatGPT – pot avea conversații text. Alte programe IA precum DALL-E pot crea imagini din instrucțiuni simple text.

Specialiștii europeni au împărțit produsele IA în patru clase de risc: risc inacceptabil, risc ridicat, IA generativă și risc limitat.

Ce va fi interzis

Potrivit acordului, sistemele de Inteligență Artificială care forțează oamenii să-și schimbe comportamentul, cum ar fi jucăriile care încurajează copiii să facă acțiuni periculoase, intră în categoria inacceptabilă. Același lucru este valabil și pentru sistemele de recunoaștere biometrică controlate de la distanță, care recunosc fețele în timp real.

De asemenea, vor fi interzise aplicațiile AI care împart oamenii în clase pe baza anumitor caracteristici, cum ar fi sexul, culoarea pielii, comportamentul social sau originea.

Vor exista excepții pentru nevoile armatei, ale serviciilor de informații și ale autorităților de anchetă.

Numai cu aprobare

Programele IA care prezintă un risc ridicat vor face obiectul unei revizuiri înainte de a fi aprobate pentru piață, pentru a preveni orice impact asupra drepturilor fundamentale. Aceste aplicații riscante includ mașinile autonome, tehnologia medicală, alimentarea cu energie, aviația și jucăriile.

Cu toate acestea, ele includ, de asemenea, supravegherea frontierelor, controlul migrației, activitatea poliției, gestionarea personalului companiei și înregistrarea datelor biometrice în cărțile de identitate.

Programele menite să ajute la interpretarea și aplicarea legislației europene privind IA sunt, de asemenea, clasificate ca având un risc ridicat și fac obiectul reglementării.

Transparență pentru IA generativă

Potrivit legiuitorilor UE, sistemele care generează conținut nou și analizează cantități mari de date, cum ar fi produsele AI generative, cum ar fi ChatGPT de la filiala Microsoft OpenAI, prezintă un risc mediu.


Companiile sunt obligate să fie transparente cu privire la modul în care funcționează IA lor și la modul în care împiedică generarea de conținut ilegal. De asemenea, acestea trebuie să dezvăluie modul în care a fost antrenată IA și ce date protejate prin drepturi de autor au fost utilizate. Tot conținutul generat cu ChatGPT, de exemplu, trebuie etichetat.

Reglementări limitate

Conform noilor reguli ale UE, programele care manipulează și recreează videoclipuri, audio sau fotografii prezintă doar un risc scăzut. Aceasta include, de asemenea, așa-numitele „deep fakes", care sunt deja obișnuite pe multe platforme de socializare. Programele de servicii care au grijă de clienți aparțin, de asemenea, acestei clase de risc, aplicându-se doar reguli minime de transparență.

Utilizatorii trebuie pur și simplu să fie conștienți că interacționează cu o aplicație AI și nu cu oamenii. Ei pot decide apoi singuri dacă să continue sau nu să utilizeze programul AI.

Când va intra în vigoare noua lege?

După trei zile lungi de negocieri, cele trei instituții principale ale UE – Comisia Europeană, Parlamentul și Consiliul de Miniștri – au convenit asupra unui proiect preliminar de lege, care nu conține încă toate dispozițiile necesare din punct de vedere tehnic.

Acesta trebuie acum aprobat oficial de Parlamentul European și de Consiliu, organul reprezentativ al celor 27 de state membre, care urmează să aibă loc în aprilie 2024, la sfârșitul legislaturii Parlamentului. Statele membre vor avea apoi la dispoziție doi ani pentru a transpune legislația privind IA în legislația națională.

Având în vedere evoluțiile rapide ale inteligenței artificiale, există riscul ca normele UE să fie deja depășite până la intrarea lor în vigoare, a avertizat europarlamentarul creștin-democrat german Axel Voss înainte ca întregul proces să înceapă.

ChatGPT oferă acum programe plătite care pot fi modificate de utilizatori în funcție de dorințele și specificațiile lor. Potrivit cercetării radiodifuzorului britanic BBC, aceste „seturi de instrumente" pot, de exemplu, să scrie e-mailuri frauduloase pentru hackeri sau persoane cu intenții criminale.

„Trebuie să ne asigurăm că tot ceea ce s-a convenit funcționează în practică. Ideile din legea AI vor fi viabile numai dacă avem certitudine juridică, standarde armonizate, orientări clare și aplicare clară", a declarat Voss vineri la Bruxelles.

Cum a reacționat sectorul tehnologic?

Asociația Industriei Calculatoarelor și Comunicațiilor din Europa (CCIA) a avertizat sâmbătă că propunerea de compromis a UE este „pe jumătate coaptă" și ar putea suprareglementa multe aspecte ale AI.

„Actul final privind inteligența artificială nu are viziunea și ambiția pe care startup-urile și întreprinderile tehnologice europene le afișează chiar acum. S-ar putea chiar să sfârșească prin a-i alunga pe campionii europeni pe care UE vrea cu disperare să-i împuternicească", a declarat Boniface de Champris, directorul de politici al CCIA.

Avocații consumatorilor din grupul de lobby al Organizației Europene a Consumatorilor (BEUC) au criticat, de asemenea, proiectul de lege. Evaluarea lor inițială a spus că legea este prea laxă, deoarece oferă companiilor prea mult spațiu pentru autoreglementare, fără a oferi suficiente balustrade de protecție pentru asistenți virtuali, jucării sau AI generative, cum ar fi ChatGPT.

Progresele rapide în domeniul inteligenței artificiale (AI), cum ar fi ChatGPT al OpenAI, susținut de Microsoft, complică eforturile guvernelor de a conveni asupra legilor care reglementează utilizarea tehnologiei.

Măsuri naționale și regionale pentru reglemetarea IA

Australia, reglementări de planificare - Va determina motoarele de căutare să elaboreze noi coduri pentru a preveni partajarea materialelor de abuz sexual asupra copiilor create de AI și producerea de versiuni deepfake ale aceluiași material.

Peste 25 de țări prezente la summit, inclusiv SUA și China, precum și UE, au semnat pe 1 noiembrie Declarația Bletchley pentru a lucra împreună și a stabili o abordare comună privind supravegherea.

Marea Britanie, reglementări de planificare - Principalii dezvoltatori AI au convenit pe 2 noiembrie, la primul summit global privind siguranța AI din Marea Britanie, să colaboreze cu guvernele pentru a testa noi modele de frontieră înainte ca acestea să fie lansate, pentru a ajuta la gestionarea riscurilor tehnologiei în curs de dezvoltare. Marea Britanie a declarat la summit că va tripla la 300 de milioane de lire sterline (364 milioane de dolari) finanțarea pentru "AI Research Resource", care cuprinde două supercomputere care vor sprijini cercetarea în ceea ce privește securizarea modelelor avansate de inteligență artificială, la o săptămână după ce premierul Rishi Sunak a declarat că Marea Britanie va înființa primul institut de siguranță AI din lume.

Autoritatea britanică de supraveghere a datelor a declarat în octombrie că a emis Snapchat de la Snap Inc o notificare preliminară de aplicare a legii cu privire la un posibil eșec de a evalua în mod corespunzător riscurile de confidențialitate ale chatbot-ului său generativ AI pentru utilizatori, în special pentru copii.

China, reglementări temporare implementate - Wu Zhaohui, ministrul adjunct al științei și tehnologiei din China, a declarat la sesiunea de deschidere a Summitului privind siguranța AI din Marea Britanie pe 1 noiembrie că Beijingul este pregătit să intensifice colaborarea privind siguranța AI pentru a ajuta la construirea unui "cadru de guvernanță" internațional.

China a publicat cerințele de securitate propuse pentru firmele care oferă servicii alimentate de AI generativă în octombrie, inclusiv o listă neagră a surselor care nu pot fi utilizate pentru a instrui modele AI.

Țara a emis un set de măsuri temporare în august, solicitând furnizorilor de servicii să prezinte evaluări de securitate și să primească autorizația înainte de a lansa produse AI pe piața de masă.

Uniunea Europeană, reglementări de planificare - Parlamentarii și guvernele UE au ajuns pe 8 decembrie la un acord provizoriu privind regulile de referință care reglementează utilizarea AI, inclusiv utilizarea AI de către guverne în supravegherea biometrică și modul de reglementare a sistemelor AI, cum ar fi ChatGPT.


Acordul impune modelelor de fundație și sistemelor AI de uz general să respecte obligațiile de transparență înainte de a fi introduse pe piață. Acestea includ elaborarea documentației tehnice, respectarea legislației UE privind drepturile de autor și difuzarea de rezumate detaliate cu privire la conținutul utilizat pentru formare.

Franța, investigarea posibilelor încălcări - Autoritatea franceză de supraveghere a confidențialității a declarat în aprilie că investighează plângerile legate de ChatGPT.

G7, solicitarea de contribuții cu privire la reglementări - Țările G7 au convenit pe 30 octombrie asupra unui cod de conduită în 11 puncte pentru firmele care dezvoltă sisteme avansate de inteligență artificială, care "își propune să promoveze AI sigură, securizată și de încredere la nivel mondial".

Italia, investigarea posibilelor încălcări - Autoritatea italiană pentru protecția datelor intenționează să revizuiască platformele AI și să angajeze experți în domeniu, a declarat un oficial de rang înalt în mai. ChatGPT a fost interzis temporar în Italia în martie, dar a fost pus la dispoziție din nou în aprilie.

Japonia, reglementări de planificare - Japonia se așteaptă să introducă până la sfârșitul anului 2023 reglementări care sunt probabil mai apropiate de atitudinea SUA decât cele stricte planificate în UE, a declarat un oficial apropiat deliberărilor în iulie.

Autoritatea de supraveghere a confidențialității din țară a avertizat OpenAI să nu colecteze date sensibile fără permisiunea oamenilor.

Polonia, investigarea posibilelor încălcări - Biroul polonez pentru protecția datelor cu caracter personal a declarat în septembrie că investighează OpenAI în legătură cu o plângere potrivit căreia ChatGPT încalcă legile UE privind protecția datelor.

Spania, investigarea posibilelor încălcări - Agenția spaniolă pentru protecția datelor a lansat în aprilie o investigație preliminară privind potențialele încălcări ale datelor de către ChatGPT.

Organizația Națiunilor Unite, reglementări de planificare - Secretarul general al ONU, António Guterres, a anunțat pe 26 octombrie crearea unui organism consultativ de 39 de membri, compus din directori de companii de tehnologie, oficiali guvernamentali și cadre universitare, pentru a aborda problemele legate de guvernanța internațională a AI.

Statele Unite ale Americii, solicitarea de contribuții cu privire la reglementări - SUA, Marea Britanie și alte țări au dezvăluit pe 27 noiembrie un acord de 20 de pagini fără caracter obligatoriu care conține recomandări generale privind AI, cum ar fi sistemele de monitorizare a abuzurilor, protejarea datelor împotriva manipulării și verificarea furnizorilor de software.

Statele Unite vor lansa un institut de siguranță AI pentru a evalua riscurile cunoscute și emergente ale așa-numitelor modele AI "de frontieră", a declarat secretarul comerțului Gina Raimondo pe 1 noiembrie în timpul Summitului privind siguranța AI din Marea Britanie.

Președintele Joe Biden a emis un ordin executiv pe 30 octombrie pentru a solicita dezvoltatorilor de sisteme AI care prezintă riscuri pentru securitatea națională, economia, sănătatea publică sau siguranța SUA să împărtășească rezultatele testelor de siguranță cu guvernul.

Comisia Federală pentru Comerț din SUA a deschis o investigație asupra OpenAI în iulie, susținând că a încălcat legile privind protecția consumatorilor.

Îți mai recomandăm Marea Britanie, SUA, UE și China semnează Declarația Bletchley privind pericolele Inteligenței Artificiale