Adoptarea „variantei chinezești” a legii deepfake în România a fost amânată. Cum sancționează alte țări trucajele audio & video

Introducerea pedepsei cu închisoarea în cazul modificării conținutului informatic a generat proteste în rândul societății civile din România.

Posibila pedepsire cu închisoarea modificării unor informații video sau audio împarte societatea în două. Unele grupuri civice susțin că libertatea de exprimare va fi îngrădită, ca în China. Altele cer sancționarea drastică în cazurile cu impact grav emoțional sau financiar.

Ministrul Energiei, Sebastian Burduja, anunța în urmă cu trei săptămâni că va depune o plângere penală după ce fața și vocea i-au fost utilizate într-un deepfake.

Filmulețul trucat, distribuit contra cost pe rețelele de socializare, îl prezenta pe Burduja promovând un sistem de investiții care nu există în realitate.

Cu situații similare s-au întâlnit, în ultima perioadă, mai mulți politicieni sau diferite personalități, unul dintre cele mai cunoscute cazuri fiind cel al lui Mugur Isărescu.

Toate aveau același numitor comun: aparenta promovare a unor investiții, fără corespondent în realitate.

La trei săptămâni de la aceste incidente, luni, pe ordinea de zi a Camerei Deputaților a ajuns un proiect de lege mai vechi, menit să sancționeze intervențiile deepfake nemarcate. Proiectul de lege a fost întors însă la comisiile de specialitate.

Îți mai recomandăm Scandalul „deepfake penal” scoate legea din plenul Camerei Deputaților și o retrimite la comisii

Inițiativa deputatului Eugen Bejinariu și a senatorului Robert Cazanciuc, ambii social-democrați, a fost înregistrată la Parlament pe 5 aprilie 2023. Pe 26 iunie a fost adoptată de Senat și a fost transmisă apoi către Camera Deputaților, for decizional.

Pe scurtul traseu dintre cele două instituții legislative s-a produs modificarea care a inflamat spiritele.

Forma adoptată de Senat avea doar sancțiuni financiare, cea propusă de Camera Deputaților păstra amenzile și venea în plus cu pedepse cu închisoarea de la șase luni la doi ani pentru „crearea/realizarea conţinutului de tip deepfake”.

În plus, distribuirea de conţinut deepfake era sancţionată cu 60-180 de zile amendă penală.

„Înțelegere superficială a fenomenului”

„Nu există niciun fel de excepţii prin care să fie protejate forme ale libertăţii de exprimare, cum ar fi utilizarea în scop de pamflet sau artistic a conţinutului de tip deepfake sau în producţii comerciale (reclame) sau în industria cinematografică, așa cum deja se întâmpla în practică și cum prevede legislația europeană ce urmează a intra în vigoare”, acuză Asociația Active Watch într-o scrisoare deschisă.

Scrisoarea este susținută de alte nouă organizații, printre care se și APADOR-CH (Asociația pentru Apărarea Drepturilor Omului în România Comitetul Helsinki), Sindicatul Român al Jurnaliștilor MediaSind sau Centrul pentru Jurnalism Independent.

Textul legislativ, spun semnatarii, conține o serie de neclarități și termeni sau exprimări care arată o înțelegere superficială a fenomenului care se dorește a fi reglementat, punct de vedere susținut și de pozițiile exprimate de Consiliul Legislativ şi Consiliul Naţional al Audiovizualului.

De exemplu, proiectul de lege impune creatorilor de conţinut deepfake obligaţia ca acesta să fie marcat un avertisment redat pe cel puţin 10% din suprafața expunerii și pe toată durata difuzării respectivului conținut vizual sau de un mesaj sonor la începutul şi la finalul conținutului audio: „Acest material conține ipostaze imaginare”.

Două imagini trucate de Eliot Higgins în care este prezentată, în mod fals, reținerea lui Donald Trump de către poliție.

„Ceea ce ignoră textul de lege este că 10% dintr-o imagine poate fi manipulată astfel încât acea parte să nu fie vizibilă, de facto, deci un creator malițios poate susține că a respectat legea, în timp ce, de fapt, el continuă să înșele publicul”, se arată în scrisoarea-protest.

În opinia reprezentanților Active Watch, cea mai bună reacție ar fi ca parlamentarii români să aștepte până în aprilie, când Comisia Europeană ar urma să adopte un regulament referitor la inteligența artificială care ar trebui apoi transpus în legislația statelor membre.

„E foarte periculos acel articol care introduce sancțiunea cu închisoarea, are efecte periculoase, cel puțin pe termen scurt”, a declarat Răzvan Martin, coordonatorul FreeEx, un program al Active Watch, pentru Europa Liberă.

„Consider că legea nu ar trebui doar modificată, ci retrasă până la adoptarea regulamentului Comisiei Europene, ocazie cu care și parlamentarii români ar avea un instrument în plus să construiască un cadru legislativ puternic și adecvat valorilor Uniunii Europene”, a completat el.

China este singura țara care pedepsește deepfake-ul cu închisoarea, conform expertului Active Watch.

Cum s-a ajuns la propunerile de închisoare pentru deepfake în România

Deepfake presupune trucarea, cu ajutorul inteligenței artificiale, a unei imagini, a unui videoclip sau a unei înregistrări audio, în așa fel încât să creeze aparența că o persoană a spus sau a făcut lucruri pe care, în realitate, nu le-a spus sau făcut.

„Legea inițială parcă era scrisă de niște copii de clasa a IV-a, care nu înțeleg domeniul, nu știu ce se întâmplă, au auzit ei ceva despre deepfake și s-au apucat să reglementeze”, spune senatorul USR Raoul Adrian Trifan pentru Europa Liberă. El este și vicepreședinte în Comisia pentru comunicații, tehnologia informației și inteligență artificială din Senat.

Legea a fost în cele din urmă avizată, după ce a suferit modificări care au mai clarificat o parte din aspecte, dar nu toate.

În opinia lui Trifan, care are o experiență de 15 ani în IT, conform CV-ului său, în continuare sunt necesare definitivări ale terminologiei, pentru a putea fi diferențiat conținutul modificat „inocent”, în scopul pamfletului, de exemplu, și cel care produce prejudicii grave, cum ar fi false scene de sex ori declarații menite să păcălească oamenii și să-i lase fără diferite sume de bani.

Îți mai recomandăm Dilema anului electoral 2024: adevărat sau fals? Poate fi influențat votul de inteligența artificială?

„În funcție de situație, susțin că ar fi necesară și pedeapsa penală, dar trebuie foarte bine clarificați termenii, lucru care nu se întâmplă în prezent”, este de părere Trifan.

Partidul din care face parte, Uniunea Salvați România (USR), nu a susținut legea în Senat.

Contactat de Europa Liberă, deputatul Eugen Bejinariu, inițiator al proiectului de lege, a declarat că documentul nu va mai fi supus votului în ședința de marți, cum era programat.

Proiectul a fost retrimis la Comisia pentru cultură, arte, mijloace de informare în masă și la Comisia pentru tehnologia informaţiei şi comunicaţiilor.

Deputatul nu explicat în discuția cu Europa Liberă de ce a fost necesară retrimiterea, din moment ce proiectul avea deja toate avize pozitive.

Întrebat de ce a fost introdusă pedeapsa cu închisoarea în propunerea legislativă de la Camera Deputaților, Bejinariu a transmis că „proiectul depus inițial la Senat prevedea și sancțiuni cu închisoarea”.

Senatorii au adoptat în iunie 2023 o lege care sancționează modificările deepfake, fără a introduce însă pedepse cu închisoarea.

Eugen Bejinariu nu a explicat însă de ce în proiectul de la Camera Deputaților a apărut din nou pedeapsa cu închisoarea, din moment ce forma adoptată de Senat era fără această prevedere.

„Inițiativa a fost reîntoarsă pentru dezbateri. Le-am spus că nu e bună, creează un sistem de pedepse aberant”, a transmis deputat Iulian Bulai (USR), președintele Comisiei pentru cultură, arte, mijloace de informare în masă, pentru Europa Liberă.

Bulai a menționat că avizul a fost acordat pe baza majorității voturilor exprimate de cei din coaliția PNL-PSD, iar USR s-a opus.

„Avem nevoie de o lege cu sancțiuni clare și drastice, de un cordon sanitar, dar rămâne de discutat dacă se impune și o latură penală sau nu”, a adăugat deputatul USR.

Ca președinte al Comisiei, el spune că nu va reintroduce proiectul de lege în dezbatere, atât timp cât nu va suferi modificări substanțiale și nu va lămuri aspectele reclamate în spațiul public.

Ce prevede legislația Uniunii Europene cu privire la deepfake

Conform unui studiu din 2021 al Parlamentului European, discuția despre cum trebuie abordată dezinformarea online în UE a început în 2014, după invadarea Crimeei de către Rusia.

Primul rezultat a fost publicarea Codului de practici privind dezinformarea, în 2018.

Pe lângă măsuri precum închiderea conturilor false sau prevenirea activității bazate pe boți (aplicații software care rulează sarcini automate pe Internet), o componentă cheie a Codului este încercarea de a reglementa publicitate politică online.

Acest lucru trebuie realizat prin operatorii platformei care fac o distincție între conținut politic și non-politic și publicitate politică afectată de dezinformare.

Îți mai recomandăm UE, acord de referință privind reglementarea inteligenței artificiale

Codul invita operatorii platformelor să se supună voluntar la o serie de bune practici, pentru o mai mare transparență și responsabilitate, în special prin publicarea periodică a rapoartelor.

Codul a fost semnat în octombrie 2018 de Mozilla, Twitter, Facebook, Google și alte părți. Microsoft și TikTok s-au alăturat în 2019, respectiv, 2020.

Mai multe studii au indicat că adoptarea Codului nu a generat și o posibilitate semnificativă de a-și măsura eficacitatea iar rapoartele de transparență publicate de multe ori nu conțineau informații importante.

Ca urmare, eficacitatea și eficiența Codului au fost puse sub semnul întrebării.

Comisia Europeană ar putea adopta în aprilie 2024 un regulament care să prevadă în ce condiții pot fi sancționate modificările de tip deepfake.

Unul dintre cele mai cuprinzătoare și recente documente cu privire la discuția despre problema deepfake este Rezoluția din 19 mai 2021 privind „Inteligența artificială în educație, cultură și sectorul audiovizual”.

Pe lângă propunerile deja menționate mai sus, această rezoluție conține diverse propuneri referitoare la evoluția fenomenului.

De asemenea, rezoluția invită Comisia Europeană să introducă un cadru juridic adecvat pentru a guverna crearea, producerea sau distribuția deepfake-urilor în scopuri malițioase.

Reglementări internaționale

California și Texas au fost primele state din SUA care au adoptat, în 2019, legi împotriva deepfake.

În plan politic, de exemplu, este ilegală distribuirea de conținut manipulat într-o perioadă de 60 de zile înainte de alegeri dacă scopul este de a leza reputația candidatului sau de a înșela un alegător să voteze pentru sau împotriva candidatului. În Texas, perioada e limitată la 30 de zile.

În China, guvernul a adoptat o lege care a intrat în vigoare în 2020 și prevede că toate videoclipurile și tot conținutul audio deepfake trebuie etichetate corespunzător de către furnizorii de aplicații. Legea îi obligă pe operatorii platformei să identifice, să marcheze sau să elimine în mod independent conținutul neetichetat.

Îți mai recomandăm Liderul grupului de mercenari Wagner admite că deține „fabrica de troli” prin care Rusia dezinformează Occidentul

Conform cybernews.com, un bărbat din China a fost arestat în 2023 și riscă până la 10 ani de închisoare pentru că a creat și postat pe mai multe rețele o știre falsă despre un accident de tren în care ar fi murit nouă oameni.

La momentul în care poliția s-a sesizat, acea informație falsă avea 15.000 de accesări.

În 2020, Coreea de Sud a adoptat o lege care incriminează distribuirea de deepfake care ar putea „provoca prejudicii interesului public”. Cei găsiți vinovați riscă până la cinci ani de închisoare sau amenzi de până la 50 de milioane de woni (aproximativ 40.000 euro).

Cum identifici un deepfake - sfaturile unui expert în securitate cibernetică

O mare parte dintre utilizatorii platformelor de social media le accesează de pe dispozitivele mobile, iar dimensiunea ecranului nu permite distingerea distorsionărilor care apar la nivelul gurii. În plus, uneori este chiar greu de sesizat acest detaliu.

Ce ar trebui să urmărească utilizatorii:

  • Distorsionările care apar în video, mai ales la nivelul gurii. Se poate observa că există o diferență între calitatea vizuală a feței și cea a gurii, dar și la nivelul ochilor și urechilor.
  • Greșelile gramaticale sau de exprimare, accentul. Textul interpretat de inteligența artificială încă nu poate fi redat într-un limbaj clar și apar diverse greșeli destul de ușor de sesizat.

O șansă mare am avea prin realizarea de aplicații care să poată identifica în timp real tehnologia DeepFake, astfel încât utilizatorul să fie informat înainte de a își forma o părere sau înainte de a intra în panică.

O altă soluție este să nu reacționeze la ce a auzit/ văzut și să aștepte părerea celor care sunt specializați în domeniu sau care au la dispoziție metode de identificare a acestor falsuri.

Sursa: Alexandru Angheluș, expert în securitate cibernetică