Dilema anului electoral 2024: adevărat sau fals? Poate fi influențat votul de inteligența artificială?

(Atenție, imagini trucate!) Două fotografii generate de inteligența artificială care au devenit virale pe social-media îl arată pe fostul președinte american încătușat de Poliție.

Politicienii și experții în tehnologie se așteaptă ca rețelele sociale să fie inundate în anul electoral 2024 de imagini sau videoclipuri deepfake. E publicul pregătit să discearnă între ce e adevărat și ce e fals?

În septembrie, cu câteva zile înainte de alegerile prezidențiale din Slovacia, două înregistrări audio cu vocea candidatului pro-european au devenit virale.

Într-una dintre acestea, o voce similară cu cea a candidatului Michal Šimečka spunea că el a manipulat alegerile. În cea de-a doua, aceeași voce le spunea alegătorilor slovaci că, dacă va fi ales, va scumpi berea.

Ambele înregistrări au devenit populare pe rețelele sociale și – deși nu e clar dacă au influențat sau nu rezultatele alegerilor – Šimecka avea să piardă la limită în fața oponentului său, un simpatizant al regimului de la Moscova și al președintelui rus, Vladimir Putin.

Ambele înregistrări erau false, trucate cu ajutorul inteligenței artificiale (AI).

Lumea a conștientizat pentru prima dată cât de importantă poate fi tehnologia în influențarea unor alegeri la finele anilor 2000, odată cu izbucnirea scandalului „Cambridge Analytica”.

Scandalul Cambridge Analytica

Compania avea acces la datele a zeci de milioane de utilizatori Facebook. A putut vinde partidelor și candidaților informații prețioase cu privire la ce îi deranjează, ce opțiuni politice au, ce tip de mesaje trebuie să primescă pentru a vota un partid sau altul.

Scandalul a izbucnit în 2018, după votul pentru Brexit (iunie 2016), în urma căruia Marea Britanie a ieșit din Uniunea Europeană.

În Statele Unite, unde Cambridge Analytica a fost acuzată că s-a implicat în alegeri în favoarea lui Donald Trump (campania din 2016), Mark Zuckerberg, fondatorul și CEO-ul Facebook, a fost audiat de către Congres - politicienii voiau lămuriri cu privire la posibila influențare a alegerilor prin intermediul rețelelor sociale. Zuckerberg a primit o amendă de 5 miliarde de dolari, pentru „înșelarea utilizatorilor” și-a cerut scuze în fața Congresului. El a promis o mai bună securizare a datelor personale, pe viitor.

Cambridge Analytica și-a închis birourile de la Londra, New York și Washington, în 2018.

Tehnologia a avansat într-un ritm accelerat în anii care s-au scurs de atunci, iar dezvoltarea inteligenței artificiale – mai ales după 2023 – îngrijorează guverne precum cel al SUA sau al Uniunii Europene că ar putea influența alegerile din 2024.

Anul acesta merg la urne mai mulți alegători decât au făcut-o în toată istoria democrației pe Pământ.

Vor fi alegeri în 64 de țări. Jumătate din populația Globului va vota, inclusiv în state în care Rusia sau China și-ar dori guverne prietenoase.

Îți mai recomandăm 2024, an cu patru feluri de alegeri, o listă de priorități publice îndelung amânate și (prea) multe necunoscute

România nu face excepție. Populația țării este digitalizată în proporție de 28% - cel mai mic nivel din Uniunea Europeană, ceea ce face o face vulnerabilă la fake-news, manipulare sau deepfake.

„Suntem într-un punct destul de sensibil pentru România, pentru că se coroborează mai multe efecte. Explozia tehnologiilor de manipulare este de tip science fiction, iar nivelul nostru general de educație, din nefericire, este de anii 1990, probabil. Mă refer la marea masă a populației”, spune pentru Europa Liberă expertul în media digitală Dragoș Stanca.

Pericolul este punctat și de un expert în securitate cibernetică, Alexandru Angheluș: „Dacă o grupare de cinci-zece oameni face abuz de tehnologie și influențează alegătorii, răul este deja făcut, rezultatele vor fi în favoarea celor care finanțează acea activitate. Până va fi identificat măcar unul dintre actori... vin următoarele alegeri.”

Politicienii sunt și ei îngrijorați: „Federația Rusă, prin diversele servicii secrete pe care le are, s-a implicat în mai multe procese electorale din mai multe țări. Și acolo vorbim de democrații consolidate. Vă dați seama cât e ușor le va fi să interfereze cu procesul electoral din România?”, avertizează Adrian Trifan, vicepreședintele Comisiei pentru comunicații, tehnologia informației și inteligență artificială din Parlamentul României.

Ce este deepfake

Deepfake presupune trucarea, cu ajutorul inteligenței artificiale, a unei imagini, videoclip sau înregistrări audio, în așa fel încât să creeze aparența că o persoană a spus sau a făcut lucruri pe care, în realitate, nu le-a spus sau făcut.

Acest tip de manipulare a fost folosit în ultimii ani în special în industria pornografiei, prin prelucrarea imaginilor în așa fel încât vedete din industria muzicală sau a filmului să pară că ar juca în filme explicite.

Ca să înțelegeți amploarea fenomenului: Acum câteva zile, pe rețeaua socială X, mai multe imagini în care câștigătoarea premiului Grammy Taylor Swift ar apărea în ipostaze pornografice au adunat zeci de milioane de vizualizări.

Cântăreața Taylor Swift a fost victima unui deepfake care s-a viralizat pe X. Cazul a stârnit îngrijorări inclusiv la Casa Albă.

Imaginile erau trucate și au fost înlăturate de pe rețeaua socială abia după câteva ore. Cazul a atras inclusiv atenția Casei Albe, care a numit fenomenul deepfake „alarmant”.

În România, specialiștii în tehnologie consultați de Europa Liberă identifică trei mari probleme în privința producerii și distribuirii de materiale deepfake.

  • Prima e că oricine, fără mari cunoștințe tehnice și mari resurse financiare, poate produce astfel de materiale. Dacă în trecut softurile de prelucrare video/audio erau scumpe, acum acestea pot fi găsite gratuit, pe internet.
  • A doua problemă e ca statele sau victimele depind de rețelele sociale pentru a împiedica viralizarea lor. Iar Facebook, Instagram, TikTok sau X – ai căror algoritmi ajută la răspândirea videoclipurilor sau imaginilor care șochează/atrag atenția sunt cunoscute pentru reticența lor de a da curs solicitărilor venite de la autorități. În cazul cântăreței Taylor Swift, X a șters de pe platformă imaginile trucate abia după câteva ore.
  • Autoritățile nu pot face mare lucru. Cel mult îi pot sancționa pe cei cei prinși că au distribuit astfel de materiale. Soluția ar fi educarea digitală a populației, capitol la care România stă extrem de prost.

Mic dicționar

Dezinformare: distribuirea de informații înșelătoare sau părtinitoare, cu intenția de a induce în eroare;

Fake news: informații false create în mod intenționat, care îmbracă forma unei știri;

Deepfake: trucarea unui material video, foto sau audio pentru a transmite în mod fals că o persoană a spus sau a făcut ceva anume.

Vor fi folosite deepfake-uri în alegerile din România?

„Da, fără îndoială”, au răspuns pentru Europa Liberă nu doar experți în tehnologie, ci și politicieni din Comisia pentru comunicații, tehnologie și inteligență artificială a Senatului.

Cazuri celebre de deepfake au apărut în România încă din 2020, când artista Delia Matache a dezvăluit că chipul său a fost suprapus peste cel al unei actrițe de filme pentru adulți și videoclipurile distribuite pe site-urile de profil.

„O mizerie făcută cu o aplicaţie de doi lei”, spunea, atunci, Delia.

Mai recent, fostul primar al Timișoarei, Nicolae Robu, a publicat un filmuleț în care actualul edil, Dominic Fritz, apare spunând lucruri pe care nu le-a rostit vreodată. Robu s-a apărat spunând că vorbele „puse în gura” oponentului său politic sunt dintr-un discurs scris al lui Fritz.

Iar zilele trecute, Banca Națională a României a negat într-un comunicat că guvernatorul Mugur Isărescu ar fi oferit sfaturi financiare românilor, așa cum reieșea dintr-o înregistrare publicată de o pagină de Facebook fără identitatea verificabilă.

Chipul și vocea lui Mugur Isărescu au apărut într-o filmare trucată în care guvernatorul ar oferi sfaturi financiare românilor. BNR a negat.

În contextul celor patru rânduri de alegeri din România, e foarte posibil ca aceste tipuri de trucaje să se înmulțească și multe să aibă tentă politică.

Dragoș Stanca, expert în digital media, spune pentru Europa Liberă că dezvoltarea tehnologiei de tip deepfake vine în contextul în care utilizatorii de social-media/media sunt deja expuși „unei algoritmizări excesive a consumului de conținut”.

„Adică, pe scurt, nu contează neapărat dacă este adevărat, contează [ca știrea] să facă trafic, pentru că există un model economic și de business care susține această abordare”, spune Stanca, care se referă la ușurința cu care devin virale informațiile false sau cele care manipulează, în special prin intermediul rețelelor sociale.

„Zona de deepfake adaugă un layer (strat, n.r.) de complexitate suplimentar și complică discuția. Pentru că, de fapt, e o continuare a fenomenelor negative care s-au produs prin algoritmizarea media”.

Dragoș Stanca este convins că, în campaniile electorale din acest an, inteligența artificială va fi folosită pentru a genera deepfake în scopul de a manipula alegătorii.

Sfatul lui:

„Orice conținut din spațiul digital în anul 2024 trebuie tratat ca ficțiune, mai ales dacă e o imagine, video sau fotografie. Premisa de la care trebuie pornit este că este ficțiune, poate fi contrafăcut, manipulat și doar în etapa ulterioară să fie luat ca fiind real. Dar premisa de bază, mai ales într-un context electoral, este ficțiunea. Oamenii trebuie să trateze video-urile din spațiul digital exact la fel cum tratează un film la cinematograf.”
Îți mai recomandăm Un video deepfake cu Putin a fost difuzat în Rusia, anunțând că trupele ucrainene au invadat Rusia

La un val de materiale de tip deepfake se așteaptă și senatorii care conduc Comisia pentru comunicații, tehnologia informației și inteligență artificială.

Președintele acestei comisii, Claudiu Mureșan, senator PSD, spune pentru Europa Liberă că „inteligența artificială este pe de o parte, un lucru de care avem nevoie, dar pe de altă parte, poate aduce mari deservicii dacă nu reușim să controlăm fenomenul și la nivel legislativ corect. ”

Cum poate statul român să facă acest lucru?

„Din punctul meu de vedere este o mare provocare pe care o avem și va trebui să fim foarte serioși în abordarea viitoarelor măsuri și să folosim specialiștii care pot da răspunsuri care să ne ajute să facem față acestei provocări”, afirmă Mureșan.

Și vicepreședintele Comisiei pentru comunicații, tehnologia informației și inteligență artificială, Adrian Trifan, se așteaptă ca în campanie să fie distribuite materiale deepfake.

„Mă gândesc că cei care folosesc Facebook-ul, de exemplu, demografic vorbind, au îmbătrânit. Sunt părinții, bunicii noștri, iar ei nu înțeleg așa de bine cum funcționează platforma asta și că în spatele unor poze aparent frumoase pot sta de fapt niște servicii secrete rusești”, spune senatorul USR.

Luni, 12 februarie, Comisia pentru comunicații, tehnologia informației și inteligență artificială va organiza la Parlament o dezbatere despre deepfake și inteligența artificială, la care vor participa CEO de la Google România, profesori universitari, reprezentanți ai Autorității Naționale pentru Administrare și Reglementare în Comunicații și Serviciului de Telecomunicații Speciale și mai multe asociații.

Care ar fi soluțiile?

Senatorul Adrian Trifan vorbește despre educarea populației și dă exemplul Estoniei:

„Când am fost în Estonia să văd cum am reușit ei să digitalizeze toate serviciile publice, i-am întrebat «cum ați reușit cu populația?». Și ne-au spus foarte clar că au avut programe dedicate - guvernamentale - pentru alfabetizare digitală, inclusiv pentru persoanele în vârstă, pentru că noi degeaba trecem totul în cloud dacă oamenii nu știu să îl folosească și se duc tot fizic să-și depună actele și să plătească taxele și impozitele.”

Potrivit datelor pe 2023 ale Eurostat, România se situează pe ultimul loc în Uniunea Europeană în privința ponderii persoanelor care au competențe digitale de bază, adică pot crea conținut digital, știu să se protejeze în spațiul digital sau pot folosi date și informații digitale.

Îți mai recomandăm Cum arată testele PISA la care elevii români „rezilienți” nu se descurcă

Mai puțin de unul din trei români (28%) cu vârste cuprinse între 16 și 74 de ani are măcar aptitudini digitale de bază. Media europeană este de 56%, iar țări vecine precum Bulgaria sau Ungaria au procente de 36%, respectiv 60%.

În aceste condiții, expertul în media digitală Dragoș Stanca e de părere că singura soluție pentru a limita efectelor unor manipulări în masă prin intermediul tehnologiei este „un dialog onest și constructiv cu platformele de Big Tech”, adică giganții din domeniul tehnologiei precum Meta (care deține Facebook și Instagram) sau Alphabet (Google).

„Din nefericire, operatorii Big Tech, fie de voie, fie de nevoie, au dovedit că în unele cazuri au scăpat de sub control propriul ecosistem. Există campanii false care îl au ca purtător de imagine inclusiv pe Mark Zuckerberg (fondatorul Facebook) în propria sa platformă. Suntem într-un punct în care ar trebui ca platformele de acest tip să admită că pur și simplu nu pot nici ele lupta cu acest flagel și că ar trebui să se reseteze puțin discuția.”

Shou Zi Chew, CEO al TikTok și Mark Zuckerberg, CEO al Meta (care deține FAcebook și Instagram). În această fotografie, de pe 31 ianuarie 2024, cei doi urmau să fie audiați de Senatul SUA într-un dosar privind exploatarea sexuală a copiilor prin platformeor online.

Expertul în securitate cibernetică Alexandru Angheluș atrage atenția că majoritatea utilizatorilor de pe rețelele sociale nu înțeleg fenomenul deepfake și, mai grav, mulți nu sunt cu adevărat interesați să o facă.

„Consider că baza este educația utilizatorilor de tehnologie. Oamenii trebuie să fie educați digital și cibernetic, încât să afle despre această parte a tehnologiei și despre influența pe care o poate avea asupra lor”, spune el.

Cum identifici un deepfake - sfaturile unui expert în securitate cibernetică

O mare parte dintre utilizatorii platformelor de social media le accesează de pe dispozitivele mobile, iar dimensiunea ecranului nu permite distingerea distorsionărilor care apar la nivelul gurii. În plus, uneori este chiar greu de sesizat acest detaliu.

Ce ar trebui să urmărească utilizatorii:

  • Distorsionările care apar în video, mai ales la nivelul gurii. Se poate observa că există o diferență între calitatea vizuală a feței și cea a gurii, dar și la nivelul ochilor și urechilor.
  • Greșelile gramaticale sau de exprimare, accentul. Textul interpretat de inteligența artificială încă nu poate fi redat într-un limbaj clar și apar diverse greșeli destul de ușor de sesizat.

O șansă mare am avea prin realizarea de aplicații care să poată identifica în timp real tehnologia DeepFake, astfel încât utilizatorul să fie informat înainte de a își forma o părere sau înainte de a intra în panică.

O altă soluție este să nu reacționeze la ce a auzit/ văzut și să aștepte părerea celor care sunt specializați în domeniu sau care au la dispoziție metode de identificare a acestor falsuri.

Sursa: Alexandru Angheluș, expert în securitate cibernetică

Reglementările statelor

În România, o lege privind sancționarea celor care se folosesc de deepfake în scopuri ilicite se află în dezbaterea Parlamentului încă din 2023.

Proiectul este pe rolul Camerei Deputaților.

În forma adoptată de Senat, legea prevede ca materialele cu conținut deepfake să nu poată fi distribuite pe internet sau în mass-media „dacă nu sunt însoțite de un avertisment redat pe cel puțin 10% din suprafața expunerii și pe toată durata difuzării respectivului conținut vizual sau de un mesaj sonor la începutul și la finalul conținutului audio: acest material conține ipostaze imaginare”.

Instituția responsabilă de control, potrivit formei de la Senat, ar urma să fie Consiliul Național al Audiovizualului, care ar notifica platformele audio-vizuale sau online care promovează astfel de materiale.

Pentru cei care distribuie materiale deepfake, legea prevede amenzi între 10.000 și 100.000 de lei.

Instrumentele de generare DeepFake sunt acum disponibile pentru utilizatori fără competențe avansate în programare
Alexandru Angheluș, expert în securitate cibernetică

Expertul în securitate cibernetic Alexandru Angheluș este sceptic că eventualele sancțiuni stabilite printr-o lege i-ar putea descuraja pe actorii rău-intenționați.

„Din experiența acumulată, pot spune că nu este suficient să descurajăm actorii, deoarece procesul de incriminare a acestora poate fi foarte lung și de multe ori fără un rezultat favorabil. Dacă sunt persoane bine organizate, mai ales că vorbim de alegeri, aceștia vor fi foarte atenți încât identitatea lor să nu fie aflată”, spune Angheluș.

Cum luptă UE

Pentru a opri propagarea unor imagini și videoclipuri false generate cu ajutorul AI, Uniunea Europeană intenționează să oblige marile rețele sociale, inclusiv Facebook, X sau TikTok, să eticheteze aceste tipuri de materiale.

Scopul este de a proteja de dezinformare și manipulare viitoarele alegeri europene, scrie Politico.

„Știm că această perioadă electorală care se deschide în Uniunea Europeană va fi vizată fie prin atacuri hibride, fie prin interferențe străine de tot felul”, a declarat comisarul pentru piața internă Thierry Breton miercuri, 7 februarie, în fața parlamentarilor europeni la Strasbourg.

Oficialul european nu a spus când exact companiile vor fi obligate să eticheteze conținutul manipulat în conformitate cu legea UE privind moderarea conținutului, Digital Services Act (DSA).

Unele companii, inclusiv producătorul ChatGPT, OpenAI, au declarat că vor începe să marcheze imaginile false. Meta, care deține Facebook și Instagram, a declarat marți că va începe să eticheteze imagini generate de AI de pe rețelele sale în „lunile următoare”.​

Cât de mult a evoluat în patru ani tehnologia AI generatoare de deepfake

„Evoluția tehnologiilor de inteligență artificială (AI) generatoare de conținut DeepFake în ultimii patru ani este semnificativă, atât din perspectiva calității și realismului, cât și a accesibilității pe scară largă. Această progresie are implicații profunde asupra securității informaționale, autenticității digitale și integrității proceselor electorale.

Principalele progrese în tehnologia DeepFake se reflectă în rafinamentul și complexitatea algoritmilor de învățare automată, în special în rețelele neuronale generative antagoniste (GANs).

Aceste inovații au condus la producerea de conținut video și audio extrem de realist, unde sincronizarea buzelor, expresiile faciale și tonalitatea vocală nu pot fi deosebite de materialele autentice. Această evoluție a crescut exponențial capacitatea de manipulare și dezinformare, ridicând provocări semnificative pentru mecanismele de verificare a faptelor și pentru instituțiile de apărare a integrității informaționale”.

Sursă: Alexandru Angheluș, expert securitate cibernetică.