Tehnologia pentru manipularea înregistrărilor video devine din ce în ce mai sofisticată și totodată tot mai accesibilă publicului larg, astfel încât distincția dintre adevărat și fals ar putea fi foarte greu de făcut. Niciun stat nu pare să fie ferit de acest fenomen, iar România, graniță a UE și NATO, nu face excepție, spun specialiștii în tehnologia informației.
„Potențialul de a folosi conținut deepfake pentru a crea știri false sau pentru a influența opinia publică este imens și deci ne așteptăm ca fenomenul să ia amploare”, a explicat pentru Europa Liberă, Filip Truță, analist în securitate informatică în cadrul companiei Bitdefender.
Practic, deepfake înseamnă conținut falsificat cu ajutorul inteligenței artificiale, adică înregistrări video sau audio care arată și sună ca și cum ar fi reale, însă, de fapt, nu au existat. Analistul în securitate argumentează că deepfake este o combinație între termenii „deep learning”, o caracteristică a inteligenței artificiale, și „fake” (fals), iar tehnologia are la bază un concept numit Generative Adversarial Network (rețea generativă adversarială) ce poate fi folosit pentru a reproduce imagini video și sunet superficial-autentice pentru ochiul uman.
Fenomenul a apărut în urmă cu doi ani pe rețeaua Reddit, în momentul în care un utilizator, cunoscut sub numele de „deepfakes”, a făcut astfel de video-uri trucate, folosindu-se de chipurile unor actori celebri. Ulterior, prima „victimă” politică a acestei tehnologii a fost chiar fostul președinte Barack Obama, care, prin intermediul unui interpret, transmitea un mesaj necaracteristic.
„Spre deosebire de știrile false, care pot fi dărâmate cu efort minim, un clip deepfake poate avea un puternic impact vizual și emoțional, poate influența opinia publică și poate fi folosit pentru răzbunare sau pentru a defăima persoane publice”, atrage atenția Filip Truță. Mai mult, dacă până de curând această tehnologie era folosită mai degrabă în cercuri restrânse din comunitatea științifică, în prezent există unelte de creat astfel de conținut la liber, „permițând oricui cu acces la un computer să creeze conținut deepfake”.
Persoanele care nu sunt familiare cu acest concept nu vor avea niciun indiciu – cel puțin la prima vedere – că sunt înșelate.Filip Truță, expert Bitdefender
Deocamdată, specialiștii susțin că nu a fost creat un deepfake care să aibă consecințe politice majore. Cu toate acestea, giganții din social media se pregătesc să contracareze acest fenomen. Facebook de pildă a anunțat recent că a făcut un parteneriat cu Microsoft și cu o serie de specialiști pentru a putea detecta mai bine deepfake-urile. Potrivit Reuters, gigantul social media a alocat zece milioane de dolari într-o competiție în care cercetătorii trebuie să producă deepfake-uri cât mai realiste pentru a putea crea un set de date prin care se pot crea unelte de detectare.
Și Google a lansat câteva sute de mii de video-uri deepfake pentru a-i ajuta pe cercetători să construiască unelte care folosind inteligența artificială pot detecta video-urile cu probleme care pot duce la dezinformare politică, la sabotaj între companii sau cyberbullying.
Nimeni nu pare să fie ferit de acest fenomen, atrag atenția specialiștii. Filip Truță subliniază că anul electoral american 2016 a fost influențat considerabil doar prin fake news, deci aproape exclusiv conținut scris. În acest context este lesne de înțeles că materialele deepfake ar putea fi folosite pentru influențarea opiniei publice.
„Motivul? Persoanele care nu sunt familiare cu acest concept nu vor avea niciun indiciu – cel puțin la prima vedere – că sunt înșelate. Cum spuneam mai devreme, un ochi antrenat poate depista indicii vizuale care dau de gol un video de tip deepfake, dar tehnologia din spatele deepfake evoluează atât de rapid încât depistarea unui fals devine din ce în ce mai dificilă, chiar și pentru experți”, spune analistul în securitate.
Cum stă România
Poziția României ca parte a frontierei estice a UE și NATO o transformă și într-o țintă a campaniilor de dezinformare lansate de diverși actori statali sau nonstatali, inclusiv prin deepfake.Nicolae Țîbrigan, expert LARICS
Cu toate că nicio țară nu este ferită de apariția conținutului deepfake, „din fericire, regiunea din care face parte România n-a fost răvășită de deepfake-uri profesioniste, de mare impact. Dar probabilitatea ca acestea să apară în viitorul apropiat este destul de mare”, a explicat, pentru Europa Liberă, Nicolae Țîbrigan, expert al Laboratorului pentru Analiza Războiului Informațional și Comunicare (LARICS) din cadrul Academiei Române.
Totuși, expertul LARICS ar pune România în zona cea mai vulnerabilă în ceea ce privește proliferarea acestui fenomen. El amintește că primul contact al publicului din România cu un deepfake electoral ar fi fost în 2009, atunci când în spațiul public a apărut o înregistrare video în care președintele de atunci Traian Băsescu ar fi lovit un copil.
„Povestea se poate repeta oricând, dar de data aceasta cu utilizarea tehnologiilor mult mai performante. Poziția României ca parte a frontierei estice a UE și NATO o transformă și într-o țintă a campaniilor de dezinformare lansate de diverși actori statali sau nonstatali, inclusiv prin deepfake”, atrage atenția Nicolae Țîbrigan.
În opinia lui, faptul că România va avea în perioada următoare trei runde de alegeri electorale – prezidențiale, locale și parlamentare – riscul apariției de deepfake este mare, mai ales că utilizarea acestuia nu presupune costuri mari.
Fiindcă tehnologia din spatele deepfake este îmbunătățită constant, este foarte dificil pentru utilizatorii obișnuiți să își dea seama că un video este fals, fără un software specializat.
„Astfel de soft-uri sunt dezvoltate de specialiștii de la MIT sau Defense Advanced Research Projects Agency (DARPA), și se bazează pe identificarea diverselor erori la nivel de „pixeli”, variații ale culorii pielii din înregistrări/foto, sau chiar pe variații ale pulsului inimii în timpul vorbirii. Neavând nici timp suficient la dispoziție, impactul deepfake-ului poate fi devastator în ceea ce privește manipularea politică a publicului”, mai punctează Nicolae Țîbrigan.
Facebook Forum