Linkuri accesibilitate

Ce mai livrează algoritmii pe social media? Expert Alexandra Ștefănescu: Rețele au afișat mesaje politice și celor fără drept de vot

Un raport românesc se alătură unui șir lung de rapoarte și analize care au semnalat în ultimii ani că rețelele de socializare pot provoca dependențe.
Un raport românesc se alătură unui șir lung de rapoarte și analize care au semnalat în ultimii ani că rețelele de socializare pot provoca dependențe.

Pe scurt

  • Algoritmii de recomandare de pe trei platforme de socializare, Facebook, Instagram și TikTok, nu au respectat anumite aspecte ale legislației electorale din România, arată un studiu realizat de Asociația pentru Tehnologie și Internet (ApTI).
  • Cercetarea arată că platformele de social media nu oferă un spațiu echilibrat și echitabil pentru dezbateri electorale.
  • Experta în cybersecurity Alexandra Ștefănescu vorbește la #10întrebări despre cum platformele de socializare influențează algoritmii în preajma alegerilor electorale.

Studiul realizat de Asociația pentru Tehnologie și Internet (ApTI) arată că algoritmii de recomandare a postărilor de pe rețelele de socializare au propagat cam în aceeași măsură mesaje politice provenite de la conturi personale și mesajele politice provenite de la conturile oficiale ale candidaților, chiar dacă utilizatorii optaseră numai pentru conturile oficiale ale candidaților.

Reprezentanții ApTI au urmărit timp de câteva săptămâni – într-o perioadă care s-a suprapus parțial cu campania pentru alegerile prezidențiale din mai 2025 – conturi nou-create prin care au colectat date despre cum funcționează algoritmii de la aceste platforme de socializare în timpul campaniei electorale.

Alexandra Ștefănescu, coordonatoarea proiectului, explică faptul că fiecare algoritm de recomandare funcționează punând accent pe emoțiile utilizatorilor, bazându-se pe un mecanism de adicție menit să te țină în platformă cât mai mult timp.

Studiul arată că, în cazul platformelor TikTok și Instagram, algoritmii de recomandare au livrat conținut politic unui cont marcat ca fiind al unei persoane minore, care nu a exprimat niciun interes față de subiecte politice legate de campania electorală.

„Instagram, pe feedul home, a propagat foarte puțin conținut cu mesaje politice. Dar TikTok a propagat din ce în ce mai mult, până când în ultima zi, adică ziua de liniște electorală înainte de turul al doilea de scrutin, contul respectiv a ajuns să vadă 80% mesaje cu conținut politic”, spune Alexandra Ștefănescu la #10întrebări.

1. Europa Liberă: Ați făcut un raport cu observații despre sistemele de recomandare ale rețelelor sociale, în contextul campaniei electorale pentru alegerile prezidențiale din România din 2025, în care spuneți că mesajele polarizante au fost prioritizate de către algoritmii de recomandare de pe aceste rețele de socializare. De ce și cu ce scop vrea cineva, eventual din partea acestor rețele, să polarizeze societatea?

Alexandra Ștefănescu: Prima chestie care trebuie explicată este că toate companiile care dețin platforme de social media foarte folosite fac bani din reclame personalizate.

Ca să poată livra reclame personalizate, aceste rețele de socializare trebuie să ne țină pe platforma rețelei cât mai mult timp. Trebuie să dăm scroll cât mai mult timp, astfel încât să avem cât mai mult timp să dăm peste o reclamă și încă reclamă și tot așa.

Și, cu cât mai multe reclame noi vezi, cu atât crește profitul companiei mamă a acestei rețele de socializare, profit din reclame personalizate. Asta înseamnă că, din punctul de vedere al profitabilității companiei, prioritatea este să ne facă să fim captivi într-un sens emoțional.

Vedem încă o postare, și încă o postare, și încă o postare. Faptul că scrolling-ul pe pagină este infinit este, la rândul lui, o decizie care face ca aceste platforme să dea dependență din punct de vedere al reacției emoționale care ne ține acolo. Pentru acest scop au fost cizelați și algoritmii de recomandare. Algoritmii de recomandare sunt cei care filtrează conținutul pe care îl vedem din tot conținutul care este pe platformă.

De exemplu, atunci când Facebook a apărut, algoritmii ne dădeau doar conținut de la persoanele pe care le urmăream. În momentul de față, în schimb, algoritmii de recomandare ne inserează și conținut de la persoane pe care nu le urmărim, însă ne sunt prezentate ca un conținut care ar putea să ne placă – fie postari personale, fie de la pagini grupuri și așa mai departe. Algoritmii de recomandare sunt cei care orchestrează ce „conținut” ar putea să ne placă.

În timpul campaniei electorale, studiul nostru cantitativ a urmărit în primul rând trei conturi noi-nouțe de utilizatori, cu vârsta declarată ca fiind adultă, care au urmărit doar paginile principale ale candidaților la prezidențiale, nu și paginile de partid, nu și paginile personale, doar pagina principală de candidat. Deci au exprimat un interes exclusiv politic și nu au interacționat cu nici un fel de conținut, doar au consumat feed-ul și au dat scroll.

Atunci când Facebook a apărut, algoritmii ne dădeau doar conținut de la persoanele pe care le urmăream. În momentul de față, algoritmii de recomandare ne inserează și conținut de la persoane pe care nu le urmărim.

Și am văzut, în urma studiului cantitativ, că algoritmul de recomandare le-a arătat conținut de la conturile personale ale unor oameni aproape în aceeași proporție în care le-au arătat conținutul pe care ei au declarat că vor să-l urmărească, anume conținutul politic de la conturi oficiale, în perioada campaniei electorale.

De aici vedem o tendință a algoritmului de a extrapola. De la declarația mă interesează candidații la prezidențiale algoritmii extrapolează și încep să tragă ușor-ușor de marginile interesului strâmt exprimat pentru aceste conturi, să le lărgească și să le dea și opinii personale și îndemnuri de a ieși, sau nu ieși la vot.

2. Europa Liberă: Cu alte cuvinte, putem spune că acest mod de targetare este de fapt adictiv?

Alexandra Ștefănescu: Nu e doar vorba că putem noi să spunem. Acest lucru rezultă dintr-o concluzie preliminară a unui raport al Comisiei Europene.

Comisia Europeană a investigat TikTok și a extras o serie de caracteristici despre care argumentează că sunt adictive, dau dependență.

Și aici intră scroll-ul infinit, intră faptul că îți este recomandat conținut în afara a ceea ce ai specificat tu că vrei să vezi și autoplay-ul – adică faptul că în momentul în care vezi un video nu trebuie să dai click pe el ca să înceapă să se deruleze, ci el se derulează de la sine.

Așadar, nu este doar că noi avem o părere subiectivă, ci faptul că inclusiv studii de la cel mai înalt rang au aceste concluzii preliminare cum e că în cazul TikTok – o sumă de funcționalități rezultă în dependență.

Cu privire la alegerile din România, TikTok a spus în decembrie 2024 că, în perioada 15-30 decembrie 2024, a eliminat peste 5,3 milioane de aprecieri false și peste 2,6 milioane de cereri de urmărire false. De asemenea, ar fi blocat crearea a peste 116.000 de conturi spam în România. Comisia Europeană a deschis în decembrie 2024 o procedură formală împotriva TikTok, suspectată că nu a limitat interferența în alegerile prezidențiale din România.

3. Europa Liberă: Algoritmii de recomandare de pe cele trei platforme - Facebook, TikTok și Instagram – nu au respectat anumite aspecte ale legislației electorale din România, conform raportului. Despre ce legislație e vorba?

Alexandra Ștefănescu: E vorba în primul de perioada de liniște electorală, care sunt cele 24 de ore de dinaintea începerii votării în țară, în care candidații și partidele nu mai pot să-și facă campanie, nu se mai derulează dezbateri la televizor cu candidații, nu mai pot avea emisiuni dedicate.

Această perioadă de liniște electorală sunt cele 24 de ore dinaintea începerii votării în țară. Pe social media, a respecta întocmai liniștea electorală este destul de dificil, pentru că feed-ul care se deschide din start atunci când intrăm pe Facebook este populat algoritmic, nu este ordonat cronologic.

Atunci când dăm scroll, vedem postări și de acum cinci minute și de acum două săptămâni. Ca atare, în cele 24 de ore, o să vedem și postarea de acum două săptămâni care era bine-mersi în timpul campaniei și care este de fapt un mesaj politic de campanie electorală.

Ca atare, nu a fost deloc surprinzător să vedem că voluntarii noștri au consemnat conținut politic în perioada de liniște electorală.

Alexandra Ștefănescu
Alexandra Ștefănescu

4. Europa Liberă: O voluntară implicată în colectarea de date și-a creat un cont pe aceste platforme de social media cu vârsta setată la 16 ani, dar cu toate acestea a văzut conținut politic furnizat de algoritmi. Cum e posibil acest lucru? Nu există de fapt niciun filtru?

Alexandra Ștefănescu: A fost foarte surprinzător cazul unui cont al unei persoane voluntare cu vârstă declarată ca fiind minor de 16 ani, care nu a urmărit candidații la prezidențiale, ci a urmărit conținut de gaming și educațional. Adică am făcut o simulare a ceea ce ne-a dus pe noi capul că ar putea să intereseze o persoană de 16 ani.

Și, înainte de turul al doilea de scrutin, pe platforma TikTok, în cele 24 de ore de liniște electorală, acest cont așa-zis de minor avea 80% din feedul său populat cu mesaje politice.

Acest cont, așa-zis de minor, avea 80% din feedul său populat cu mesaje politice.

Am fi înțeles dacă erau pentru conturile de adulți și niște mesaje politice de acum două săptămâni. Dar să fie 80% din conținut politic pentru un cont care nu poate vota și nici măcar nu e vag că ar putea vota – că de la 16 ani nu ajungi la 18 ani în 24 de ore – este total în afara ariei de interes a acelui cont să primească aceste mesaje în perioada de liniște electorală.

Din punctul acesta de vedere, noi am spus că platformele nu au respectat liniștea electorală, așa cum este definită în legea electorală română.

5. Europa Liberă: Mai precis, cum are loc această targetare? Ce mecanisme sunt în spate și cum ajunge conținutul politic la persoane care nu au exprimat niciun interes politic, la persoane minore care nu și-au exprimat vreun interes politic?

Alexandra Ștefănescu: Din păcate, algoritmii de recomandare sunt parte din proprietatea intelectuală a companiilor respective și sunt cod cu surse închise, adică un cod care nu poate fi consultat.

Mai mult decât atât, au un cod despre care nu există documentație publică și care să ne arate care sunt mecanismele prin care algoritmii de recomandare iau deciziile, de a ne arăta cum iau decizii față de ce conținut propagă și ce conținut nu propagă.

Știm că ei sunt influențați, de exemplu, de decizii de moderare de conținut. Adică dacă un conținut contravine politicilor platformei, el este ori șters, ori contul intră într-un stadiu de shadow, în care conținutul lui nu mai este propagat mai departe, dar rămâne în continuare pe platformă.

Însă, dincolo de aceste deducții și corelări și lucruri care au intrat sub lumina reflectoarelor din cauza unor scandaluri sau discuții publice, nu știm funcționează per se algoritmii de recomandare.

Ar fi foarte bine să știm cum funcționează, ar fi minunat pentru transparența și pentru creșterea sau stabilirea unei relații de încredere între utilizator și platformă să existe o documentație publică care explică lucrurile astea. Dar, în momentul de față, nu trăim în lumea aceea.

6. Europa Liberă: În cazul minorilor, platformele spun, cel puțin declarativ, că au o politică de protecție. Ce s-a întâmplat în cazul voluntarei care a setat vârsta la 16 ani?

Alexandra Ștefănescu: Noi am văzut că, în contextul acestui studiu, în timpul campaniei electorale, Facebook nu a propagat mesaje cu conținut politic în feedul acestei voluntare cu vârsta setată la 16 ani.

Instagram – pe feedul home a propagat foarte puțin conținut cu mesaje politice. Dar TikTok a propagat din ce în ce mai mult, până când în ultima zi, adică ziua de liniște electorală înainte de turul al doilea de scrutin, contul respectiv a ajuns să vadă 80% mesaje cu conținut politic.

Ceea ce este bizar și ilar în același timp e că atunci când și-a creat cont pe TikTok, rețeaua îi livra o notificare care spunea este 10 seara - e ora de culcare, adică într-un fel ca să se poate să spună că a luat niște măsuri de reducere a adicției sau de susținere a unui stil de viață sănătos.

Dar voluntara ne-a povestit și ne-a arătat că putea să închidă acest pop-up și să continue liniștită să vadă conținut. Deci a fost echivalentul unui teatru de susținere a unei vieți echilibrate mai degrabă, decât o acțiune consecventă.

În regulamentele de la nivelul Uniunii Europene se stipulează în mod specific faptul că aceste platforme foarte mari trebuie să ia măsuri concrete de mitigare a riscurilor și asupra minorilor.

Și, o dată pe an, ei trebuie să raporteze ce riscuri au identificat și ce măsuri au luat.

7. Europa Liberă: Înseamnă că nu există, de fapt, niciun filtru pentru minori?

Alexandra Ștefănescu: Noi nu avem de unde să știm care e situația. Asta e partea proastă – că nu știm nici cum e implementat, nici cum e intenționat să fie implementat, adică nu putem să știm dacă intenția este bună și implementarea e proastă, sau dacă inclusiv intenția e proastă.

Codul respectiv pe care îl folosește algoritmul are menirea de a te ține într-o platformă cât mai mult timp.

Pentru fiecare cont de pe o platformă, algoritmul e hrănit cu niște semnale, de exemplu când îți faci cont și setezi vârsta, un semnal pleacă către algoritim și zice acest utilizator are 32 de ani. În momentul în care începi să dai follow la diverse pagini sau conturi, pleacă alte semnale, care informează algoritmul că te interesează o pagină de gătit, o pagină de reparat mașini etc.

Din toate aceste semnale, algoritmul ajunge să te conceapă ca pe un anumit fel de utilizator, căruia ar fi bine să-i arăte pagini de schimb mașini second hand, de exemplu, pentru că dacă ești pe un market de haine second, probabil că nu îți permiți nici nici o mașină nouă de exemplu.

8. Care sunt pericole ascunse aduse de valurile de conținut de pe social media care reies în urma acestui studiu, pe lângă adicția emoțională?

Alexandra Ștefănescu: Noi ne-am început studiul având în minte o afirmație făcută de Curtea Constituțională în 2024, când a fost anulat turul al doilea al alegerilor prezidențiale. Afirmația spunea că social media nu poate să garanteze un spațiu de dezbatere echilibrat pentru candidați.

Și am vrut să vedem în ce măsură putem determina sau putem analiza cantitativ cât de divers, cât de echilibrat este spațiul de dezbatere.

Din cauza faptului că am văzut categorii de mesaje care erau mult mai reprezentate decât altele, am văzut conținut polarizat, în sensul în care o categorie era dominantă și restul de categorii erau mai în spate.

De asemenea, din cauza faptului că legislația electorală nu a fost respectată cu privire la liniștea electorală, și din cauza faptului că conturilor li s-au arătat conținut provenit de la conturi pe care nu le-au urmărit și cu care nu au interacționat niciodată, am concluzionat că social media nu oferă un spațiu echilibrat de dezbatere politică.

9. Europa Liberă: Din moment ce ați demonstrat că minorii nu sunt protejați pe internet de conținutul politic și nu numai, dvs. în ce condiții considerați că ar putea fi adoptată o lege a interzicerii minorilor pe rețelele sociale până la vârsta de 15-16 ani?

Alexandra Ștefănescu: Noi ne opunem acestei idei de interzicere. Avem în România o propunere de lege care a trecut de prima cameră – legea majoratului digital – care spune că platformele de social media trebuie să decidă dacă au conținut care este nepotrivit pentru persoanele sub o vârstă clară.

Și dacă au, și ca să fim sinceri majoritatea au, trebuie să diferențieze între conturi.

În plus față de asta, o instituție românească – ANCOM – a fost desemnată să se execute în momentele în care un părinte vine și spune «acest cont de Facebook este al copilului meu și eu îmi doresc ca Facebook să închidă acest cont».

E o chestiune foarte dificilă aici. În primul rând, în unele cazuri, dorințele părinților contravin dorințelor copiilor. În al doilea rând, orice vârstă de referință am alege este un criteriu complet arbitrar, pentru că nu se întâmplă nici un lucru magic în miezul nopții de dinaintea zilei tale de naștere, nu capeți mult mai multă maturitare în gândire sau mult mai mult control de sine. Atunci, vârsta ca criteriu arbitrar, este complet nepotrivită.

În al treilea rând, acest proiect de lege este extrem de neclar când vine vorba de a defini la ce se va aplica, pentru că din modul în care este formulat acum pare că se aplică și la Facebook, Instagram sau TikTok, dar și Duolingo – pe care copiii poate învață o limbă străină.

Așa că noi susținem că interzicerea pe social media a copiilor de 15 ani nu are cum să funcționeze tehnic.

10. Europa Liberă: Fără această lege, cum pot fi protejați minorii în mediul digital?

Alexandra Ștefănescu: Poziția noastră este că ar trebui să protejăm pe toată lumea, nu doar pe minori.

Și, din punctul acesta de vedere, studiul nostru oferă o serie de recomandări. În primul și în primul rând, conform Digital Services Act, orice platformă de social media care este desemnată very large online platform trebuie să ofere un feed alternativ care nu este populat de algoritmi de recomandare și care este cronologic, deci un feed ca pe vremuri, în care vezi doar acel conținut de la contul pe care l-ai urmărit și tot conținutul îl ai ordonat cronologic.

Cel mai important lucru, și un lucru pe care un regulament UE îl cere explicit, este să existe o alternativă reală și persistentă pe toate rețelele de socializare, să consumi conținut fără algoritm.

Unele din platforme s-au conformat și oferă acest feed pe dispozitivul mobil, dar nu pe laptop sau calculator.

Mai mult decât atât, chiar și acelea care oferă acest feed nu fac setarea ca să fie persistentă. Cu alte cuvinte, dacă eu intru pe Instagram de pe mobil și dau click pe feedul cronologic, în care văd doar ce au zis prietenii mei, după ce închid aplicația – data viitoare când deschid aplicația – văd tot feedul algoritmic, pentru că setarea mea de preferință pentru feedul non-algoritmic nu este persistentă.

Noi credem că ar trebui să fie persistentă peste tot și să fie posibil să schimbi feedul într-unul cronologic. Ne dorim ca utilizatorii să poată să ia propriile decizii de curatoriere a feedului. De exemplu, să poți să ascunzi orice postări care conțin anumite cuvinte, să zicem că nu vrei să vezi deloc conținut despre diete poate pentru că treci printr-o perioadă super-dificilă în care acest conținut te face să te simți nefericit/ă sau neîmplinit/ă, de exemplu.

În momentul de față, utilizatorii nu au astfel de mecanisme de curatoriere a feedului care să fie și eficiente.

În ultimul rând, ne dorim niște mecanisme puternice de filtrare a conținutului politic, mai ales în perioade sensibile cum sunt cele electorale.

Cel mai important lucru, și un lucru pe care un regulament UE îl cere explicit, este să existe o alternativă reală și persistentă pe toate rețelele de socializare, să consumi conținut fără algoritm.

Asociația pentru Tehnologie și Internet este o organizație neguvernamentală care promovează o lume digitală liberă și deschisă, prin respectarea drepturilor fundamentale ale omului. Asociația crede că un internet liber este un mediu în care libertatea de exprimare și viata privată sunt respectate și garantate.

Europa Liberă România e pe Google News. Abonați-vă AICI.

  • 16x9 Image

    Andreea Ofițeru

    Andreea Ofițeru s-a alăturat echipei Europa Liberă România în ianuarie 2021, ca Senior Correspondent. Lucrează în presă din 2001, iar primele articole le-a publicat în România Liberă. Aici a scris pe teme legate de protecția copiilor, educație, mediu și social. De-a lungul timpului, a mai lucrat în redacțiile Adevărul, Digi24, Gândul, HotNews.ro, unde a documentat subiecte legate de învățământul din România și de actualitate. 

    A scris știri, interviuri, reportaje și anchete. A participat la mai multe proiecte printre care și conceperea primului supliment dedicat exclusiv subiectelor despre școală: Educație&Școală.  

    A fost bursieră Voice Of America/Washington DC, într-un program dedicat jurnaliștilor din Europa de Est.

XS
SM
MD
LG