Alec Pop
Curiosul caz al AI-ul electoral15 min read
Deși mulți se așteptau ca AI-ul să influențeze direct alegerile, mai ales după apariția DALL-E sau Sora, impactul nu a fost semnificativ. Totuși, inteligența artificială influențează alegerile în alte moduri.
În ultimul rând al alegerilor din România, cea mai vizibilă // Postarea elenei Lasconi de pe 1 mai, facebook.com // cu scopul de a influența alegerile a fost făcută cu ajutorul Adobe Photoshop, nu al inteligenței artificiale.
OK, se poate argumenta că Photoshopul folosește niște unelte AI în editare, dar n-a apărut vreun video trucat, în care, să zicem, Nicușor dă mâna cu Ponta și, eventual, zice și ceva odios. Dimpotrivă, cel mai reușit trucaj video a fost // O poți vedea pe facebook.com // cât se poate de asumată în care Nicușor Dan dansează pe Zorba Grecu, pornind chiar de la imaginea suspectă postată de Lasconi.
Teama era că AI-ul generativ // „How Sora could affect politics”, koreatimes.co.kr // pentru a crea clipuri realiste cu scopul de a influența alegeri, dar în realitate s-a ajuns la o utilizare asumată a acestuia pentru a crea, cu costuri puține, meme cu la fel de multă influență.
AI pentru meme, nu pentru fake-uri realiste
În Indonezia, dictatorul Suharto // „AI ‘resurrects’ long dead dictator in murky new era of deepfake electioneering”, edition.cnn.com // pentru a-și susține fostul ginere (care a și câștigat), în timp ce Trump și contul oficial al Casei Albe postează fie meme video cu // O poți vedea pe instagram.com // fie imagini cu el îmbrăcat în // „Trump criticised after posting AI image of himself as Pope”, bbc.com // sau pozând ca un Jedi rebel din // O poți vedea pe x.com // – dar cu sabia greșită, de lord Sith. Și în Coreea de Sud, unde urmează alegeri prezidențiale după încercarea de lovitură de stat de anul trecut, s-a umplut social media de // „Deepfakes cast shadow over South Korea’s presidential election”, kathmandupost.com //
Totuși, în aceste cazuri, folosirea AI-ului e asumată și e puțin probabil să fie multă lume care să creadă că imaginile sunt reale.
Deși, dacă ar fi să mă iau după comentariile la numeroasele pagini de Facebook care și-au crescut audiența cu imagini generate cu AI pentru a le folosi apoi (sau nu) electoral, din care reiese că unii le iau de bune, poate că e doar o formă cinică de recrutare a celor mai puțin atenți la nuanțe dintre potențialii votanții.
CITEȘTE ȘI: Am scris acest text despre cum e invadat Facebookul de AI și nu l-a apreciat nimeni
Boții și roboții electorali sunt mai răspândiți
Desigur, există și cazuri flagrante care ar putea confirma ipoteza deep fake-urilor. În SUA, de exemplu, au existat apeluri telefonice robotizate în care vocea președintelui de atunci, Joe Biden, era folosită pentru a-și îndemna alegătorii să nu voteze în alegerile primare democrate. S-a lăsat cu scandal și o propunere de amendă de // „A political consultant faces charges and fines for Biden deepfake robocalls”, npr.org //
Mai răspândită e folosirea boților AI care impersonează susținători ai unui candidat pentru a da impresia că acesta este mai plăcut decât în realitate și a convinge votanți reali să-l susțină. Au existat campanii de acest fel // „AI-driven bot network tried to help Trump win US election”, dw.com // iar în România s-a vorbit de umflarea vizualizărilor unor clipuri de TikTok cu autorul unor boți, conform // „Rețeta boților lui Călin Georgescu: cum a obținut 4,5 milioane de vizualizări într-o zi pe un cont nou”, snoop.ro //
Mult mai concretă este crearea de conturi false care să susțină un anumit candidat sau partid (evident, Georgescu și AUR), adesea automatizată cu ajutorul AI, care a fost dezvăluită chiar de TikTok într-un raport publicat la // „TikTok – Report March 2025 disinfocode.eu // dintre care o rețea chinezească avea peste 27.000 de conturi. Dar cel mai adesea genul acesta de manipulare a algoritmilor se face cu conturi create și // „Operațiunea Georgescu pe X, Telegram și Facebook. Urcat în algoritmi de conturi rusești cu sute de mii de urmăritori: «În promovarea lui au fost implicate rețele specializate în destabilizarea democrațiilor»”, context.ro // decât cu AI.
Mai există și numeroase acuzații lipsite de dovezi, uneori chiar hilare. De exemplu, Ponta a acuzat că i-a fost atacat contul de TikTok de către „boții lui Nicușor Dan”, când s-a observat că postările sale de TikTok au // „Victor Ponta acuză un atac cu boți asupra conturilor sale de Paști: TikTok a șters peste 16.000 de conturi false”, mediafax.ro //
Până acum, din cazurile documentate, // „Beyond Imagining – How AI is actively used in election campaigns around the world”, checkpoint.com // fie că ele se pretind reale sau sunt meme, au avut o influență limitată asupra alegerilor.
De unde și până unde fact-cheking AI de la Elon Musk?
Ca o paranteză interesantă, fix pe X, platforma acuzată că a virat spre fascism după achiziționarea de către Elon Musk, și care a contribuit la alegerea lui Trump în SUA, se întâmplă acum un fenomen ciudat din cauza AI-ului.
Grok, modelul AI deținut de Musk, a devenit un soi de // „X users treating Grok like a fact-checker spark concerns over misinformation”, techcrunch.com // al platformei, după ce numeroși useri au decis să-l folosească pentru a verifica acuratețea unor postări. Desigur, un model de limbaj poate (și s-a întâmplat des asta) să spună și chestii greșite, dar se pare că până acum a nimerit-o destul de bine, chestie care i-a enervat cumplit // „Twitter’s AI system called Grok is really pissing off MAGA and calling out misinformation and those who amplify it. It’s really amusing to see”, facebook.com // despre care s-a dovedit deja că sunt mai predispuși să răspândească // „Conservatives share more false claims in polarized settings, research reveals”, psypost.org //
Oarecum ironic, după ce Elon Musk s-a săturat de // Elon Musk on x.com // acum s-a apucat și propriul său AI // „Elon Musk’s Grok AI Is Turning Against Him, Telling X Users He Spreads Misinformation”, decrypt.co/310771 //
Unde dai și unde crapă
Aș spune că, momentan, spaima că ar putea apărea deep fake-uri cu AI care să se pretindă reale pentru a influența alegeri nu s-a concretizat. Iar faptul că poți să o faci la fel de bine cu deep fake-uri asumate, îi va determina pe cei care ar avea asemenea idei să se gândească de mai multe ori.
La urma urmei, de ce să faci un deep fake în care, de exemplu, Nicușor s-ar întâlni în secret cu Soros, care ar putea fi demontat ușor și, apoi, s-ar întoarce chiar împotriva intereselor creatorului, când ai putea face (și nu vreau să dau idei) un clip cu Ceaușescu care-l susține pe Simion. Desigur, s-ar putea argumenta că și timingul contează, poate că nu mai apucă nimeni să demonteze nimic, dar riscul e în continuare prea mare – social media e practic instantanee.
Atunci când apare o tehnologie, felul în care alege publicul să o utilizeze se poate dovedi diferit de ceea ce și-a propus creatorul ei, iar uneori și îngrijorările exprimate la adesea sa se pot dovedi, cel puțin parțial, neadevărate. În cazul de față, da, AI-ul influențează și va influența în continuare alegeri, dar nu în modurile la care se vorbea acum nici măcar un an că se va întâmpla.
Pe de altă parte, însă, „băieții răi” nu stau degeaba, iar faptul că nu se întâmplă nu înseamnă că nu se va întâmpla pe viitor. Există deja metode pentru a face ca AI-ul să răspândească idei dubioase fără să știe, precum „data poisoning” și o să apară și contexte în care folosirea deep fake-urilor AI care se pretind reale să fie considerată utilă de către actorii politici.
Lumea electorală nu va mai fi niciodată la fel. La fel ca lumea reală, oricât ar încerca să te convingă populiștii de contrariu.