Getty Images

Deepfake vs. politică. Alegerile din Turcia, primul scrutin major din noua eră AI.38 min read

De Ionuț Preda 24.05.2023

Temerile că imaginile și video-urile modificate de AI vor duce dezinformarea politică la un alt nivel dau semne că încep să se adeverească. Exemple: alegerile prezidențiale din Turcia, dar și reacțiile bursei la niște clipuri false virale.

Deepfake-urile, un termen-umbrelă pentru orice tip de conținut media sintetic, generat sau modificat de algoritmi AI cu scopul de a convinge un observator uman că este autentic, au dat fiori analiștilor încă de când conceptul a început să fie popularizat în sfera online, prin 2017.„Deepfakes, explained”, mit.edu Chiar dacă în acel moment posibilitățile tehnice erau limitate, nu era greu de închipuit potențialul lor. Între timp, tehnologia a avansat suficient pentru ca deepfake-urile să devină o problemă reală.

Ca mai cu orice tehnologie online nouă, potențialul lor problematic a fost dovedit în zona pornografiei. Modele AI au fost folosite pe scară largă pentru a genera clipuri de revenge pornFilmări intime distribuite fără acordul uneia dintre persoanele implicate, de multe ori ca formă de răzbunare sau șantaj. În acest context, deepfake-urile sunt folosite, în marea majoritate a cazurilor, pentru a adăuga fața unei victime peste cea a unui actor dintr-un film pornografic comercial. sau a crea imagini și clipuri explicite, dar fictive, în care apar vedete sau alte personalități publice, din ce în ce mai realiste. Acest lucru se petrece într-o vreme în care campaniile de dezinformare începeau să devină un lucru uzual. Nu era greu să preconizezi că deepfake-urile vor face saltul către politică și economie, având potențialul de a influențe cariere, legislații,  alegeri – practic, viitorul unei țări.

Totuși, în ciuda contextului din ultimii ani, în care conspirațiile și fake news-urile s-au multiplicat datorită războiului cultural, pandemiei și războiului declanșat de Rusia, deepfake-urile au rămas multă vreme la nivelul de amenințare ipotetică pentru viitor .

Revoluția algoritmilor generativi a intensificat discuția despre pericolul utilizării lor pentru dezinformare. Iar primele alegeri majore care au avut loc în era democratizării AI-ului generativ s-au nimerit să fie într-un stat extrem de important în geopolitica mondială.

Alegerile prezidențiale din Turcia, membră NATO, stat aflat la granița Uniunii Europene, jucător-cheie în Orientul Mijlociu și forță regională importantă în contextul războiului din Ucraina, pot avea un impact semnificativ în politica mondială și i-au pus societatea la răscruce. Aproape că nu e de mirare că Turcia a devenit și primul stat în care deepfake-ul a creat o controversă electorală majoră.

Recep Tayyip Erdoğan. Sean Gallup/Getty Images

O putere la răscruce de drumuri

Alegerile prezidențiale din Turcia nu aveau cum să nu se desfășoare într-un context tensionat. Președintele Recep Tayyip Erdoğan, liderul Partidului Justiției și Dezvoltării care conduce guvernul de la Ankara încă din 2002, a transformat semnificativ politica turcă pe parcursul ultimelor două decenii, promovând o ideologie bazată pe tradiționalism religios, populism și autoritarianism,/„Erdoğan’s Political Journey: From Victimised Muslim Democrat to Authoritarian, Islamist Populist”, populismstudies.org opusă principiilor republicane și seculare care au stat la baza statului modern turc.Ideologie numită și kemalism, după Mustafa Kemal Ataturk, primul președinte al Republicii Turce.

Mai cu precădere după lovitura de stat eșuată de o facțiune a armatei în 2016, Erdoğan a centralizat tot mai multe puterea în propriile mâini, cenzurând și persecutând la scară largă oponenți politici„Turkey”, hrw.org și transformând Turcia, printr-un referendum suspect de fraudă,„Forensic analysis of Turkish elections in 2017–2018”, nih.gov într-o republică prezidențială.

Popularitatea lui Erdoğan a avut de suferit în ultimii ani, pe fondul unei crize economice majore pornite în 2018 care a dus la inflație galopantă și o devalorizare aproape continuă a monedei naționale.„Soaring inflation and a collapsing currency: Why is Turkey’s economy in such a mess?”, euronews.com Peste asta s-a adăugat și gestionarea deficientă a cutremerelor devastatoare din februarie, care au provocat 50.000 de victime și au lăsat cel puțin 1,5 milioane de oameni fără locuințe.

CITEȘTE ȘI:  Seismolog: Cutremurul din Turcia a fost de 16.000 de ori mai puternic decât cele normale din regiune

Pe acest fundal, principalele partide de opoziție au format o alianță comună condusă de Partidul Republican al Poporului (CHP),care l-a propus drept contracandidat pe liderul acestuia, „Kemal Kılıçdaroğlu,Who is Kemal Kılıçdaroğlu, a leading challenger to Erdoğan in Turkey’s election?”, npr.org cu scopul declarat de a readuce politica turcă pe drumul principiilor kemaliste. Dezavantajată în discursul public de influența AKP-ului asupra mass-mediei,„Insiders reveal how Erdoğan tamed Turkey’s newsrooms”, reuters.com opoziția se baza totuși pe un val de nemulțumire care a dus, în ultimii ani, la victoria candidaților săi în alegerile locale din Istanbul și Ankara. Alți doi candidați de la partide mai mici de opoziție, kemalistul Muharrem İnce și naționalistul Sinan Oğan, s-au înscris în cursă cu șanse infime de a câștiga sau a ajunge în turul al doilea.

Muharrem İnce s-a retras din cursă, acuzând răspândirea unui deepfake pornografic cu fața sa. Mustafa Kirazli/Getty Images

Primul candidat eliminat de AI

Pe fondul acestei tensiuni, exacerbată de faptul că majoritatea sondajelor dinaintea și din cursul campaniei electorale arătau un avantaj solid pentru Kılıçdaroğlu, a apărut și problema deepfake-urilor. Unul dintre primele incidente a vizat un video electoral în care Kılıçdaroğlu vorbea engleză aproape perfect,„AI content is meddling in Turkey’s election. Experts warn it’s just the beginning”, euronews.com preluat pe social media și de câteva publicații din Turcia ca fiind real – asta deși autorul clipului dezvăluise încă din postarea originală că era vorba de un experiment realizat cu un AI de generare audio.

Fenomenul a ajuns în prim-planul campaniei la sfârșitul lui aprilie, atunci când, la un eveniment electoral, Erdoğan a prezentat un clip cu un discurs al lui Kılıçdaroğlu, în care acesta spune „haideți să mergem la vot împreună”. Numai că, imediat după îndemnul candidatului opoziției, urmează un discurs scurt, ținut aparent din aceeași locație de Murat Karayılan, unul dintre fondatorii Partidului Muncitorilor din Kurdistan (PKK) – o organizație politică kurdă desemnată teroristă de către Turcia, Statele Unite și Uniunea Europeană, aflată în conflict cu statul turc încă din 1978, de numele căreia se leagă un număr mare de atacuri împotriva poliției sau armatei turce.„Conflict Between Turkey and Armed Kurdish Groups”, cfr.org Video-ul continuă cu Karayılan și membri PKK care bat din palme pe ritmul unei melodii electorale a opoziției.

Clipul era, desigur, fals, și a fost prezentat de presa din Turcia și, mai departe, de cea internațională ca fiind un deepfake. Echipa de fact-checking de la Deutsche Welle„Fact check: Turkey’s Erdoğan shows false Kılıçdaroğlu video”, dw.com a descoperit, însă, că filmarea a fost făcută doar printr-un montaj a două clipuri distincte – cel electoral al opoziției și un clip mai vechi, din 2021, cu un mesaj al militanților PKK –, fără a necesita utilizarea unei rețele neuronale.

Următorul scandal a apărut după doar câteva zile. Unul dintre cei patru candidați înscriși în cursa prezidențială, Muharrem İnce – care la precedentele alegeri prezidențiale a fost principalul contracandidat al lui Erdoğan – s-a retras din cursă pe 11 mai, acuzând o campanie de denigrare a sa, care ar fi culminat cu publicarea unui deepfake în care fața sa ar fi fost editată într-un clip porno, susținea el, „urcat pe un site israelian”.„Turkish presidential candidate quits race after release of alleged sex tape”, theguardian.com

Deocamdată, nicio sursă reputabilă de fact-checking nu a putut verifica validitatea clipului, însă o investigație lansată de autoritățile imediat de la Ankara în urma incidentului a dus la reținerea a 17 suspecți, sub acuzații de șantaj, trucare de documente, răspândire de date personale și încălcare a intimității. Trei dintre aceștia – un angajat public,un comerciant din provincia Izmir și un om de afaceri –  au fost arestați.„Three arrested over fake İnce videotape”, hurriyetdailynews.com

Kemal Kılıçdaroğlu/Anadolu Agency via Getty Images

În urma situației, opoziția a acuzat Rusia că ar fi început o campanie de discreditare a lui Kılıçdaroğlu, care ar urma să se axeze pe deepfake-uri și se va amplifica până la alegeri.„Turkey’s Kılıçdaroğlu accuses Russia of creating ‘deepfakes’ against opposition”, al-monitor.com Totuși, în ciuda acestui avertisment, primul tur al alegerilor din Turcia a trecut fără alte incidente de acest tip.

Pe de altă parte, Henri Adjer, un expert britanic în zona AI-ului generativ, care a urmărit campania din Turcia, a avertizat într-un articol postat pe LinkedInDetalii pe linkedin.com în apropierea alegerilor, că rețelele sociale au avut parte de un influx de postări care folosesc algoritmi de clonare a vocilor și modele text-to-image, atât pro, cât și contra ambilor candidați principali. Ajder a observat că, în același timp, a crescut și numărul de deepfake-uri satirice sau prezentate sub formă de parodii, dar în multe cazuri astfel de postări nu explică clar publicului că utilizează conținut generat de AI.

Așadar, deepfake-urile au planat asupra primului tur al alegerilor din Turcia mai degrabă ca un motiv alarmist decât ca o tactică de război electoral, în timp ce variante mai simple ale conceptului au prins avânt pe rețelele sociale. Totuși, în cazul İnce, s-a creat precedentul unui candidat care a fost – cel puțin din spusele proprii – determinat să abandoneze cursa din cauza unui clip editat de AI, și asta chiar înainte ca acesta să devină viral.

Acest „succes”, chit că a venit împotriva celui mai slab cotat candidat, ar putea impulsiona grupările politice sau clandestine care iau în calcul, pe viitor, utilizarea unor deepfake-uri mai complexe în scop propagandistic. Numai că rămâne o întrebare: cât de accesibilă este, de fapt, tehnologia necesară pentru a crea astfel de clipuri credibile?

Deepfake-urile nu sunt chiar la îndemâna oricui

Un studiu publicat în 2021, în jurnalul ACM Computing Surveys,„The Creation and Detection of Deepfakes: A Survey”, acm.org explică cele mai comune tehnici folosite pentru a genera sau modifica conținut media prin rețele neuronale artificiale. Autorii descriu patru moduri principale de atac folosite pentru a manipula datele vizuale.

MindcraftStories_1Re-enactment

În acest caz, algoritmii reconstruiesc elemente faciale sau corporale distincte ale unei persoane pentru a crea o imagine sau un clip trucat. Algoritmi individual pot modifica și detecta expresia facială, mișcările gurii, privirea, postura capului și postura corpului țintei. Este metoda care care provoacă cea mai mare îngrijorare, deoarece în combinație cu modelele de clonare a vocii, poate crea clipuri false în care atacatorii controlează complet declarații ale unor persoane publice care, la o primă vedere, par autentice.

Cifre Articol MindcraftStories_2Replacement

Prin această metodă, doar anumite elemente din conținutul unui clip sau imagini sunt transpuse peste altele. Cel mai folosit exemplu este face-swapping-ul, în care fața unei persoane poate fi editată peste corpul alteia, metodă utilizată des în revenge porn. Ea ar putea fi și cea folosită în cazul lui Muharrem İnce.

Cifre Articol MindcraftStories_3Enchantment

În acest caz, detalii dintr-un clip/imagine, precum hainele, vârsta, etnia sau greutatea persoanelor sunt modificate. Este metodă folosită de aplicații precum FaceApp. În politică, ar putea fi folosită, de exemplu, pentru a face un politician bolnav să pară mai sănătos și vice-versa.

Cifre Articol MindcraftStories_4Synthesis

Imagini sau clipuri în care persoane complet fictive, dar cu aspect realist, pot fi create de la zero. Metoda poate fi folosită pentru a crea profiluri și identități false mult mai greu de detectat pe rețelele sociale.

Înainte de popularizarea deepfake-urilor, astfel de tehnici au fost folosite și perfecționate timp de mulți scopuri comerciale sau artistice, precum în filme, gaming sau industria de modă, dar presupuneau costuri destul de ridicate. Ele au ajuns, însă, la un public mai larg în ultimii ani, prin tool-uri open source care permit folosirea acestora de către internauți, cele mai populare fiind DeepFaceLab și FaceSwap.

Doar că utilizarea acestor tool-uri nu este, cel puțin pentru moment, la fel de simplă precum cea a unui ChatGPT sau Midjourney, care generează conținutul dorit de utilizator pe baza unui input text. În momentul de față, crearea chiar și a celor mai banale fake-uri, precum un face swap într-un video scurt, implică mult mai mult efort din partea utilizatorului. „How Easy Is It to Make and Detect a Deepfake?”, cmu.edu

Pentru început, acesta trebuie să găsească un clip sursă și altul destinatar care să fie cât de cât similare – de exemplu, să fie ambele filmate de la umeri în sus. Cel sursă, de pe care se dorește preluarea feței, trebuie să aibă o rezoluție cât mai mare, de preferat 4K. Apoi, utilizatorul trebuie extragă frame-urile pe care le dorește transpuse și să eticheteze structurile faciale din acestea. Urmează antrenarea modelului pentru transferul în cauză, posibilă doar cu hardware dedicat (există posibilitatea de a folosi modele generaliste pre-antrenate, dar acuratețea lor va fi mai scăzută decât a modelelor antrenate pentru un caz specific). Deepfake-ul în sine este creat în procesul de conversie, iar, la final, este nevoie de post-procesare, unde erorile din conținutul generat de model trebuie editate manual pentru a crește impresia de plauzabilitate.

Antrenarea unui model neuronal generativ nu este simplă. Algoritmii capabili de a produce deepfake-uri pot fi antrenați doar pe anumite tipuri de rețele neuronale complexe, care au cerințe de hardware destul de intensive. Un exemplu sunt rețelele generative adversariale, în care două modele neuronale sunt antrenate în paralel: prima generează date false pe baza unui set de date reale, iar a doua încearcă să le identifice pe cele false. Acestea sunt angrenate într-un joc de învățare și perfecționare constantă, până când primul model reușește să creeze un rezultat pe care celălalt nu-l mai poate distinge de datele reale.

În funcție de metoda folosită și complexitatea sarcinii, procesul poate dura de la câteva ore la zile sau săptămâni. Rețelele pot fi antrenate doar pe hardware specializat, în speță plăci video de gaming din ultimele patru generații de la NVIDIA,Plăcile NVIDIA sunt necesare deoarece sunt singurele care au core-uri CUDA, specializate pentru a face calculele necesare antrenării unei rețele neuronale complexe. Pot fi folosite, desigur, și plăcile video NVIDIA care sunt dedicate antrenării AI-ului, însă acestea sunt construite pentru a funcționa în centre de date cu soluții specializate de răcire de masă, nefiind viabile pentru utilizatori individuali. sau accesul la o soluție deloc ieftină de cloud computing. De altfel, chiar și cu o placă video dedicată ar putea fi necesară folosirea unei soluții adiționale de cloud computing, conform unui raport publicat în 2021 de cercetători de la Universitatea Georgiei de Sud.„Deepfakes Generated by Generative Adversarial Networks”, georgiasouthern.edu

CITEȘTE ȘI: De ce se folosesc plăci video pentru antrenarea AI-urilor și nu procesoare?

Precedentele există, și au afectat și piețele financiare

Astfel de limitări au făcut ca majoritatea deepfake-urilor politice de până acum să apară mai degrabă ca parodii sau în scop preventiv, cum ar fi colaborarea din 2018 dintre Buzzfeed și Jordan Peele care a rezultat într-un deepfake în care vocea actorului, recitând un mesaj de conștientizare al fenomenului, a fost suprapusă peste un clip cu Barack Obama.

Au existat, însă, și alte cazuri în care deepfake-urile au fost utilizate în scop politic. Un exemplu timpuriu a apărut în aprilie 2020: un clip fals în care prim-ministrul belgian Sophie Wilmes vorbea despre o posibilă legătură dintre despădurirea la scară largă și răspândirea COVID-19, creat de un grup de activiști climatici britanici, s-a răspândit rapid pe Facebook.„Extinction Rebellion publiceert video met speech premier Wilmès… die ze nooit zelf gaf”, hbvl.be

Mult mai grav putea fi un clip fals din martie 2022, în care președintele Ucrainei, Volodimir Zelenski, anunța o predare în fața Rusiei. Zelenski a reacționat atunci imediat, postând un video în care denunța tentativa de manipulare. Interesant este că, la scurt timp după, au apărut și clipuri false în care Vladimir Putin declara pace cu Ucraina.„Deepfake presidents used in Russia-Ukraine war”, bbc.com

Politicienii sunt printre cele mai atractive ținte pentru deepfake-uri, având în vedere că natura postului îi obligă să țină discursuri lungi, în care camerele sunt fixate pe fețele lor neobstrucționate. Dar nu e nevoie neapărat de falsificarea unui discurs pentru a crea panică în rândul populației sau pe piețele financiare.

De exemplu, în luna aprilie, organismul de conducere al Partidului Republican din SUA (RNC) a publicat un spot electoral cu imagini generate de AI care prezintă scenarii apocaliptice în cazul realegerii lui Joe Biden ca președinte în 2024: explozii într-un război China-Taiwan, clădiri abandonate pe Wall Street și unități armate pe străzi din orașe americane. Clipul a fost promovat chiar de către RNC drept o „privire de generată de AI într-un viitor cu Joe Biden reales în 2024”, și a fost publicat aproape la scurt timp după ce președintele actual și-a anunțat campania prezidențială.„Republicans respond to Biden reelection announcement with AI-generated attack ad”, theverge.com

Și, în cel mai recent caz, pe 22 mai, imagini care arătau explozii fictive la Pentagon și Casa Albă au devenit virale pe Twitter.„Fake viral images of an explosion at the Pentagon were probably created by AI”, npr.org Ele au fost promovate în special de conturi care aveau bifa albastră,Bifa albastră indică în acest moment că utilizatorii au plătit un abonament la Twitter, dar până de curând indicau un cont al unei personalități sau organizații cunoscute. incluzând televiziunea de stat din Rusia, Russia Today, dar și de un cont care, profitând de noile politici ale rețelei sociale în care poți cumpăra bifa, care a impersonat contul Bloomberg News. Cel din urmă ocnt a fost suspendat, însă situația tot a creat scăderea temporară a unor indici majori de pe bursă, până când Pentagonul a venit cu o dezmințire oficială a incidentului.

Cu toate că generarea unor clipuri false credibile nu e accesibilă pentru toată lumea, alte elemente care pot crea un deepfake de succes s-au răspândit deja pe internet. Un exemplu sunt tool-urile text-to-speech care pot genera conținut audio cu vocea unor președinți americani, care au devenit în ultimele luni un nou trend pe TikTok și YouTube. Mii de clipuri, care au strâns împreună sute de milioane de vizualizări, în care liderii de la Washington – de obicei Biden, Trump și Obama, dar în unele cazuri și George W. Bush sau Bill Clinton – se joacă împreună jocuri online, fac tier-list-uri de albume, trupe sau filme sau sunt personaje centrale în povești absurde, de obicei cu limbaj și ironii mai specifice adolescenților, au împânzit mediul online.

Oarecum neașteptat, multe dintre ele nu arată un favoritism politic clar – președinții se ironizează și se insultă pe rând, făcând fiecare mișto de gusturile și opiniile celuilalt, iar unele dintre ele chiar sunt amuzante. Tocmai acest aspect de satiră le fac să fie tolerate de politicieni. Însă volumul extrem de mare al acestora arată că tool-urile necesare sunt ușor de folosit, așa că probabil nu va dura mult până când spațiul online va fi bombardat de clipuri în care diverși candidați vor părea că spun lucruri compromițătoare sau inacceptabile pentru electorat.

Antrenament pentru premiul cel mare

În primul tur din Turcia, deepfake-urile au fost subiect electoral chiar și fără ca ele să fie folosite cu adevărat – sau cel puțin să se răspândească. Chiar și fără a avea dovezi irefutabile ale unor deepfake-uri, termenul a atârnat greu asupra perioadei electorale din Turcia, provocând retragerea unui candidat și un scandal electoral major. Miza mai mare pentru viitorul acestei tehnologii vor fi însă următoarele alegeri importante de pe glob.

Anul acesta, mai urmează alegeri parlamentare în Polonia – extrem de importante în contextul războiului din Ucraina, dar și a tensiunilor dintre actuala putere de la Varșovia și Bruxelles pe teme precum statul de drept – și în Spania, stat care a avut probleme mari în conturarea unei majorități parlamentare după precedentele alegeri. Este aproape sigur că ambele țări vor avea perioade electorale marcate de campanii de dezinformare, care ar putea integra și deepfake-uri.

Bineînțeles, marele premiu global și, totodată, testul de foc al rolului pe care AI-ului generativ îl poate juca pe scena politică va avea loc anul viitor, în alegerile prezidențiale din SUA. Terenul este deja în curs de testare, dar este prea devreme pentru a putea preconiza dacă deepfake-ul va deveni un termen la fel de folosit în 2024 precum a fost fake news-ul în 2016.

CITEȘTE ȘI:  Cum a ajuns „orașul de 15 minute” ținta conspiraționiștilor?

În același timp, 2024 va fi un an electoral crucial în România, cu toate alegerile în joc, într-un context social în care știrile false și conspirațiile au prins tot mai mult avânt. Iar, dacă la multe capitole importurile de afară vin mai greu, zona conspiraționistă din România a demonstrat că poate prelua aproape în timp real discursuri și metode folosite în vestul Europei sau peste ocean. Dacă acestea vor integra la scară largă deepfake-urile, e aproape sigur că nu vor rămâne prea mult în urmă nici agitatorii de serviciu din România.



Text de

Ionuț Preda

Redactor cu câțiva ani de experiență în presa centrală. Este curios despre aplicarea tehnologiilor SF în lumea reală și evoluția ideilor de-a lungul istoriei.

TEHNOLOGIE|FYI

The Boring Phone, un telefon „dumb”, dar nu plicticos

De
Colaborarea dintre HMD, Heineken și Bodega propune un telefon cu un nume care te face să te gândești la Elon Musk.
TEHNOLOGIE|FYI

Crezi că ai Meta AI pe Instagram? S-ar putea să doar fie un cont fals

De
În ultimele zile, mai mulți utilizatori au descoperit că pot conversa sau folosi Meta AI în conversații. Însă nu toate conturile au acces la acest chatbot.
TEHNOLOGIE|FYI

Fairbuds, primele căști de tip buds cărora le poți schimba bateria

De
Producătorii Fairphone au anunțat o nouă pereche de căști care încearcă să fie la fel de prietenoase cu mediul ca telefonul care i-a consacrat.
TEHNOLOGIE|MS TALKS

TikTok: „Nu acceptăm reclame politice, dar politicienii pot cere voturi pe platformă”

De
În timp ce SUA iau în discuție chiar interzicerea TikTok, platforma investește în centre de date, pentru a securiza informațiile utilizatorilor europeni, în speranța că va atenua la timp îngrijorările politicienilor.