Fenomenul „deepfake” – cutia tech a Pandorei a fost deschisă21 min read
Julia Nagy este jurnalistă pasionată de tech, artă și inovație.
În cafenea, număr patru camere de supraveghere în timp ce îmi amestec ceaiul. Îl aștept pe Cătălin Pătrașcu, expert în securitate cibernetică. La ultima noastră întâlnire, după prezentările de rigoare, aflam că tocmai îmi fusese hack-uit contul de email. De fapt, tocmai – cineva ar fi putut face acest lucru, dar din fericire – pentru mine nu s-a întâmplat.
În 2013 participam la un curs de securitate cibernetică pentru jurnaliști iar el era trainer. Primul exercițiu fără preaviz: un email aparent legitim, de la o adresă care îmi părea cunoscută, dar care venea, de fapt, de la un atacator. Mai bine de două treimi din clasă am căzut în capcana educativă. Fast forward 5 ani, cutia Pandorei cu tehnologii noi are altă cheie. Una video. Ridic ochii și zâmbesc la cameră.
„Nu poți să eviți camerele, nu poți să eviți expunerea. Nu poți să mergi cu o mască pe față”, avea să îmi spună Cătălin în discuția despre deepfake, un fenomen cu un registru complex. Deepfake înseamnă clipuri video modificate și editate – dar este o definiție doar de suprafață, căci amenințarea vine odată cu aruncarea acestor video-uri în valurile rețelelor de socializare. Mă gândesc la miile de ore de înregistrări video și audio pe care le-am făcut. La numeroasele imagini pe care le-am postat pe Facebook și Instagram, la numeroasele locuri în care am fost, înconjurată de camere de supraveghere. Suntem expuși și putem deveni oricând victime.
A fost odată… un utilizator cu un alias – „Deepfakes”
Fenomenul „deepfake” datează din 2017, când un utilizator pe Reddit cu alias-ul „Deepfakes” a început să posteze video-uri trucate, în jurul acestor tipuri de postări creându-se o comunitate care share-uia clipuri pornografice în care fețele actorilor erau înlocuite cu ale unor celebrități precum Kim Kardashian, Gal Gadot sau Scarlett Johansson. După pornografie, venea amuzamentul: multe videoclipuri erau cu chipul actorului Nicolas Cage schimbat în diverse filme.
„Când spui deepfake, te gândești la imagini în care sunt modificate fețele oamenilor, să pară că sunt altcineva. Se folosesc algoritmi inteligenți în spate. Cum se întâmplă? Se preiau multe imagini video și foto de la o persoană. Astfel, algoritmul învață foarte mult despre persoana respectivă: mimica feței, trăsăturile feței, în mișcare ori static, și poate să recreeze acea față și în alt context”, îmi explică Cătălin Pătrașcu, care sintetizează astfel: „E o alternativă complexă a fake-news-ului, o evoluție a fake-news-ului, un next level. E consecința tehnologiei.”
De unde vine amenințarea?
Numele de deepfake este o combinație rezultată din termenul deep learning – tehnologia care este folosită în inteligența artificială și care ajută computerele să învețe prin exemple, tehnologie folosită în manipularea imaginilor – și fake, termen cu care suntem mai obișnuiți și care înseamnă fals.
Tehnologiile avansate de modificare digitală există de ani de zile. Noutatea și, implicit, îngrijorările unor specialiști vin din faptul că această tehnologie – pe vremuri scumpă și inaccesibilă – a ajuns acum la îndemână oricui.
„Sunt niște softuri deja. Avem sunt și variante open source. Există, de exemplu, o tehnologie de la Google care are algoritmi de machine learning și inteligență artificială care exact asta face. Softul detectează mimica feței, cum reacționează acea persoană, cum se schimbă pixelii – și poate să suprapună o imagine peste alta. O suprapunere inteligentă de imagini – așa aș explica eu pe înțelesul tuturor deepfake-ul. Nu mai e SF această discuție. Se poate face orice. Se poate simula orice”, spune Cătălin, care subliniază că sunt tehnologii care pot fi folosite pentru bine, sau în mod abuziv.
De la răzbunări pornografice la manipulare politică
În 2017, deepfake-urile pornografice au prosperat rapid pe Reddit. Au apărut apoi aplicații precum DeepNude sau FakeApp, care au devenit în unele cazuri unelte de bullying, șantaj, fake news și sabotaj. La aproape un an de la apariția fenomenului, în februarie 2018, deepfake-urile pornografice erau interzise de Reddit. Aceeași decizie a fost luată de Twitter. Dar fenomenul nu dispărea de pe net. Dimpotrivă.
În august 2019, un video cu Elon Musk, care aparent își anunța candidatura la prezidențiale, arăta la ce nivel a ajuns tehnologia. Dar clipul era un fake care folosea un algoritm scris de către Hao Li, profesor asociat la Universitatea de Sud a Californiei. Era aceeași tehnologie la care s-a recurs în filmul de acțiune Fast and Furious 7, pentru a crea o versiune digitală a regretatului actor Paul Walker, în peste 200 de scene. Tehnologia lui Hao Li și-a arătat însă capacitățile maxime la World Economic Forum, în Dalian, unde participanții au putut vedea cum se pot transforma pe ecrane, în timp real, în personaje precum Bruce Lee, Neil Armstrong ori Audrey Hepburn.
Dincolo de utilitatea în industria entertainment-ului, videoclipurile distorsionate, precum cel cu președintele Camerei Reprezentanților, Nancy Pelosi, arată că platformele nu sunt pregătite să combată trucurile murdare din campaniile electorale.
Dacă fake news au fost o mare problemă pentru alegerile din 2016, videoclipurile „deepfake” ar putea fi o problemă uriașă în 2020.
Platformele de socializare, „motoarele” care dau viteză deepfake-urilor
Îmi termin cana de ceai și mă uit peste notițe în timp ce îl aștept pe Dan Demeter, expert de securitate în echipa globală de cercetare și analiză a companiei Kaspersky. „Este o paradigmă nouă: are puterea să manipuleze opinia publică, efectiv să îi facă să îi îndrume către căi spre care omul în mod nativ nu le-ar lua”, îmi spune Dan pe care l-am prins în pauza unei conferințe tech.
„Deepfake-ul nu ar avea putere dacă social media nu ar avea putere, pentru că, dacă ne uităm în trecut, existau încercări de a scrie știri false, de a distorsiona realitatea, dar aceste informații rămâneau doar în cluster-ul mic dintr-un oraș, într-un ziar național – dar nicidecum nu reușeau să treacă granițele ușor. Acum 40-50 de ani, erau doar câteva agenții care furnizau informații internaționale. Odată cu apariția internetului și a accesului foarte ușor la informație, o știre care în trecut nu s-ar fi răspândit așa puternic are posibilitatea de a ajunge la milioane, chiar miliarde de oameni”, spune Dan, care trece la exemple.
„Facebook spune că are două miliarde de utilizatori. Eu cred că ar avea 1 miliard. Unii zic că ar fi vreo 200 de milioane și restul ar fi bots (n.r. calculatoare). Ceea ce e mult – asta înseamnă, de exemplu, că un miliard de oameni, dacă rămânem pe estimarea mea, pot să aibă acces în decursul unei ore la același material.”
Dan povestește cu pasiune într-o rom-engleză care te poartă natural din tech în psihologie, apoi înapoi la tehnologie. Expertul face legătura cu obiceiurile de consum ale utilizatorilor și trendurile de pe piață.
„Foarte multe publicații nu au doar text, ci și video. Video-ul e la putere. Mulți oameni nu citesc decât titlurile”, remarcă el arătând că tool-urile sunt aproape disponibile. Teoretic, și eu, și tu am putea face deepfake. Deepfake-urile sunt mai ușor de creat acum și influențează mai ușor. „E video – e mai greu de acceptat că ar fi fake”, explică Dan, care duce discuția spre comportamente de tip confirmation bias (tendința de a căuta, interpreta, informații într-un mod care afirmă credințele sau ipotezele anterioare) care alimentează fenomenul deepfake.
Iar tehnologia, în tot acest timp, nu stă pe loc. Un exemplu este deepfake-ul (catalogat de unii drept „ultra-realist”) care-l are în prim plan pe cunoscutul realizator de podcasturi Joe Rogan.
Soluții? Puține și ineficiente.
„Tot prin tehnologie, ar trebui să avem niște mecanisme prin care să detectăm aceste deepfake-uri. În teorie, ar fi niște soluții”, afirmă Cătălin Pătrașcu, expert în securitate cibernetică. Îl întreb despre softurile care identifică deepfake-ul.
„Aici intrăm într-un joc de-a șoarecele și pisica. Vor apărea astfel de softuri, dar vor apărea apoi și filmulețe care vor putea păcăli aceste softuri. Și tot așa. Și vom ajunge la vechea poveste virus-antivirus. Nu o văd ca o soluție. Vor merge ca soluții temporare.”
În opinia lui Cătălin, cea mai avansată soluție ar fi să semnăm digital imaginile. „Adică toate aparatele să aibă un soft care să semneze digital ceea ce produc pentru ca, ulterior, dacă este modificat, să nu mai corespundă semnătura. Și atunci este clar, la o verificare a semnăturii nu trece. Este un fake.”
Cum ar urma să funcționeze? Aparatul (camera video sau telefonul) să aibă un certificat iar conținutul filmat să aibă o semnătură care nu se va vedea în varianta de vizionare, dar va putea fi verificat astfel. Implementarea unei asemenea soluții s-ar putea face prin tehnologia blockchain. „Blockchain-ul vine să certifice ceva prin puterea celor mulți care certifică ceva. Dacă lansezi un astfel de filmuleț, oamenii își vor putea da cu părerea. Cei mulți îl vor valida (sau nu), dar trebuie să fie în baza a ceva. În baza unor certificate care sunt distribuite tuturor” – spune Cătălin, care ridică următoarea problemă: „Dacă semnătura e emisă de o autoritate centrală, cum se întâmplă în ziua de azi, pot apărea probleme. Guvernele pot abuza de aceste certificate.”
Cum te ferești de capcana deepfake?
„Patch-ul (în engleză, plasture, aici soluția) este educația”, îmi spune Dan Demeter, de la Kasperky, când l-am întrebat cum ne ferim de deepfake. Dincolo de softuri, rămâne educația. „Să nu citești o singură sursă de informație. Să te întrebi mereu: e veridic așa ceva? Ar spune așa ceva?”
„Nu există un tool (instrument) tehnic încă. Trebuie să îți folosești abilitățile, simțurile”, afirmă și Cătălin Pătrașcu. „Nimeni nu are timp să verifice produsul pe care-l consumă. De aceea, chiar și fake-uri foarte evidente tind să aibă efecte”, adaugă el, lansând un singur sfat: „Să fii precaut. Din precaut poți să înțelegi orice. Precauția din viața de zi cu zi, modul în care îți închizi geamul la casă ori ușa – toate acestea să le transpui și în spațiul virtual public.”
*****
„În mare parte sunt video-uri funny.” Se oprește puțin, apoi completează: „Dar sunt și video-uri în care anumiți oameni politici par să facă anunțuri neașteptate”, spune Florin, student în anul I la ASE, care s-a strecurat în story-ul meu despre deepfake prin oglinda retrovizoare. A ridicat brusc ochii când în mașină povesteam unor prieteni despre documentarea mea. I-am observat reacția în oglindă și m-am întors curioasă.
Florin face parte din generația care a copilărit cu YouTube-ul iar pentru el deepfake-ul nu este o noutate. Este o distracție cu iz periculos. Recunoaște acest lucru chiar neașteptatul meu interlocutor tânăr.
L-am rugat pe Florin să îmi dea două exemple de deepfake. A scos telefonul și mi-a trimis două link-uri pe WhatsApp: două YouTube-uri care reflectă exact cele două tendințe: deepfake-ul care ieșea acum doi ani din cercul strâns al unui site înseamnă acum distracție (President „Donald Bean”) și manipulare (Obama/Jordan Peel).
Cutia Pandorei a fost deschisă. Și, la fel ca în legendă, multe probleme vor apuca să iasă și să facă haos în lume înainte să găsim soluții pentru a o închide la loc. Ceea ce putem face este, însă, să ne educăm zi de zi ca să putem înțelege ce ne așteaptă.