Fenomenul „deepfake” – cutia tech a Pandorei a fost deschisă21 min read

De Mindcraft Stories 16.12.2019, ultima actualizare: 13.03.2020

Julia Nagy este jurnalistă pasionată de tech, artă și inovație.

În cafenea, număr patru camere de supraveghere în timp ce îmi amestec ceaiul. Îl aștept pe Cătălin Pătrașcu, expert în securitate cibernetică. La ultima noastră întâlnire, după prezentările de rigoare, aflam că tocmai îmi fusese hack-uit contul de email. De fapt, tocmai – cineva ar fi putut face acest lucru, dar din fericire – pentru mine nu s-a întâmplat.

În 2013 participam la un curs de securitate cibernetică pentru jurnaliști iar el era trainer. Primul exercițiu fără preaviz: un email aparent legitim, de la o adresă care îmi părea cunoscută, dar care venea, de fapt, de la un atacator. Mai bine de două treimi din clasă am căzut în capcana educativă. Fast forward 5 ani, cutia Pandorei cu tehnologii noi are altă cheie. Una video. Ridic ochii și zâmbesc la cameră.

„Nu poți să eviți camerele, nu poți să eviți expunerea. Nu poți să mergi cu o mască pe față”, avea să îmi spună Cătălin în discuția despre deepfake, un fenomen cu un registru complex. Deepfake înseamnă clipuri video modificate și editate – dar este o definiție doar de suprafață, căci amenințarea vine odată cu aruncarea acestor video-uri în valurile rețelelor de socializare. Mă gândesc la miile de ore de înregistrări video și audio pe care le-am făcut. La numeroasele imagini pe care le-am postat pe Facebook și Instagram, la numeroasele locuri în care am fost, înconjurată de camere de supraveghere. Suntem expuși și putem deveni oricând victime. 


A fost odată… un utilizator cu un alias – „Deepfakes”

Fenomenul „deepfake” datează din 2017, când un utilizator pe Reddit cu alias-ul „Deepfakes” a început să posteze video-uri trucate, în jurul acestor tipuri de postări creându-se o comunitate care share-uia clipuri pornografice în care fețele actorilor erau înlocuite cu ale unor celebrități precum Kim Kardashian, Gal Gadot sau Scarlett Johansson. După pornografie, venea amuzamentul: multe videoclipuri erau cu chipul actorului Nicolas Cage schimbat în diverse filme. 

„Când spui deepfake, te gândești la imagini în care sunt modificate fețele oamenilor, să pară că sunt altcineva. Se folosesc algoritmi inteligenți în spate. Cum se întâmplă? Se preiau multe imagini video și foto de la o persoană. Astfel, algoritmul învață foarte mult despre persoana respectivă: mimica feței, trăsăturile feței, în mișcare ori static, și poate să recreeze acea față și în alt context”, îmi explică Cătălin Pătrașcu, care sintetizează astfel: „E o alternativă complexă a fake-news-ului, o evoluție a fake-news-ului, un next level. E consecința tehnologiei.”

De unde vine amenințarea?

Numele de deepfake este o combinație rezultată din termenul deep learning – tehnologia care este folosită în inteligența artificială și care ajută computerele să învețe prin exemple, tehnologie folosită în manipularea imaginilor – și fake, termen cu care suntem mai obișnuiți și care înseamnă fals.

Tehnologiile avansate de modificare digitală există de ani de zile. Noutatea și, implicit, îngrijorările unor specialiști vin din faptul că această tehnologie – pe vremuri scumpă și inaccesibilă – a ajuns acum la îndemână oricui.

„Sunt niște softuri deja. Avem sunt și variante open source. Există, de exemplu, o tehnologie de la Google care are algoritmi de machine learning și inteligență artificială care exact asta face. Softul detectează mimica feței, cum reacționează acea persoană, cum se schimbă pixelii – și poate să suprapună o imagine peste alta. O suprapunere inteligentă de imagini – așa aș explica eu pe înțelesul tuturor deepfake-ul. Nu mai e SF această discuție. Se poate face orice. Se poate simula orice”, spune Cătălin, care subliniază că sunt tehnologii care pot fi folosite pentru bine, sau în mod abuziv.

De la răzbunări pornografice la manipulare politică

În 2017, deepfake-urile pornografice au prosperat rapid pe Reddit. Au apărut apoi aplicații precum DeepNude sau FakeApp, care au devenit în unele cazuri unelte de bullying, șantaj, fake news și sabotaj. La aproape un an de la apariția fenomenului, în februarie 2018, deepfake-urile pornografice erau interzise de Reddit. Aceeași decizie a fost luată de Twitter. Dar fenomenul nu dispărea de pe net. Dimpotrivă.

În august 2019, un video cu Elon Musk, care aparent își anunța candidatura la prezidențiale, arăta la ce nivel a ajuns tehnologia. Dar clipul era un fake care folosea un algoritm scris de către Hao Li, profesor asociat la Universitatea de Sud a Californiei. Era aceeași tehnologie la care s-a recurs în filmul de acțiune Fast and Furious 7, pentru a crea o versiune digitală a regretatului actor Paul Walker, în peste 200 de scene. Tehnologia lui Hao Li și-a arătat însă capacitățile maxime la World Economic Forum, în Dalian, unde participanții au putut vedea cum se pot transforma pe ecrane, în timp real, în personaje precum Bruce Lee, Neil Armstrong ori Audrey Hepburn.

Dincolo de utilitatea în industria entertainment-ului, videoclipurile distorsionate, precum cel cu președintele Camerei Reprezentanților, Nancy Pelosi, arată că platformele nu sunt pregătite să combată trucurile murdare din campaniile electorale.

Dacă fake news au fost o mare problemă pentru alegerile din 2016, videoclipurile „deepfake” ar putea fi o problemă uriașă în 2020.


Platformele de socializare, „motoarele” care dau viteză deepfake-urilor

Îmi termin cana de ceai și mă uit peste notițe în timp ce îl aștept pe Dan Demeter, expert de securitate în echipa globală de cercetare și analiză a companiei Kaspersky. „Este o paradigmă nouă: are puterea să manipuleze opinia publică, efectiv să îi facă să îi îndrume către căi spre care omul în mod nativ nu le-ar lua”, îmi spune Dan pe care l-am prins în pauza unei conferințe tech.

„Deepfake-ul nu ar avea putere dacă social media nu ar avea putere, pentru că, dacă ne uităm în trecut, existau încercări de a scrie știri false, de a distorsiona realitatea, dar aceste informații rămâneau doar în cluster-ul mic dintr-un oraș, într-un ziar național – dar nicidecum nu reușeau să treacă granițele ușor. Acum 40-50 de ani, erau doar câteva agenții care furnizau informații internaționale. Odată cu apariția internetului și a accesului foarte ușor la informație, o știre care în trecut nu s-ar fi răspândit așa puternic are posibilitatea de a ajunge la milioane, chiar miliarde de oameni”, spune Dan, care trece la exemple.

„Facebook spune că are două miliarde de utilizatori. Eu cred că ar avea 1 miliard. Unii zic că ar fi vreo 200 de milioane și restul ar fi bots (n.r. calculatoare). Ceea ce e mult – asta înseamnă, de exemplu, că un miliard de oameni, dacă rămânem pe estimarea mea, pot să aibă acces în decursul unei ore la același material.”

Dan povestește cu pasiune într-o rom-engleză care te poartă natural din tech în psihologie, apoi înapoi la tehnologie. Expertul face legătura cu obiceiurile de consum ale utilizatorilor și trendurile de pe piață.

„Foarte multe publicații nu au doar text, ci și video. Video-ul e la putere. Mulți oameni nu citesc decât titlurile”, remarcă el arătând că tool-urile sunt aproape disponibile. Teoretic, și eu, și tu am putea face deepfake. Deepfake-urile sunt mai ușor de creat acum și influențează mai ușor. „E video – e mai greu de acceptat că ar fi fake”, explică Dan, care duce discuția spre comportamente de tip confirmation bias (tendința de a căuta, interpreta, informații într-un mod care afirmă credințele sau ipotezele anterioare) care alimentează fenomenul deepfake.

Iar tehnologia, în tot acest timp, nu stă pe loc. Un exemplu este deepfake-ul (catalogat de unii drept „ultra-realist”) care-l are în prim plan pe cunoscutul realizator de podcasturi Joe Rogan.


Soluții? Puține și ineficiente.

„Tot prin tehnologie, ar trebui să avem niște mecanisme prin care să detectăm aceste deepfake-uri. În teorie, ar fi niște soluții”, afirmă Cătălin Pătrașcu, expert în securitate cibernetică. Îl întreb despre softurile care identifică deepfake-ul.

„Aici intrăm într-un joc de-a șoarecele și pisica. Vor apărea astfel de softuri, dar vor apărea apoi și filmulețe care vor putea păcăli aceste softuri. Și tot așa. Și vom ajunge la vechea poveste virus-antivirus. Nu o văd ca o soluție. Vor merge ca soluții temporare.”

În opinia lui Cătălin, cea mai avansată soluție ar fi să semnăm digital imaginile. „Adică toate aparatele să aibă un soft care să semneze digital ceea ce produc pentru ca, ulterior, dacă este modificat, să nu mai corespundă semnătura. Și atunci este clar, la o verificare a semnăturii nu trece. Este un fake.”

Cum ar urma să funcționeze? Aparatul (camera video sau telefonul) să aibă un certificat iar conținutul filmat să aibă o semnătură care nu se va vedea în varianta de vizionare, dar va putea fi verificat astfel. Implementarea unei asemenea soluții s-ar putea face prin tehnologia blockchain. „Blockchain-ul vine să certifice ceva prin puterea celor mulți care certifică ceva. Dacă lansezi un astfel de filmuleț, oamenii își vor putea da cu părerea. Cei mulți îl vor valida (sau nu), dar trebuie să fie în baza a ceva. În baza unor certificate care sunt distribuite tuturor” – spune Cătălin, care ridică următoarea problemă: „Dacă semnătura e emisă de o autoritate centrală, cum se întâmplă în ziua de azi, pot apărea probleme. Guvernele pot abuza de aceste certificate.”

Cum te ferești de capcana deepfake?

Patch-ul (în engleză, plasture, aici soluția) este educația”, îmi spune Dan Demeter, de la Kasperky, când l-am întrebat cum ne ferim de deepfake. Dincolo de softuri, rămâne educația. „Să nu citești o singură sursă de informație. Să te întrebi mereu: e veridic așa ceva? Ar spune așa ceva?”

„Nu există un tool (instrument) tehnic încă. Trebuie să îți folosești abilitățile, simțurile”, afirmă și Cătălin Pătrașcu. „Nimeni nu are timp să verifice produsul pe care-l consumă. De aceea, chiar și fake-uri foarte evidente tind să aibă efecte”, adaugă el, lansând un singur sfat: „Să fii precaut. Din precaut poți să înțelegi orice. Precauția din viața de zi cu zi, modul în care îți închizi geamul la casă ori ușa – toate acestea să le transpui și în spațiul virtual public.”

*****

„În mare parte sunt video-uri funny.” Se oprește puțin, apoi completează: „Dar sunt și video-uri în care anumiți oameni politici par să facă anunțuri neașteptate”, spune Florin, student în anul I la ASE, care s-a strecurat în story-ul meu despre deepfake prin oglinda retrovizoare. A ridicat brusc ochii când în mașină povesteam unor prieteni despre documentarea mea. I-am observat reacția în oglindă și m-am întors curioasă.

Florin face parte din generația care a copilărit cu YouTube-ul iar pentru el deepfake-ul nu este o noutate. Este o distracție cu iz periculos. Recunoaște acest lucru chiar neașteptatul meu interlocutor tânăr.

L-am rugat pe Florin să îmi dea două exemple de deepfake. A scos telefonul și mi-a trimis două link-uri pe WhatsApp: două YouTube-uri care reflectă exact cele două tendințe: deepfake-ul care ieșea acum doi ani din cercul strâns al unui site înseamnă acum distracție (President „Donald Bean”) și manipulare (Obama/Jordan Peel).

Cutia Pandorei a fost deschisă. Și, la fel ca în legendă, multe probleme vor apuca să iasă și să facă haos în lume înainte să găsim soluții pentru a o închide la loc. Ceea ce putem face este, însă, să ne educăm zi de zi ca să putem înțelege ce ne așteaptă.

TEHNOLOGIE|SOCIAL MEDIA

Politainment: alegerile se vor câștiga cu live-uri și videouri scurte, indiferent de soarta TikTok 

De
Dacă în 2020 a părut o întâmplare, 2024 e confirmare: alegerile se câștigă în social media, TV-ul e istorie. Politicienii se vor adapta sau vor dispărea. Cine spunea că nu mai  sunt joburi pentru GenZ?
TEHNOLOGIE|SOCIAL MEDIA

Pot 96 de moderatori să gestioneze conținutul politic de pe TikTok-ul românesc?

De
Înainte de trei rânduri de alegeri românești, TikTok încearcă să iasă neșifonat dintr-o situație cu potențial de scandal: cum se promovează politicienii pe platformă. 
TEHNOLOGIE|OVERVIEW

Revoluția procesoarelor. De la x86 și ARM la cipuri pentru AI

De
Procesoarele pe arhitectura ARM domină piața portabilelor și, mai nou, câștigă teren și pe cea a laptopurilor care rulează Windows. Acest lucru începe să fie îngrijorător pentru producătorii de procesoare pe arhitectura x86, dar ei sunt mai preocupați de industria inteligenței artificiale. 
TEHNOLOGIE|OVERVIEW

Inundațiile din Valencia ar fi trebuit prevenite de o lucrare inginerească gigantică. Ceva însă n-a funcționat cum trebuie

De
Valencia a fost lovită de cele mai rele inundații din acest secol. Cu 60 de ani în urmă, râul Turia a fost mutat din centrul orașului pentru a preveni astfel de dezastre, dar nimeni n-a prevăzut amploarea pe care o pot lua inundațiile.