sesame/Getty Images

AI-ul, Apocalipsa Antică și Experții de pe Twitter33 min read

De Dragoș C. Costache 15.12.2022

Despre cum democratizarea cunoașterii și a discursului de astăzi poate duce la AI prost mâine.

Lumea veche moare, lumea nouă întârzie să apară și în penumbră apar monștri, spunea odată Antonio Gramsci. Trăim momentan în acea penumbră, o epocă în care informația e din ce în ce mai automatizată, apar continuu narative disjuncte de mainstream (și de realitate), adesea promovate de persoane popularePrecum Nicki Minaj, twitter.com sau puternice.Ca Elon Musk, twitter.com Și claie peste grămadă, începe o revoluție soft-AI, unde chatboții de mâine învață să arate ca oamenii de azi. Ce e de făcut? Pot fi  învățați partenerii digitali de mâine să facă ce zice popa nu ce face popa?

Lui ChatGPT i s-a dat mașină de la partid

Undeva prin toamna lui 2022, un „AI” a trecut testul Turing.„ChatGPT passes the Turing test”, mpost.io Nu a fost nici prima dată,„Google’s AI passed the Turing test — and showed how it’s broken”, washingtonpost.com nici nu l-a prea trecut, dacă e să fiu onest, și nu e oricum neapărat relevant. Ca-n bancul Radio Erevan cu mașina dată lui Ivan de la partid, nu era mașină, ci bicicletă și nu i s-a dat, ci i s-a confiscat. Dar un lucru e adevărat, un algoritm lingvistic, antrenat ca-n Rocky, a reușit să se dea drept om, producând un răspuns plauzibil uman.

CITEȘTE ȘI: AI cu conștiință sau doar un chatbot care a învățat filosofie?

Sigur, asta nu e greu. Oamenii zic tot felul de prostii și chatboții sunt programați să simuleze acest lucru. Un pic prea bine, având în vedere că ChatGPT, cu tot networkul din spate, ratează rizibil uneori.Arthur Dent: „Interesting. The AI totally fails the cognitive reflection test. It gives the intuitive but incorrect answer every time.”, twitter.com Dar, vorba lu nea Seneca, Erare humanum est. E uman să greșești! Și de bine, de rău, ChatGPT și frații săi sunt instruiți să fie umani. Problema nu e la chatboți, ci la oameni.

Însă, continuă dictonul, dacă e uman să greșești, e diabolic să persiști în greșeală. Într-o lume a seturilor mari de date, a concurenței, a miliardelor de voci în arena intelectului, contează foarte mult care sunt vocile care răzbesc prin marea de zgomot de fond. E o problemă exacerbată de democratizare a cunoașterii și a vocii autoritative, a contentului glossy și atrăgător. Într-o lume în care vocile sunt democratizate și contentul superficial domină, există riscul de a antrena chatboții viitorului cu prostii, de a crea o singularitate a supozițiilor nefondate.Theresa Kubacka: „I wanted to drill down on physics. And here it became very spooky: somehow ChatGPT hallucinated an explanation of a non-existing phenomenon using such a sophisticated and plausible language that my first reaction was to actually consider whether this could be true!”, twitter.com 

Poate ai văzut diverse articole generate automatAutomated journalism, wikipedia.org pe internet. De obicei, sunt tot felul de listicles inutile sau biografii pentru celebrități z-tier, pe care nu o să le scrie un om vreodată. Sunt adesea pline de greșeli și complet diferite unele de altele.

CITEȘTE ȘI: ChatGPT e o fereastră asupra viitorului și ce-am văzut îmi dă sentimente amestecate 

Ei, imaginează-ți acum un articol din New York Times sau Libertatea sau Mindcraft Stories scris algoritmic de strănepoții lui ChatGPT. Pe ce va fi bazat? Pe ce fapte, pe ce înțelegere a viitorului? Cât de mulți poți spama algoritmic o prostie până devine adevăr? Ce te faci dacă ChatGPT rămâne pieton, dar insistă și crede că i s-a dat mașină de la partid?

Experții îi urăsc!

Primul pas spre apocalipsa asta a cunoașterii e deja aici. Deja din 2016 „fake-news”, “post-adevăr” și concepte similare bântuie societatea. Apar mișcări conspiraționiste,Despre care am mai scris: scena9.ro antivacciniste, ba chiar care contrazic adevăruri de bază ale lumii.In Search Of A Flat Earth”, youtube.com De la Tila Tequila și Jordan Peterson la Ye la Elon Musk, persoane publice ajung să nege severitatea COVID, schimbarea climatică sau, hei, HOLOCAUSTUL, în loc să meargă la terapie. 

CITEȘTE ȘI: Cui îi este frică de Bill Gates?

Astea sunt probleme recurente care au fost tratate pe îndelete de alții. Unele din persoanele publice care se fac purtătoare de semnal pentru inepții periculoase sunt rău intenționate, altele doar prost informate, iar altele au nevoie de ajutor specializat. Dar ce te faci cu cei care nu cad în categoriile astea, dar ajung să zică tâmpenii oricum?

De câteva luni, mai precis de când cu războiul rus din Ucraina, un alt fenomen conex a devenit mult mai vizibil, ceea ce-mi place să numesc fenomenul expertului pop-up. Un expert pop-up este cineva cu o expertiză discutabilă, dar un fel de prezentare atractivă, care ajunge un pic în lumina reflectoarelor și își găsește nișa. Știi cum cineva care devine viral pe TikTok cu un singur lucru încearcă apoi să reproducă fenomenul ăla viral în aproape orice TikTok?  Expertul pop-up e ceva de genul ăsta.

De exemplu, la începutul campaniei de vaccinare am scris un articol„Cele mai mișto sate și orașe din România unde să te vaccinezi împotriva Covid-19”, vice.com despre locurile unde se programa lumea pentru vaccin. Articolul a fost relativ de succes și cineva cu o idee foarte proastă m-a sunat să mă întrebe dacă nu vreau să intru în direct la TV, să vorbesc despre asta. Așa am ajuns eu expert pop-up, fără să am nicio calificare sau idee de ce eram acolo, într-un panel cu un epidemiolog și cu șeful campaniei de vaccinare pe toată România. Din fericire, nu mi s-a urcat la cap, altfel acum făceam conținut din ce în ce mai extrem despre vaccinuri și destinații exotice.

Războiul din Ucraina a fost, încă de la început, cel mai mediatizat din istorie. Dacă Războiul din Golf a fost primul război televizat, atunci cel din Ucraina a fost, pentru majoritatea oamenilor, primul urmărit în real-time pe social media. Încă sunt marcat de clipurile din primele zile de război ale (acum) veteranului Yuriy HydymenkoPe instagram.com sau de pozele apărătorilor răniți din Azovstal.„The Icon of Ukrainian Resistance: Azovstal Defenders Released From Captivity”, kyivpost.com Dar chiar dacă nicio persoană rezonabilă nu ar trebui să aibă vreo dificultate în a identifica cine sunt vinovații din spatele războiului (Rusia și idioții săi utili),O expresie folosită pentru cei care ajută involuntar un adversar, wikipedia.org și cine sunt victimele (ucrainenii), e un pic mai greu să identifici cine e abilitat să opineze pe subiect. 

Există o abundență de experți pop-up care încearcă să-și facă un nume și o carieră de ambele părți ale baricadei. Oameni ca Michael Tracey, un jurnalist teoretic de stânga, ale cărui singure convingeri pot să fie „susțin orice nu susțin liberalii”, e un exemplu perfect de profitor. Pe partea pro-ucraineană, lucrurile devin mai dificile. Există un întreg circuit al OSINT – Open Source Intelligence în twittersferă, care pornește de la experți în informațiiPrecum Calibre Obscura: twitter.com care contabilizează pierderile militare,Oryx, twitter.com trece prin diverse flavoruri de foști soldațiPrecum youtube.com cu experiență și până la conturi anonime de Twitter care își canibalizează reciproc „informațiile” (adesea false) și postează foarte des „👀👀👀” în loc de lucruri utile. Toate aceste conturi au numere foarte mari de urmăritori și distribuiri și sunt o consecință normală a vitezei cu care se comunică astăzi. 

Problemele însă apar la o altă categorie de experți pop-up, cei care construiesc narative certe, autoritative, din mici bucăți de idei plauzibile, care nu stau în picioare la cea mai mică analiză. Se știe că e o idee proastă când experți într-un domeniu ajung să se creadă calificați în alt domeniu. Sunt multe exemple: experții crypto încercând să pună societatea pe blockchain, Richard Dawkins vorbind despre cultură și religie și toată cariera post-clinică a lui Jordan B. Peterson, mai ales nou descoperitul său negaționism climatic. Însă e o idee cel puțin la fel de proastă când persoane care se pricep tangențial la multe subiecte ajung să fie vocile autorității pe diverse subiecte, mai ales când persoanele respective se pricep la prezentare. În cel mai bun caz te trezești cu un Noah SmithAutorul newsletter-ului noahpinion.substack.com sau Costi Rogozanu. În cel mai rău, cu Kamil Galeev, Trent Telenko sau Chuck Pfarrer, trei experți pop-up pe subiectul Ucraina care reprezintă fațete diferite ale problemei.

Kamil Galeev e un „expert” în Rusia, ceea ce în alte vremuri s-ar fi chemat un kremlinolog. Talentul său e de a lua bucăți disparate de cultură rusă – Pușkin, răspunsul cazacilor zaporojeni, etimologie – și de a le combina cu o înțelegere „trăită” a sistemelor de putere ruse pentru a crea niște narative enorme care explică „De ce e Rusia așa”. Sigur, toate construcțiile sunt niște castele de cărți de joc, în care, dacă contești orice bucată, poți dărâma toată șandramaua, dar asta nu îl oprește pe Kamil să aibă 350 de mii de followeri pe Twitter, care sorb fiecare referință la Tolstoi sau conflictele curtieri/boieri de la curtea țarului Putin.

Trent Telenko e un fost specialist în roți pentru MAPN-ul american (sau ceva), care a explodat până la aproape 170 de mii de followeri prin threadurile lui despre cum Rusia pierde războiul pentru că nu repară roțile la camioane și nu are europaleți ca să descarce muniția. Trent era un conspiraționist pro-Trump înainte de război, acum și-a găsit o nouă pasiune în explicatul logisticii și al războiului cu drone.

Chuck Pfarrer e un fost soldat american de trupe speciale care explică orice explozie din Ucraina ca fiind rezultatul unui program de arme secrete livrate de Pentagon trupelor ucrainene. Când a explodat podul din Crimeea, Chuck a fost primul care să explice cum a fost atacat cu arme de rază lungă pe care Ucrainenii nu le aveau. SAU POATE LE AVEAU, dar în SECRET! Chuck are 115 mii de urmăritori pe Twitter.

Problema nu este neapărat că oamenii ăștia fac o carieră din pasiunea lor. Problema nu e nici  că împrăștie informații false, uneori au chiar parțial dreptate. E dreptul lor să greșească la fel de mult ca al lui ChatGPT. Problema e felul în care își prezintă teoriile – threaduri de Twitter ușor de digerat, promisiunea unei REVELAȚII INCREDIBILE și UN SINGUR TRUC care te face să NU ÎȚI VINĂ SĂ CREZI! Pentru că asta  strică creierele tuturor.

Pareidolia Pop-Up

Creierele umane sunt și ele o rețea neuronală, la propriu. Această rețea, de-a lungul milioanelor de ani de evoluție, a învățat să identifice diverse semne și modele în lumea din jur ca unul din singurele avantaje competitive ale speciei. Când funcționează bine, creierul identifică prin fenomenul ăsta că nu e bine să bagi mâna-n foc sau că dacă sunt urme de leopard în noroi ai face bine să o iei în direcția opusă. Când funcționează prost, ajungi să faci legături între faptul că nu mai au ouă la magazin azi și colapsul inevitabil al societății.Ca în această memă: reddit.com 

Fenomenul de identificare a unor stimuli generali ca fiind semnificativi se cheamă pareidolie și, când te simți poet, te ajută să vezi forme de animale în nori sau stele. Din nefericire, același fenomen te face și să identifici unele lucruri spuse cu încredere de alții, cu legături trasate convingător, ca fiind profunde și adevărate. Când un rus carismatic îți împletește o versiune digerabilă a conceptului de rent-seekingDetalii pe wikipedia.org cu cugetări despre cum asta e vizibil în Unchiul Vania, creierul tău vrea să creadă că asta e soluția, revelată ție și unui grup select de followeri pe Twitter. Problemele armatei ruse nu pot fi structurale, complexe și distribuite inegal. E de la cauciucuri! N-au cumpărat cauciucurile bune!

Fenomenul ăsta e un fel de Gish GallopO tehnică de „dezbatere” în care adversarul e inundat cu argumente la care nu are timp să răspundă, wikipedia.org inversat. În loc de argumente disparate, care nu pot fi atacate pentru că-s prea multe, experții pop-up oferă o narativă structurată atrăgător, cu multe exemple care nu sunt chiar exemple și dovezi care nu prea dovedesc nimic. Experții adevărați se pierd undeva în zgomotul de fundal, din cauză că o cunoaștere profundă neatrăgătoare (articole de jurnal, blocate în spatele unui paywall) nu va putea niciodată concura cu o cunoaștere atrăgătoare de suprafață (un  thread viral pe Twitter). Mai ales când exemplele atrăgătoare sunt unite într-un model pe care creierul îl deslușește și apreciază, și care îi livrează un boost de ego. Te simți cel deștept, cel ales, cei care a identificat legăturile.

Dacă apocalipsa nu există, trebuie inventată

Poate părea o problemă minoră, o serie de pseudointelectuali populari într-o nișă de pe Twitter. Dar problema e că genul ăsta de persoane, experți generaliști carismatici și cu fler, tind să nu stea foarte des într-o nișă. O bună parte din jurnalismul de opinie se bazează pe asta, iar personajele de genul tind să graviteze spre o zonă de opinie, de jurnalism gonzo, în care personalitatea autorului și experiența sa influențează produsul finit. Și eu sunt cel puțin la fel de vinovat de asta ca mulți alții.

Este însă periculos când impactul experților pop-up în mainstream depășește unele limite. Dacă Trent Telenko ar avea destulă influență cât să convingă Statele Unite că epoca tancurilor s-a terminat și epoca dronelor e aici, ar apărea o problemă practică, militară, născută din păreri de pe Twitter. Dar ce-ai zice dacă cineva i-ar da lui Kamil Galeev un show pe Netflix în care să te convingă de teoriile sale?

Fix asta s-a întâmplat cu Graham Hancock. Un jurnalist (!) și cercetător independent (!!), Graham Hancock e un personaj recurent pe la podcastul lui Joe Rogan (!!!), unde vorbește despre teoriile sale legate de o „apocalipsă străveche” care ar fi avut loc la sfârșitul ultimei ere glaciare, acum circa 12.000 de ani. În timpul acestei apocalipse, o civilizație avansată, posibil Atlantida, s-a scufundat, lovită de un potop biblic, care a avut loc pe tot globul, provocat probabil de niște comete care au lovit planeta. Hancock e foarte carismatic, nu pare deloc ciudat, specifică clar și sincer că nu crede în reptilieni sau alte bazaconii. Doar încearcă să răstoarne canoanele istoriei, pentru a arăta semnele care indică (nu zice niciodată ceva grav, gen ADEVĂRUL) spre adevărata istorie.

Dacă sună ca ceva ce ar zice Luis Lazarus sau regretatul Lorin Fortuna, aș vrea să  spun că, spre deosebire de cei doi de mai sus, Graham Hancock are momentan unul dintre cele mai vizionate documentare de pe Netflix. Da, Ancient Apocalypse nu e un video pe YouTube (nu că YouTube ar fi o platformă mai puțin prolifică, întreabă-l doar  pe conspiraționistul Mark Sargent), ci o serie de succes pe Netflix.

Pe parcursul a opt episoade produse cu toată expertiza Netflix, Hancock explorează diverse locuri din lume unde UNII OAMENI spun că s-au întâmplat lucruri. Alții nu sunt de acord. Dovezile prezentate sunt vagi, dar credibile, nu prin cât de plauzibile sunt, ci prin credibilitatea autorului. E un show nu despre teorie, ci despre Hancock. Hancock e credibil. Nu suferă de complexele multor „căutători ai adevărului”, are o prezență plăcută, de James Burke mai tânăr. E clar că e pasionat de ce zice și e clar că are încredere 100% în teoria sa. Pe parcursul a opt episoade, construiește un model pe care creierul meu de abia așteaptă să-l absoarbă. 

E ceva romantic în a crede că oamenii nu sunt primii aici, nu e prima civilizație avansată și, poate, într-o eră a schimbărilor neașteptate ale climei, e ceva reconfortant în a crede că există speranță după apocalipsă.
Dar nu doar că e problematic că acest show e pe Netflix, validat de aura de autoritate a platformei, dar e problematic pentru societate  în general.

Ideile romantice care răstoarnă lucruri precum istoria omenirii fără dovezi concrete nu își au locul pe scena prime time, ci în dezbateri academice. Când ajungem să dezbatem realitatea, ajungem la Densușianu, David Icke, la Jim Jones, la Posadas și, din ce în ce mai mult, la Elon Musk și Ye. Chiar dacă știința nu e bătută în cuie și istoria e subiectivă, cu toții avem o responsabilitate față de societate și de realitate. Aceea de a apăra modul în care societatea  își construiește baza de cunoaștere. Sigur, Hancock s-ar putea să aibă dreptate, dar e iresponsabil să i se dea dreptate fără dovezi. Ar mai fi și o discuție despre etica producției Netflix, mai ales că unul din fiii lui Hancock e șef de programe la Netflix, dar asta e pentru altă dată.

Chatboții vechi și noi

Până una alta, în momentul de față, toată informația care poate fi consumată sau creată e accesibilă instantaneu, iar opțiunile cresc zilnic. Mai mult, este o epocă în care comunități întregi de oameni„Imagined community”, wikipedia.org se formează și cresc în jurul unor idei și concepte într-un fel care e posibil la scara asta doar de 30-35 de ani. Și nu în ultimul rând, este epoca în care asistăm în timp real la nașterea unor inteligențe artificiale croite după chipul și asemănarea omului.„Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day”, theverge.com E o furtună perfectă de factori care pot duce la inteligențe artificiale utile, care să se îndrepte încet încet spre singularitate, sau care pot crea o distopie perfectă de ignoranță, conspirații și forme fără fond. 

Dacă Graham Hancock și alți experți pop-up carismatici vor sta la baza viitorilor parteneri algoritmici, va începe  într-adevăr o lume post-adevăr. Sigur, asta nu înseamnă că militez ca alții pentru „experți acreditați” și „curriculumul Marile Cărți”, doar sper să-mi trăiesc bătrânețile într-o lume în care cunoașterea e democratizată dar validată, o lume în care peer review-ul și double blind-ul sunt încă la putere și sintagma „EXPERȚII ÎL URĂSC” e ceva lăsat în urmă. 

Deocamdată, ne suntem datori să luptăm cu pareidolia, să urmăm răspunsul plictisitor, validat științific, nu cel glossy și atrăgător instinctiv. Susținerea politicoasă a consensului științific și cultural devine, dintr-un deziderat pentru oameni, azi, un imperativ pentru AI, mâine.



Text de

Dragoș C. Costache

A studiat antropologie și științe politice – și asta îl ajută să fie genul de om care are păreri pe Internet. E crescut în epoca ASCII, dar vorbește fluent emoji.

AI&ROBOȚI|HOT TAKE

Paradoxul inteligenței artificiale: mai puțin control, la fel de multă responsabilitate

De
Cine e responsabil când algoritmii iau decizii proaste? Pentru a răspunde la această întrebare ne-am întors în trecut, mai bine de 2000 de ani, la Aristotel.
SOCIETATE|HOT TAKE

Cum să (nu) te cerți pe internet (și nu numai)

De
Când să ai principii etice, și de ce.
MEDIU|HOT TAKE

Ce au stabilit decidenții la COP27, după mai bine de două săptămâni petrecute în Sharm El Sheikh?

De
Conferința Națiunilor Unite de anul acesta despre schimbările climatice (COP27) s-a terminat, dar e greu de zis dacă deciziile reflectă cu adevărat „un progres”. 
AI&ROBOȚI|HOT TAKE

ChatGPT e o fereastră asupra viitorului și ce-am văzut îmi dă sentimente amestecate

De
Modelul de limbaj făcut public de OpenAI arată că munca, educația, jurnalismul sau programarea vor trebuie să se adapteze existenței acestuia. La fel și Google.