Foto: Gremlin/GettyImages

ChatGPT, Bing & co și pericolele guvernării algoritmice18 min read

De Cristina Voinea 27.02.2023, ultima actualizare: 29.03.2023

Ne aflăm în era guvernării algoritmice, căreia îi lipsește legitimitatea și asupra căreia nu poate fi exercitat controlul democratic. Viitorul trebuie și poate să fie al libertății, nu doar al confortului.

Când eram mică, desenele mele favorite erau Familia Jetson. Acțiunea se petrecea într-un viitor în care toată lumea locuia în cer (pentru că pământul era prea poluat), iar sarcinile de zi cu zi, de la spălatul pe dinți la îmbrăcat sau gătit, erau făcute cu ajutorul mașinilor. Oamenii nu mai făceau aproape nimic; nici măcar nu mai mergeau, ci trotuarele îi duceau unde voiau. Cu toate aceste minunății tehnologice, membrii familiei Jetson se plângeau neîncetat când mai aveau câte ceva de făcut. Pe vremea când urmăream aceste desene, abia îmi luasem calculator și mă puteam conecta la net doar jumătate de oră pe zi. Mi se părea imposibil ca într-o zi viitorul să arate chiar atât de confortabil. 

În sfârșit, nu vom mai scrie emailuri

Despre inteligența artificială generativă, de tipul Chapt-GPT3 sau DALL-E, la baza căreia se află transformer language models,„A Conceptual Guide to Transformers: Part I”, substack.com s-a scris enorm în ultimele luni. E de înțeles fascinația pentru aceste tehnologii. Ele sunt utile la o groază de sarcini și promit o lume de tipul celei în care trăia familia Jetson. Mai mult, pare că în spatele ecranului nu se află simple instrumente, ci inteligențe, agenți. Oamenii tind, în general, să antropomorfizeze; în istoria evolutivă, a fost utilă dezvoltarea capacității de a identifica semnale sociale,„On seeing human: A three-factor theory of anthropomorphism”, psycnet.apa.org pentru că asta ajuta la formarea de conexiuni cu alții și evitarea excluderii din grup. Creierul uman a devenit un fin detector a tot ceea ce ține de socialitate, iar consecința neintenționată este tendința de a înzestra chiar și agenți non-umani cu trăsături umane. 

Același lucru se întâmplă și cu ChatGPT, Sydney (de la Bing) & co. Există iluzia că aceste tehnologii sunt conștiente, măcar într-un sens minimal, iluzie gonflată de capacitatea lor de a răspunde pertinent la întrebări și chiar de a demonstra „personalitate”. Unii dintre cei care lucrează în industrie„Google engineer Blake Lemoine thinks its LaMDA AI has come to life”, washingtonpost.com fac afirmații mari despre tehnologiile pe care le creează și folosesc termeni pe care nu îi stăpânesc foarte bine. În esență, inteligența artificială generativă poate produce tot felul de date, de la texte, la imagini sau videouri, inspirându-se din tot ce există pe net sau din corpusurile de date, fără să recreeze totuși copii perfecte a ceea ce există deja. Sunt un fel de mașinării de remixat, care pot produce output-uri noi și originale. Inteligența, agenția, conștiința sunt concepte în jurul cărora există dezbateri imense în filosofie și alte științe sociale. E greu de spus dacă aceste modele sunt inteligente, dacă au conștiință sau agenție, dacă pot înțelege ce li se cere și ce fac. Cei care aruncă verdicte sunt cel puțin iresponsabili, căci întreținerea iluziei agenției nu face niciun bine nimănui. A atribui acestor mașinării capacitatea de a fi agenți presupune a le învesti cu o anumită formă de putere, asupra noastră și asupra felului în care ne reprezentăm lumea. 

CITEȘTE ȘI: După ce s-a „îndrăgostit” de un utilizator, discuțiile cu chatul Bing au fost limitate

E interesant ce devin IA atunci când sunt folosite. Cu siguranță fac viața mai confortabilă: îți pot răspunde la întrebări, fără să mai fie nevoie să cauți răspunsul în o mie de surse online; pot să fie noi izvoare de inspirație sau chiar să scurteze și să simplifice acele job-uri care erau până acum ferite de automatizare. Dar fuga pentru eficientizare și confort și bucuria că ai mai scăpat de ceva de făcut ascund, însă, și o parte mai întunecată. Deja s-a scris despre cum aceste tehnologii pot fi (și cu siguranță) vor fi folosite pentru a submina democrațiile„Opinion | How ChatGPT Hijacks Democracy”, nytimes.com sau pentru a împrăștia știri false și dezinformare.„Misinformation, Scams, and the Glut of Garbage Content Are Going to Explode with GPT – Are We Ready?”, epic.org Mai mult, aceste modele presupun un consum energetic imens și multă poluare,„The Carbon Footprint of ChatGPT”, towardsdatascience.com precum și exploatare.„OpenAI Used Kenyan Workers on Less Than $2 Per Hour: Exclusive”, time.com

Despre toate aceste riscuri se vorbește de când au apărut platformele sociale și tehnicile de învățare automată. O problemă nouă, deschisă de dezvoltarea accelerată a inteligenței artificiale generative, este însă legată de folosirea ei pentru a suplini sau de-a dreptul pentru a înlocui unele instituții. În cuvintele lui Sam Altman,într-o postare pe twitter.com CEO-ul OpenAI, „aceste instrumente ne vor ajuta să fim mai productivi (abia aștept să petrecem mai puțin timp cu e-mailurile!), mai sănătoși (consilieri medicali cu inteligență artificială pentru persoanele care nu-și pot permite îngrijiri medicale), mai inteligenți (studenți care folosesc ChatGPT pentru a învăța) și mai amuzați (meme produse de inteligență artificială, lolol).” 

Cu alte cuvinte, dincolo de faptul că nu o să mai scriem emailuri și că o să ne hlizim la meme mai amuzante, aceste aplicații, proprietare, opace ori mult prea complexe pentru a fi înțelese, pot fi și soluții la probleme sociale și politice. Așa cum afirma Cathy O’Neill încă din 2016,„Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy”, goodreads.com a interacționa cu oamenii va deveni din ce în ce mai mult un privilegiu, rezervat celor cu resurse, în timp ce masele vor fi procesate și „tratate” de mașini. Nu trebuie uitat că atât timp cât IA este indiferentă la adevăr, adică e ceea ce Harry Frankfurt numea generator de bullshit,„ChatGPT is a bullshit generator. But it can still be amazingly useful”, aisnakeoil.substack.com suplinirea oamenilor cu IA nu prea are cum să aibă consecințe bune. Pare că ne îndreptăm către un viitor hiper-confortabil, în care însă a ți se acorda atenție de către un agent uman va deveni un lux. 

Guvernarea algoritmică

Sistemele de inteligență artificială, generative sau nu, sunt folosite pentru a simplifica, eficientiza și crește confortul. Cu alte cuvinte, aceste tehnologii sunt modalități de a exercita putere. A avea putere asupra cuiva înseamnă, în esență, a avea capacitatea de a-i influența opțiunile, alegerile și atitudinile, fără ca persoana asupra căreia este exercitată puterea să aibă aceleași capacități. Sistemele de IA sunt folosite deja pentru a structura ecosistemul informațional (de exemplu, moderarea conținutului pe platforme sociale), pentru a modela ce alegem (prin design persuasiv și dark patterns) și chiar pentru a aloca resurse (de exemplu, asistență socială prin IA). Deci cei câțiva care dețin și au controlul asupra acestor tehnologii au un impact direct asupra oamenilor, a tuturor celor care nu pot fi decât simpli subiecți procesați. Ne aflăm deja în era guvernării algoritmice, guvernare căreia îi lipsește legitimitatea și asupra căreia nu poate fi exercitat un control democratic. 

Confortul merge mână în mână cu monopolul. Cu cât mai comod și simplu e să folosești un serviciu, cu atât mai puternică devine compania care îl oferă. Odată ce dai de Netflix, nu te vei mai chinui să cauți filme și să le downloadezi de pe torrente. Dacă poți apela la ChatGPT-3 ca să îți facă eseul, atunci nu îți vei mai bate capul să îl faci tu. Dar cu acest tip de alegeri se vor confrunta nu doar indivizii, ci și statele. Dacă poți să liniștești oamenii oferindu-le acces la un asistent medical virtual, atunci nu te vei mai chinui să îmbunătățești serviciile medicale publice sau să egalizezi accesul la ele. Dacă poți oferi acces la profesori și lecții virtuale în mediile defavorizate, atunci nu te vei chinui să pui în aplicare egalitatea de șanse, oferindu-le tuturor, indiferent de mediul social sau statutul financiar, acces la servicii de educație de calitate.

Nu vreau să susțin că mai mult confort e ceva rău. Cum nici nu pot să îmi ascund fascinația și încântarea legată de apariția unei inovații tehnologice de tipul inteligenței artificiale generative. Dar odată ce entuziasmul se astâmpără și optimismul se temperează, vine vremea gândirii critice. Cred că în viitor tehnologia, sub toate formele ei, va fi din ce în ce mai mult folosită pentru a guverna, iar această posibilitate ridică numeroase probleme de natură politică. Va mai avea vreo importanță legitimitatea puterii atunci când acesta este exercitată de companii private, prin tehnologii proprietare și greu de înțeles? Poate exista democrație fără exercitarea legitimă a puterii și consensul cetățenilor? Sunt confortul și libertatea compatibile? 

E greu de contestat faptul că e mai ușor să trăiești astăzi decât acum 100 de ani, în principal datorită inovației tehnologice. Discursul critic privitor la tehnologie este adeseori confundat cu discursul neo-luddit, adică cu ura și teama față de noile device-uri și soft-uri care ne populează viața. Dar aceasta este o greșeală, ce emerge dintr-o asumpție deterministă asupra tehnologiei. A critica IA nu presupune cu necesitate opoziție față de progres, tocmai pentru că tehnologia poate fi și altfel decât este acum. La fel cum instituțiile care ne structurează viața pot mereu fi și altfel. Puterea se exercită nu doar prin instituții, ci și prin tehnologie. Ba chiar tehnologia funcționează ca o instituție. 

Ideea fundamentală e că nu ar trebui să ne lăsăm duși de val. Da, e excelent că nu va mai fi nevoie să compui singur mailuri sau să plătești diverși oameni pentru a crea conținut (deși mi se pare că și aici lucrurile pot fi discutate). Dar suntem datori unii altora și generațiilor viitoare să nu ne mulțumim așa ușor cu ce avem, ci să căutăm mereu să vedem cum puterea se insinuează, uneori tacit în viața noastră, căutând să cuprindă și controleze tot mai mult. Viitorul trebuie și poate să fie al libertății, nu doar al confortului.



Text de

Cristina Voinea

Este doctor în filosofie, cercetătoare a Centrului de Cercetare în Etică Aplicată și asistentă în cadrul Departamentului de Filosofie și Științe Socioumane, Academia de Studii Economice

AI&ROBOȚI|FYI

Boston Dynamics a lansat un model electric al robotului umanoid Atlas, care va fi testat prima dată în fabricile auto Hyundai

De
Boston Dynamics, liderul mondial în dezvoltarea de roboți mobili, și-a luat la revedere de la unul dintre modelele principale, dar nu pentru mult timp.
TEHNOLOGIE|HOT TAKE

TikTok’s enshittification. Despre cum mor platformele digitale.

De
La un an de la prima publicare, „enshittification” este un termen tot mai actual. Iată articolul de la care a pornit totul.
AI&ROBOȚI|FYI

Slow Forward: Videoclipurile AI generate de Sora au pus în umbră Gemini 1.5 

De
Două noi modele AI s-au lansat în aceeași zi, dar cel de la OpenAI s-a dovedit mut mai bun la marketing.
AI&ROBOȚI|OVERVIEW

2023: Anul în care inteligența artificială a devenit mainstream

De
Nu e niciun dubiu că, dincolo de evenimentele politice, inteligența artificială a fost subiectul anului. Dar cât e hype și cât e cu adevărat avans tehnologic se va stabili ceva mai târziu.