Foto: Yuichiro Chino / Getty Images

Paradoxul inteligenței artificiale: mai puțin control, la fel de multă responsabilitate18 min read

De Cristina Voinea 30.01.2023

Cine e responsabil când algoritmii iau decizii proaste? Pentru a răspunde la această întrebare ne-am întors în trecut, mai bine de 2000 de ani, la Aristotel.

Imaginează-ți că ești o mamă cu trei copii. Într-o zi primești o scrisoare prin care ești înștiințată că trebuie să dai înapoi tot ajutorul primit de la stat pentru creșterea copiilor, din cauza unei suspiciuni de fraudă. Știind că nu ai făcut nimic, te-ai gândi, probabil, că este doar o greșeală care se va rezolva rapid. Se dovedește că întregul proces de a-ți demonstra nevinovăția durează nouă ani, timp în care lipsa banilor și stresul te aduc în depresie. Afli, apoi, că numeroși alți părinți, majoritatea cu venituri mici sau din diverse minorități etnice, trec prin același coșmar. Cine este responsabil? Răspunsul ar fi simplu dacă ar putea fi identificați cei care au decis că există o suspiciune de fraudă în toate aceste cazuri. Dar la mijloc nu au fost oameni, ci algoritmi.   

Vestea cu adevărat proastă este că acest scenariu nu este unul imaginar. Acum câțiva ani, în Olanda,„Dutch scandal serves as a warning for Europe over risks of using algorithms”, politico.eu autoritățile fiscale au folosit un sistem de inteligență artificială care avea ca scop crearea unor profiluri de risc, în efortul de a detecta timpuriu frauda în rândul persoanelor care solicită ajutor pentru îngrijirea copiilor. Sistemul folosit, ce avea la bază un algoritm de învățare automată,Detalii despre cum funcționează pe wikipedia.org a identificat ca factori de risc criterii precum dubla naționalitate sau veniturile modeste. Astfel, autoritățile au penalizat zeci de mii de familii pentru o simplă suspiciune de fraudă bazată pe indicatorii de risc ai sistemului. Algoritmii, se pare, dau rateuri cu miză mare.   

În încercarea de a înțelege mai bine lumea, oamenii au folosit dintotdeauna algoritmi pentru a modela diverse fenomene complexe. Acum, însă, există date despre cam tot ce e în jurul; există și mașinăriile care să le proceseze rapid. Asta permite automatizarea a din ce în ce mai multe activități. Inteligența artificială, la baza căreia se află un mănunchi de algoritmi de învățare automată, poate îndeplini cu succes diverse sarcini, de la coordonarea traficului aerian„The role of automation in air traffic control”, airport-technology.com la tranzacționarea pe bursa de valori„How a Trading Algorithm Actually Works”, wsj.com sau chiar îngrijirea bătrânilor.„​​Robots rise to meet the challenge of caring for old people”, nature.com Despre beneficiile automatizării s-a tot vorbit (creșterea eficienței și a productivității, îmbunătățirea condițiilor de muncă etc.), însă riscurile sunt mai insidioase și greu de sesizat. De exemplu, cine este responsabil atunci când lucrurile o iau razna, ca în cazul Olandei? Se mai poate vorbi despre responsabilitate morală atunci când nu sunt consecințele deciziilor unui om, ci ale unui algoritm? Și dacă răspunsul este afirmativ, oare trebuie să fie schimbat conceptul de responsabilitate morală folosit acum?

Probleme cu responsabilitatea

În proiectul CoMoRe, din cadrul Centrului de Cerectare în Etică Aplicată, am încercat să răspund acestor întrebări, alături de colegii mei Mihaela Constantinescu, Radu Uszkai și Constantin Vică. Scopul nostru a fost să vedem dacă sistemele de inteligență artificială pot să fie considerate agenți morali și, corelat, dacă le putem atribui responsabilitate morală. 

În mod normal, conceptul de responsabilitate morală este folosit pentru a judeca calitatea morală a celor din jurul, dar și pentru evaluarea acțiunile proprii. Atribuirea blamului sau a laudei morale face parte din practicile morale fundamentale și definește relațiile sociale. De obicei, o persoană este considerată responsabilă moral pentru consecințele acțiunilor sale atunci când aceasta are un anumit control asupra a ceea ce face (cu alte cuvinte, când ar fi putut face lucrurile și altfel) și când acționează în mod liber. Responsabilitatea morală presupune, deci, capacitatea de a fi agent moral. 

La o primă vedere, atribuirea responsabilității atunci când sunt folosite sisteme automate nu pare a fi foarte complicată. Până la urmă, algoritmii sunt niște tehnologii aflate sub controlul uman. Mai mult, nu apar ca Venus din spuma mării, ci sunt creați, bricolați, de diverși oameni. Așa încât, o strategie ar fi ca atunci când un algoritm ia o decizie proastă, responsabilitatea morală să fie atribuită celor care l-au creat (fie un om sau un grup de oameni, fie o companie). Însă aceste sisteme tehnologice nu sunt degeaba numite „inteligență artificială”, ci pentru că există un grad de autonomie la mijloc: primesc date, iar pe baza lor, în urma unui proces complex, adeseori opac, algoritmii fac diverse corelații pe baza cărora se pot face mai apoi predicții. Cu alte cuvinte, ca niște mici copilași drăgălași, au capacitatea de a învăța singuri (într-un anumit sens). Ceea ce înseamnă că oamenii nu au control și nici o cunoaștere foarte bună a proceselor și deciziilor algoritmice. În literatura de specialitate, se vorbește despre „falia responsabilității”:„The responsibility gap: Ascribing responsibility for the actions of learning automata”, springer.com cu cât tehnologiile devin mai complexe, cu atât oamenii intervin mai puțin în procesele automate de luare a deciziilor. Drept urmare, cu atât mai puțin pot ficonsiderați responsabili pentru rezultatele obținute prin aceste tehnologii. Asta pentru că nu poți fi considerat responsabil moral pentru un proces asupra căruia nu ai control. E ca relația dintre un adolescent și părinții săi: e greu de spus în ce măsură părinții sunt vinovați pentru prostiile pe care le face copilul lor. 

Dar it takes two to tango! Iar dacă oamenii ies din peisaj, nu mai rămâne decât inteligența artificială. Are sens să fie considerată responsabilă moral? Pentru a răspunde la această întrebare trebuie să clarific ce este, mai precis, un agent moral (așa cum am spus mai sus, numai agenții morali pot fi responsabili). În articolul cu care am inaugurat proiectul, ne-am întors la Aristotel, care acum mai bine de două mii de ani ne-a dat o înțelegere clară și concisă a legăturii dintre agenție și responsabilitate morală, înțelegere care domină încă în filosofia morală. 

Pentru Aristotel, cineva este responsabil moral dacă îndeplinește mai multe condiții: 1. provoacă un rezultat prin propria inițiativă (condiție cauzală); 2. acționează fizic și psihologic neconstrâns (condiția libertății); 3. cunoaște consecințele relevante ale acțiunii (condiția cunoașterii); 4. posedă capacitatea de a evalua moral semnificația acțiunii în raport cu un scop (condiția deliberării). După cum probabil ai ghicit, concluzia este negativă: inteligența artificială nu îndeplinește aceste condiții, deci nu poate fi considerată responsabilă moral pentru deciziile sale. Asta deoarece inteligența artificială nu poate fi considerată un agent moral. Cu alte cuvinte, algoritmii nu își aleg singuri scopurile, deci nu sunt liberi și nici conștienți de consecințele sau contextul acțiunilor lor. Totuși, asta nu rezolvă nimic. Dacă nici oamenii și nici algoritmii nu sunt responsabili moral atunci când ceva merge prost, cine să fie responsabil? 

Ce rămâne de făcut?

Poate că ne-am concentrat prea mult pe tehnologie așa cum este ea dezvoltată și funcționează acum. Adică am asumat că tehnologia nu poate fi altfel decât este. Ne-am adormit capacitatea de a imagina lumea și altfel, de a vedea alte contexte de dezvoltare și implementare a inteligenței artificiale. Și aici, susținem noi, tot Aristotel ne sare în ajutor cu etica virtuții. În locul unei priviri asupra tehnologiei în sine și a modului în care funcționează (cum se întâmplă, de exemplu, în inepuizabilele dezbateri legate de XAIExplainable artificial intelligence, wikipedia.org și audit algoritmic„Automation, Algorithms, and Politics”, ijoc.org), cadrul eticii virtuții ajută să fie evidențiată importanța oamenilor în proiectarea și dezvoltarea inteligenței artificiale responsabilă moral.  

Aristotel spune că oamenii nu pot fi virtuoși, implicit, nu pot acționa moral, dacă nu au înțelepciune practică – adică capacitatea de a sesiza și acționa pe baza diverselor nuanțe morale ale contextelor în care se află. Cu alte cuvinte, Aristotel credea că acțiunea corectă din punct de vedere moral cere experiență și gândire contextuală, de vreme ce nu există reguli morale universale care să fie aplicate întocmai în toate situațiile particulare. Altfel spus, cum moralitatea nu poate fi algoritmizată fără a o denatura și deturna, oamenii trebuie să învețe ce este corect să facă, în diverse situații, din experiență. 

Asta înseamnă că nu ar trebui pusă o e întrebarea despre cum să fie încorporată moralitatea în mașini, ci despre cum am putea fi determinați oamenii care creează aceste tehnologii să fie mai sensibili și astfel atenți la implicațiile morale ale creațiilor lor. Iar cum Aristotel spune că oamenii sunt modelați de contextele în care acționează, acest lucru înseamnă că ar trebui să fie examinat, în primul rând, rolul organizațiilor în care sunt dezvoltate aceste tehnologii. Pentru a trăi mai bine cu tehnologia, pentru ca inteligența artificială să devină un companion în încercarea de a trăi o viață bună, ar trebui să fie promovate organizații și culturi organizaționale mai sensibile și responsabile din punct de vedere moral. Asta înseamnă că e nevoie să fie create stimulentele necesare pentru ca companiile ce dezvoltă aceste tehnologii să nu prioritizeze exclusiv eficiența și eficacitatea, ci și moralitatea, ceea ce numim „bine”, „respect”, „autonomie” sau „nefacerea răului” etc.  

Dacă acest lucru ți se pare pare o strofă dintr-o piesă idealistă a lui John Lennon, nu pot decât să îți dau dreptate. Cum să fie create culturi organizaționale mai transparente și responsabile din punct de vedere moral? Aceasta este întrebarea la care vreau să răspund alături de colegii mei din proiect în viitorul apropiat. Deocamdată, știm că nu este suficient să fie dezvoltate coduri de etică,„The uselessness of AI ethics”, springer.com să existe o legislație care să protejeze consumatorii„How the EU’s Flawed Artificial Intelligence Regulation Endangers the Social Safety Net: Questions and Answers | Human Rights Watch”, hrw.org sau să fie angajați eticieni.„From Ethics Washing to Ethics Bashing: A Moral Philosophy View on Tech Ethics”, ieeexplore.ieee.org Intuiția îmi spune că soluția ar s-ar putea afla în direcția oferirii unei mai mari puteri angajaților în cadrul companiilor care dezvoltă aceste tehnologii. Despre asta, însă, voi spune mai multe în următorul articol.



Text de

Cristina Voinea

Este doctor în filosofie, cercetătoare a Centrului de Cercetare în Etică Aplicată și asistentă în cadrul Departamentului de Filosofie și Științe Socioumane, Academia de Studii Economice

AI&ROBOȚI|FYI

Boston Dynamics a lansat un model electric al robotului umanoid Atlas, care va fi testat prima dată în fabricile auto Hyundai

De
Boston Dynamics, liderul mondial în dezvoltarea de roboți mobili, și-a luat la revedere de la unul dintre modelele principale, dar nu pentru mult timp.
TEHNOLOGIE|HOT TAKE

TikTok’s enshittification. Despre cum mor platformele digitale.

De
La un an de la prima publicare, „enshittification” este un termen tot mai actual. Iată articolul de la care a pornit totul.
AI&ROBOȚI|FYI

Slow Forward: Videoclipurile AI generate de Sora au pus în umbră Gemini 1.5 

De
Două noi modele AI s-au lansat în aceeași zi, dar cel de la OpenAI s-a dovedit mut mai bun la marketing.
AI&ROBOȚI|OVERVIEW

2023: Anul în care inteligența artificială a devenit mainstream

De
Nu e niciun dubiu că, dincolo de evenimentele politice, inteligența artificială a fost subiectul anului. Dar cât e hype și cât e cu adevărat avans tehnologic se va stabili ceva mai târziu.