Ethics washing în IA: riscul existențial pentru etică27 min read
Inteligența artificială ridică din ce în ce mai multe probleme. Poate apelul la etică să le rezolve? Fenomenul de ethics washing arată cum industria instrumentalizează etica pentru a promova propriile interese.
E greu să intri în competiție cu vreun sistem de inteligență artificială (IA). Nu mă refer la capacitățile de a face diverse lucruri, ci la abilitatea de a capta atenția. Chiar și știrile despre război pălesc în comparație cu cele despre ChatGPT-3, care va schimba fața lumii, sau DALL-E, care va face chiar arta – ultimul refugiu al omenirii în fața automatizării – depășită. Nu e de mirare. Inteligența artificială e un mănunchi de tehnologii cu miză în organizarea socială, expresia politică, cunoaștere și construirea subiectivităților. Ea mediază, astăzi, ce suntem și ce putem fi.
CITEȘTE ȘI: ChatGPT e o fereastră asupra viitorului și ce-am văzut îmi dă sentimente amestecate
Problema definirii este, poate, cea mai complicată. Ce e IA diferă de la un subiect la altul: pentru unii este o idee, pentru alții o industrie, o formă de exercitare a puterii, o nouă modalitate de a cunoaște. Tocmai de aceea antrenează o sumedenie de așteptări, speranțe, frici existențiale și ideologii. Unele aplicații ale inteligenței artificiale par salvatoare, alteori par o condamnare la un risc existențial; uneori ajută, alteori mai mult amplifică greșelile. IA e ca o oglindă în care se reflectă atât zonele luminoase, cât și cele întunecate ale naturii umane.
Inteligență artificială este adesea percepută drept ceva dematerializat, ce plutește undeva în cloud, ca Formele platoniciene. Dar realitatea e la antipod. IA este o industrie extractivă care înghite, la propriu și la figurat, planeta: algoritmii care entuziasmează atât de mult azi, „Anatomy of an AI System”, anatomyof.ai „The Exploited Labor Behind Artificial Intelligence”, noemamag.com și a datelor personale. Mai presupun și o imensă infrastructură de procesare și colectare a datelor și superputere computațională. Toate acestea sunt lucruri la care nu oricine are acces. Nu degeaba Google (Alphabet), Apple, Facebook (Meta), Amazon și Microsoft se află în avangardă. Avantajul lor competitiv a fost dat de infrastructura centralizată și accesul la piețe care furnizează un flux constant de date. Tot ce a lipsit a fost „sosul magic”, adică tehnicile de învățare automată. Cu alte cuvinte, inteligența artificială presupune centralizare. De aici încep problemele.
Vremea dezvrăjirii
Fiecare relație trece prin diverse etape (nu în aceeași ordine și nu mereu aceleași): de la entuziasm la obișnuință, așezare, uneori plictiseală, ori chiar disperare. Relația oamenilor cu tehnologia, mai ales cu inteligența artificială, nu este o excepție. Dacă la început se credea că va ajuta la rezolvarea problemei încălzirii globale, „AI and Climate Change: How they’re connected, and what we can do about it”, medium.com Apoi, odată cu IA a apărut credința că vor fi preluate muncile plicticoase și prost plătite, „On the Phenomenon of Bullshit Jobs by David Graeber”, atlasofplaces.com a job-urilor precare. Am intrat în perioada dezvrăjirii, în care hibele din tehnologii devin tot mai evidente.
Algoritmii de învățare automată au stârnit cele mai mari controverse. Deja la câțiva ani de la apariția lor, s-a conturat încet-încet ideea că aceștia generează rezultate părtinitoare, care afectează cu preponderență comunitățile marginalizate. Acest lucru se întâmplă pentru că seturile de date folosite reflectă practicile sociale, ceea ce înseamnă că algoritmii ajung uneori să reproducă discriminarea rasială sau de gen. De exemplu, „Dissecting racial bias in an algorithm used to manage the health of populations”, science.org a arătat că un algoritm, folosit în spitalele din Statele Unite pentru a decide cine are nevoie de îngrijire medicală, discrimina în mod sistematic persoanele de culoare. Genul este și el o categorie sensibilă, „AI Bias Could Put Women’s Lives At Risk – A Challenge For Regulators”, forbes.com ca urmare a deciziilor algoritmice. Evident, nimeni nu își dorește reificarea practicilor care întăresc diviziunile sociale și discriminarea; acest lucru se întâmplă pentru că datele reflectă aceste nedreptăți structurale. Cazurile fericite sunt cele în care nedreptatea deciziilor algoritmice este sesizată. Riscul este de a cădea în „capcana obiectivității”, care apare din credința că mașinile nu au cum să fie subiective, tocmai pentru că nu au intenții.
Alte probleme ale industriei sunt legate de dezvoltarea unor aplicații ale inteligenței artificiale pentru supraveghere în masă, recunoaștere facială, dar și pentru a crea arme mai bune și mai nebune. Parteneriatul armată-industrie IA este, poate, cel mai înfricoșător și problematic din punct de vedere moral. De altfel, această alianță i-a făcut pe angajații Google să se mobilizeze „Google Will Not Renew Pentagon Contract That Upset Employees”, nytimes.com (în mod clasic, „Google Promised Not To Use Its AI In Weapons, So Why Is It Investing In Startups Straight Out Of ‘Star Wars’?”, forbes.com).
Turnura etică
Pe măsură ce temerile legate de efectele negative neintenționate sau intenționate ale inteligenței artificiale au crescut, răspunsul companiilor private, ale statelor sau organizațiilor internaționale a fost întoarcerea către etică. Ce a presupus, mai precis, această turnură etică? Nu mare lucru. Companiile s-au înghesuit să creeze comitete ad-hoc de experți în etica IA, adesea mandatate să elaboreze documente care să conțină principii etice, valori sau linii directoare menite să ghideze dezvoltarea și implementarea inteligenței artificiale. Toate marile companii au acum pagini dedicate eticii, iar statele au emis și ele strategii pentru dezvoltarea responsabilă a IA („Dedicated to the ethics of AI”, deutschland.de Detaliate pe aiforhumanity.fr Detaliate pe in.gov.br „Artificial Intelligence Ethics Framework for the Intelligence Community”, intelligence.gov). „Ethics of Artificial Intelligence”, unesco.org are propriile recomandări, iar pe lângă acesta există numeroase alte ONG-uri care au dezvoltat documente cu principii pentru IA. „Rome Call for AI Ethics”, vatican.va (PDF) Așadar, la nivel instituțional, etica este înțeleasă în sensul îngust de set de principii morale, ceea ce a presupus un soi de algoritmizare absurdă a moralității, alimentată de speranța neîntemeiată de a rezolva toate problemele rapid cu un document cu principii și recomandări.
Deși atenția acordată eticii în dezvoltarea și implementarea IA este încurajatoare, de fapt, crearea aproape compulsivă de ghiduri, recomandări și liste de principii nu a avut niciun efect. O primă problemă este legată de gradul înalt de abstractizare al recomandărilor. De cele mai multe ori, aplicarea normelor și a principiilor morale este sensibilă la context, ceea ce înseamnă că nu pot fi puse în practică mereu, în același fel, aceleași principii. Astfel, „People, Power and Technology: The Tech Workers’ View”, doteveryone.org.uk arată că 79% dintre inginerii chestionați, consideră că principiile conținute în recomandările etice ale companiilor la care lucrează sunt prea vagi și nu se pot orienta foarte bine în planul acțiunii. De altfel, sistemele IA pot fi utilizate într-o gamă largă de domenii, de la medicină, la război și multe altele. Asta înseamnă că dezvoltatorii de IA nu au un background comun, pentru că sunt specializați în diferite discipline. Implicația ar fi că ar putea avea de urmat obligații morale diferite. Mai precis, există un set de principii și constrângeri morale ce ar trebui să fie luate în considerare în dezvoltarea aplicațiilor IA pentru educație sau medicină, în timp ce cu totul altele ar fi valabile pentru domeniul militar sau cel juridic. Însă recomandările conțin norme foarte abstracte, indiferente la contextul aplicării.
O altă problemă legată de aceste documente și recomandări e dată de lipsa de diversitate în rândul creatorilor lor. Aceeași problemă, de fapt, „’Disastrous’ lack of diversity in AI industry perpetuates bias, study finds”, theguardian.com per se. „The global landscape of AI ethics guidelines”, nature.com care a analizat peste 80 de astfel de documente, a arătat o subreprezentare a regiunilor în curs de dezvoltare, cum ar fi Africa, America Centrală și de Sud și Asia. Acest lucru denotă un dezechilibru de putere, ceea ce ridică întrebări legate de dreptatea globală. Cum ar veni, o parte din lume decide pentru restul lumii, ca și cum efectele tehnologiei sunt indiferente de contextul social, de regulile și normele sociale, formale sau informale, particulare fiecărei societăți în parte.
Dacă lipsa de specificitate și diversitate ar fi singurele probleme cu aceste documente, atunci nu ar exista motive semnificative de îngrijorare. La urma urmei, nu e greu să incluzi mai multe voci în dezvoltarea acestor recomandări și nici nu e mare lucru să scazi nivelul de abstractizare. Dar cea mai mare problemă trimite la faptul că etica este folosită ca o fațadă de către industrie. Cu alte cuvinte, este doar o modalitate de a evita reglementarea statală a tehnologiei sau a companiilor care o dezvoltă. Ideea de fundal în toate documentele pentru dezvoltarea responsabilă a noilor tehnologii este că rolul statelor în tot acest peisaj ar trebui să fie minimal, în timp ce companiile implicate ar trebui să aibă putere decizională totală. Problemele apărute pot fi rezolvate rapid, post facto, cu ajutorul eticii. Avem de-a face, de fapt, cu un proces de ethics washing prin care, în mod paradoxal, etica devine instrumentul de a proteja status quo-ul. Așa s-a ajuns la formarea unor birocrații și diplomații morale, așa cum explic într-un articol recent, scris alături de colegii mei de la Centrul de Cercetare în Etică Aplicată, Constantin Vică și Radu Uszkai.
În 2019,„EU guidelines: Ethics washing made in Europe”, tagesspiegel.de termenul de ethics washing pentru a descrie instrumentalizarea eticii de către industrie. Ethics washing este o adaptare după Detalii pe wikipedia.org Metzinger a fost parte dintr-un comitet de experți însărcinați de Comisia Europeană cu crearea unor principii care să guverneze dezvoltarea și implementarea IA. Recomandările la care s-a ajuns au fost, după filosof, „înguste, mioape și în mod deliberat vagi”, tocmai pentru că etica a fost folosită pentru a „distrage atenția publicului și pentru a împiedica sau cel puțin pentru a întârzia reglementarea eficientă și elaborarea unor politici publice care să guverneze aceste tehnologii”.
CITEȘTE ȘI: AI Act: Uniunea Europeană se ia la harță cu inteligențele artificiale – Mindcraft Stories
Utilizarea și abuzul eticii în lumea tehnologiei pare a fi o strategie folosită de diverse părți interesate pentru a crea impresia, atât pentru public, cât și pentru state, că auto-reglementarea internă de către știință și industrie este mai mult decât suficientă pentru a gestiona riscurile ridicate de sistemele IA. Însă multe implicații problematice moral ale acestor tehnologii, cum ar fi impactul social și politic cu privire la procesele decizionale algoritmice sau implicațiile pentru mediu ale industriei, rămân practic neabordate. Acest lucru se întâmplă și pentru că sume colosale de bani sunt vărsate de companii precum Google sau Facebook în „The Steep Cost of Capture”, ssrn.com (PDF) prin finanțarea programelor de studii doctorale, dubla afilierea a profesorilor „New Research Institute for Ethics in Artificial Intelligence”, ieai.mcts.tum.de sau „The Grey Hoodie Project: Big Tobacco, Big Tech, and the Threat on Academic Integrity”, arxiv.org (PDF) Dacă această practică pare benignă la o primă vedere, de fapt, maschează încercarea de a apropia potențialii critici și de a internaliza posibilele disensiuni.
Etica IA, de la soluții la mai multe probleme
Există motive pentru a chestiona sinceritatea investițiilor masive ale marilor companii de tehnologie în cercetarea care vizează dezvoltarea responsabilă a IA. Etica devine un instrument în mâinile puterii, o modalitate de a evita potențialele costuri impuse de reglementarea statală. Înseamnă, oare, că ar trebui ca statele să preia frâiele? Nici această variantă nu pare prea promițătoare. Gândește-te, numai, la cât înțeleg politicienii din aceste tehnologii și cât de ușor pot fi și ei cumpărați,„Big Tech accused of shady lobbying in EU Parliament”, politico.eu de exact companiile pe care ar trebui să le aibă în vizorul reglementării.
Etica AI se află între ciocan și nicovală. Pare că orice soluție ar fi aleasă, fie guvernarea privată, fie cea publică, lucrurile se așază prost. Atunci când nu mai știi pe unde să o iei, cel mai bine e să te întorci în punctul inițial și să o iei de la zero. În cazul de față, întrebarea fundamentală este: de ce este nevoie de etică pentru IA? De ce nu ar fi nevoie, în mod similar, de o etică a prăjitoarelor de pâine?
Răspunsul e simplu: frigiderele sau aparatele de călcat nu sunt folosite pentru a cunoaște lumea; în schimb, oamenii se bazează tot mai mult pe inteligența artificială pentru a modela fenomene complexe astfel încât să reușească să le cuprindă cu mintea, pentru a face predicții pe care se bazează acțiunile și chiar politicile publice sau pur și simplu pentru a genera/amplifica cunoașterea științifică despre lume. Mihail Radu Solcan, unul dintre cei mai interesanți filosofi din România și, totodată, primul filosof român care și-a îndreptat cercetarea către programul de dezvoltare al inteligenței artificiale (chiar în anii ’80), argumenta acum mai bine de 15 ani că este nevoie de o etică a cunoașterii pentru computere, o etică care se opune celei a cumințeniei, în care joci după cum ți se cântă. Motivul este simplu: computerele, mai precis programele și algoritmii din spate, sunt instrumente prin care producem cunoaștere și prin care ajungem să cunoaștem.
Același argument poate fi aplicat și inteligenței artificiale. Acceptând că este o modalitate de a cunoaște lumea, atunci etica dezvoltării și implementării sale ar trebui să fie o etică a cunoașterii, inspirată de etica științei. Accesul la surse (date, modele, algoritmi) ar trebui să fie deschis, astfel încât comunități de cercetători să lucreze împreună pentru a le evalua critic și pentru a le reface până când trec testele. De ce atâta bătaie de cap? De ce să nu se continue așa cum este acum, punându-ne încrederea în bunele intenții ale lui Musk & co? Răspunsul îl dă tot Radu Solcan, care într-un alt eseu asemăna lumea computerelor cu peștera lui Platon. Utilizatorii sunt vrăjiți de ceea ce văd pe ecrane, dar ceea ce văd e doar o iluzie. Etica cunoașterii este cea care eliberează. Putem să alegem în continuare etica cumințeniei, dar asta înseamnă că vom rămâne legați și ne vom uita fascinați la ce ne oferă tehnologiile, crezând că aceea e toată realitatea.
Deocamdată, în lumea inovatorilor și salvatorilor din Sillicon Valley, etica este doar un after tought, un mod de a calma vocile critice. Întâi sunt create tehnologiile și abia apoi începe reflecția de natură morală asupra implicațiilor lor. Pentru o lume de tehnologii dezvoltate responsabil, lucrurile trebuie să stea invers. Etica trebuie să fie fundamentală în procesul de dezvoltare al noilor tehnologii.