Hiroshi Watanabe/Guliver/Getty Images

Etică și AI. Putem avea încredere în roboți?30 min read

De Mihai Ghiduc 22.06.2020, ultima actualizare: 15.07.2020

Am vorbit cu Constantin Vică, un filosof care vorbește des despre etica în tehnologia informației, despre cum rezolvăm problemele morale ridicate de apariția roboților și inteligențelor artificiale

Omul a vrut să devină creator de „viață” dintotdeauna. Până acum un secol, însă, n-a putut-o face decât imaginar. Și de fiecare dată când a făcut-o, fie că vorbim de „monstrul” lui Frankenstein sau roboții lui Čapek – de fapt, clone mai înrudite cu creația lui Mary Shelley decât cu C3-PO – și-a pus și probleme morale. Care sunt consecințele acestei încălcări a „ordinii naturale”?

Nu-i de mirare deci că primele povestiri care conțin roboți, așa cum îi înțelegem noi, cele ale lui Asimov, s-au învârtit în jurul unor probleme etice. De atunci, mai toată istoria culturală a roboților, are legătură cu alegeri de acest tip, fie că sunt cele făcute de Terminator-ul lui Arnold sau de replicații lui Ridley Scott. 

Lucrurile coboară însă din film în realitate, pe măsură ce apar tot mai mulți roboți și tot mai multe programe de inteligență artificială. Problemele nu mai sunt teoretice, ci cât se poate de practice. Și nu au mereu soluții pe care să le poate rezolva un inginer, cu ajutorul unui algoritm. Filosofia sau, mai precis, latura aplicată a acesteia, este chemată să găsească aceste soluții înainte – sau măcar în timp ce – dăm drumul în lume unor instrumente ce ne vor schimba radical viața.

Am vorbit cu Constantin Vică, doctor în filosofie, lector universitar la Facultatea de Filosofie din cadrul Universității din București, despre dilemele etice ridicate de apariția roboților și inteligențelor artificiale. Printre cursurile pe care acesta le ține la Universitate se numără cele de „Etică în tehnologia informației” și „New Media and Business Ethics”. Este coordonator de programe al Centrului de Cercetare în Etică Aplicată și a fost cercetător în cadrul proiectului „INEMTEC. The Reliability of Moral Intuitions in the Ethical Assessment of New and Emerging Technologies”.

Pe scurt, e specialist în etica inteligențelor artificiale.

Am pornit seria despre roboți de la Asimov, fiindcă s-a născut acum 100 de ani. Au vreo relevanță legile sale ale roboticii? Că de depășite, ne-a demonstrat chiar el că-s depășite.

Constantin Vică: Ca orice poveste care îți pune mintea la treabă, desigur că romanul lui Asimov, cu legile lui cu tot, are o semnificație aparte pentru cei care visează să avem companioni non-umani și post-biologici (cu toate că viitorul s-ar putea să fie al biologiei robotice sintetice). Legile acelea, prinse în volumul Eu, Robotul, au ceva mitico-religios, par a fi de dinainte de apariția răului, a erorii, un fel de legi adamice și atavice, totodată. Te raportezi ca la o poveste fondatoare, formatoare moral și destul de realistă. Roboții lui Asimov mint sau au stări contradictorii – aceasta e o „anomalie”, pentru robopsiholog (un fel de inginer-psiholog) –, dar de fapt încearcă să scape din aporii, fundături morale, când aplicarea legilor acolo îi trimit.

Nu e clar când e parodie sau critică a sistemelor morale care avansează principii care îți cer prea multă ingeniozitate să le respecți, prea multe deducții („Nimic nu e mai util ca deducția”) și abducții. E ca o parabolă povestioara cu pricina: ai grijă cum legislezi moral, să nu te trezești că Speedy te lasă să te topești în soare pe o planetă haină pentru că l-ai aruncat într-un cerc vicios. Tot Asimov o zice mai bine: „Mâzgălelile matematice de pe hârtie nu constituiau întotdeauna cea mai bună protecție împotriva reacțiilor unui robot.” Formalismul în implementarea unei moralități robotice poate fi fatal.

Am tot auzit discuția că un AI face ce-i ceri, nu ce vrei tu să facă. Sunt cazuri când au trișat la jocurile pe care ar fi trebuit să le câștige sau auu găsit diverse scurtături neprevăzute de programatori. Câtă încredere poți avea că aceștia vor crea un robot care se comportă cum ne-am aștepta?

C.V.: Programele sau sistemele de Inteligență Artificială – căci, ca artefacte, asta sunt, niște programe – sunt rezultatul unei munci alambicate, în care agentul uman controlează și nu controlează, la un nivel științific mai pur, ce se întâmplă. Nu toate sunt așa, dar cele din subfamilia deep learning au această caracteristică: de la un punct încolo jocul probabilităților, al ponderilor legăturilor din rețelele neurale artificiale nu mai poate fi înțeles. Aceasta a și dat pretextul unor idei la fel de futuriste precum cele ale lui Asimov acum 70 de ani: AI ar fi un alt fel de a gândi, de a cântări, de a raționa. E doar un mod de a te folosi de multe date pentru a reitera și descoperi configurații. În sens tehnic, se descoperă concepte, dar nu se dobândesc, în sens uman. Odată ce vezi câteva pisici, vei ști toată viața să deosebești felinele de alte animale, ba chiar să le deosebești pe cele inofensive de cele letale, cum ar fi tigrul. Vei înțelege și că pe Broadway pisicile sunt, de fapt, niște actrițe și actori, că o poză cu o pisică nu zgârie, chiar dacă pisica blândă zgârie rău. 

Această activitate, în genul ei propriu, de conceptualizare și urmărire atât a presupozițiilor, cât și a implicațiilor, rămâne ceva străin unei AI.

Dar, pe de altă parte, diverse astfel de rețele neurale, lăsate să coopereze în descoperirea unor rezultate, și-au dezvoltat un canal propriu de comunicare, pierdut în zgomotul datelor, aproape nedetectabil de oameni. Altele au copiat de pe Wikipedia. S-au comportat ingenios, ca niște copii care au vrut să păcălească niște profesori sau pisici. Copilul știe că nu poți păcăli pisica de două ori. Nu cred că AI dezvoltată azi poate prinde nuanța. Probabil nici unii dintre muritori.

Ce te faci dacă un AI ia o decizie neașteptată în viața reală, cu consecințe grave? Cine răspunde?

C.V.: Atunci când poți demonstra că decizia luată de un AI a avut consecințe grave asupra cuiva, atunci poți să-l investighezi pe cel care a delegat decizia către AI. Deocamdată nicio decizie nu ar trebui să fie rezultatul unei astfel de delegări, ci cel mult un proces decizional împărtășit, comun, în care fiecare dintre părți să aducă ceva. Dar responsabilitatea nu se poate asigna decât persoanelor adulte, care dau dovada capacităților lor mentale.

Încercarea astăzi este de a reuși să fixăm limitele acestei responsabilități, dar ea trebuie să rămână umană. 

Tentația de a automatiza decizia era de așteptat, căci odată cu abstractizarea, proceduralizarea vieții, totul pare că e mai ușor de algoritmizat. Dar vedem că tot antrenamentul mașinăriei pentru a lua decizii în locul nostru e impregnat, de fapt, cu limitările, prejudecățile și părtinirile noastre (biases, pe limba dominantă a AI). Ai AI așa cum o meriți, cum o crești, cu date curate sau toxice, cu teste continue și apelând la jocuri adversariale sau lăsând-o leneșă să producă ceva, orice. Uităm uneori că AI joacă în rețea, adesea una împotriva alteia, fie că vorbim de strategii de fast trading pe burse sau de sisteme de recomandare și stimulare a consumului online (de la Google la Amazon și pe tot internetul).

Trebuie făcută o distincție între interacțiunea unor astfel de strategii cu posibile miliarde de persoane și interacțiunea în spații sau zone limitate, cu mult, mult mai puțini oameni. Ce face Facebook prin algoritmii săi are un impact mai mare decât un „glitch moral” al unei mașini Tesla autonome. În al doilea caz, un accident, care e public, vizibil, poate duce la o mai bună calibrare sau chiar schimbare de politică a programelor de AI care au delegată luarea unei decizii rapide, de viață și de moarte. În primul caz, jocurile puterii algoritmice a companiilor care guvernează viețile noastre digitale sunt invizibile, iar cauzele și efectele pot fi greu aflate dacă nu ai acces la ce se întâmplă în interior.

Cum poți securiza AI-urile în fața unor atacuri informatice?

C.V.: Nu e cu putință. Poți să nu le dezvolți pe mașini conectate la internet. Să nu le lași în lume (dar, atunci, de ce să mai dezvolți, dacă nu poți profita?). Nu există, pentru nimic digital, astfel deconstruibil și replicabil, o siguranță completă. Idealul securității perfecte e doar un ideal. Poate că ar trebui să monitorizăm permanent activitatea algoritmică neumană, să vedem când ea ajunge să fie instrumentată cu intenții malefice. Desigur, opacitatea e cuvântul care descrie, de fapt, situația de fapt.

Ar trebui să aibă roboții dreptul de a ucide?

C.V.: Mi-e că atunci ar putea cere un drept la viață. 😊 Mă aflu printre cei care cred că încă e prea devreme pentru asta, adică pentru arme robotice (încă nu de distrugere în masă, dar nu suntem departe…) care să ia decizia finală într-un conflict, o luptă, o bătălie sau un atac direcționat etc. E necesar, în continuare, the-human-in-the-loop. Nu doar să supravegheze, din afară, ci să fie parte a procesului. 

Totuși, întrebarea are o capcană. Dacă am încetini, printr-un moratoriu global, dezvoltarea de arme autonome letale, ce ne face să credem că va fi respectat? Asemănarea dintre arma atomică și AI e evidentă: ambele tehnologii pot duce la dispariția vieții pe Pământ (nu o AI de azi și probabil nu în câteva ore), ambele se dezvoltă în secret (în cazul AI e mai degrabă un secret comercial, dar sunt și unele militare), ambele au stârnit o cursă a înarmării. Cei care nu intră în ea vor avea un dezavantaj strategic. Cei care intră nu sunt îndeajuns de responsabili.

În context, cum rezolvi problema tramvaiului? Sau, mă rog, a mașinilor care se conduc singure, într-o situație complicată de trafic?

C.V.: Nu are o rezolvare, fiind o dilemă. Cred că aceasta ar trebui scris pe aceste mașini: oricum ai face, dacă vom avea un accident grav, va fi și un eșec moral. Dilema nu e doar una în termeni de judecăți morale profunde, în stil utilitarist (precum John Stuart Mill sau contemporanul nostru, Julian Savulescu) sau deontologist (adică așa cum, în mare, ar fi gândit Immanuel Kant), ea își are sursa în diferența de culturi morale și de intuiții, acele revărsări primare de cogniție morală (despre ce e bine, ce e corect, ce e drept etc.). 

Sunt sute, poate mii de scenarii care se pot face. A existat și continuă o cercetare celebră,„MIT’s Moral Machine”, moralmachine.mit.edu  un bun exemplu de crowd science, care a arătat că una citim și alta călătorim, adică un puternic conflict între simțul moral comun și ce ar cere principiile morale ale unor teorii clasice, dar și o variație mare a priorităților și judecăților morale de-a lungul și latul planetei (astfel, deloc plată cultural). 

Nu vom ajunge la un acord moral, ci la polițe de asigurare, vom traduce problema accidentelor și a morții cauzate de aceste mașini prin piața asigurărilor. De altfel, așa facem și cu mașinile contemporane, care au un șofer uman. 

Accidentul este parte a oricărei organizări după reguli. Căci traficul, dacă va fi exclusiv unul condus prin sisteme de AI (suprevizate, totuși, de ochiul uman), cu siguranță va fi mai puțin periculos. Dar nu va putea exclude eroarea. Întrebarea este dacă suntem pregătiți să fie corectată printr-o decizie a unui algoritm moral, care contorizează viețile după câteva valori (variabile), prin aceasta renunțând la principiul valorii intrinseci a oricărei vieți umane (și non-umane).

Robojudges, roboți-judecători?

C.V.: Dacă e vorba doar de anumite spețe și proceduri mai simple, da. Cu drept de apel, desigur.

Ce facem cu bias-ul AI? Am putea crea roboți rasiști?

C.V.: Am creat deja boți rasiști. Și, ca un făcut, lucrează la Poliție… E vorba de sistemele de „poliție predictivă”, care, pe baza informațiilor despre trecutul unei persoane fac predicții despre cum se va comporta în viitor – lucru care se poate aplica și grupurilor de oameni, pe criterii de rasă sau de proximitate geografică etc. Mai multe studii au scos la iveală lipsa de echitate (și proasta calibrare) a sistemelor A.I. de predicție a criminalității. Nu e vina mașinii, ci a bias-ului aflat în datele colectate, oferite spre antrenament și testare. Aceste mecanisme nu fac, uneori, decât să ranforseze un circuit: pentru că datele colectate pentru descoperirea modelului au fost deja părtinitoare, modelul orientează polițiștii spre a verifica aceleași categorii de persoane, strângând date care întăresc predicțiile modelului. 

Dacă nu se intervine uman la timp, acest proces poate afecta persoane nevinovate, creează abuzuri și întărește anumite convingeri sociale toxice.

Și Microsoft a reușit să dea drumul în lume unui bot simpatic care s-a „radicalizat” în rasism și sexism în câteva ore. Dar aici a fost mai degrabă un test popular care spune că socoteala din laborator nu se potrivește cu cea din târgul-bazar al internetului.

Până la probleme încă teoretice, avem problema mult mai presantă a joburilor pierdute din cauza roboților și a AI-ului. Care ar fi rezolvarea?

C.V.: Și aceasta e o problemă teoretică, de fapt. Ține de teoria care te înconjoară, la care poate ai aderat slab reflectat (și atunci ar fi de-a dreptul o ideologie), și care îți dictează cum să vezi munca, relația dintre mașini, cei care muncesc, piața și capitalul etc. 

O soluție ar fi acordarea unui venit necondiționat de bază (UBI). 

Alta ar fi ceea ce John Rawls denumea „democrația proprietarilor”: toți să fim proprietarii acestor noi mijloace de producție, dar nu în sens comunist. A treia soluție presupune să orientăm oamenii mai mult spre munci creative, spirituale etc., dar cum să stimulăm cererea pentru așa ceva?

Rezolvarea nu este tot una tehnologică, ci sub presiunea schimbării tehnologice va trebui să ne adaptăm instituțiile și valorile centrale. Munca, odată imposibilă, nu va mai putea fi un criteriu pentru merit.

Cât de aproape suntem de singularitate? Will it go full Skynet?

C.V.: Nu știu. Nu doar că e riscant să faci astfel de predicții, nu e nici prea moral. Ca să zic în limbaj popular, „iei mințile”, adesea vinzi false speranțe. O etică a viitorului ar cere să ne abținem cât mai mult de la a face ceva între profeție și predicție științifică (care trebuie bazată pe o explicație a unui fenomen ori recurent, ori care se poate genera urmând specificațiile teoriei), de a încerca, precum anticii, să facem divinație în codul de azi al diverselor moduri de a produce și de a utiliza AI. Există capacitatea amplificării reciproce, se întâmplă o accelerare și o convergență între tehnologiile datelor și informației, algoritmice, și neuro-, nano-, bio- tehnologii, e posibil ca diversele AI să fie dezvoltate până la a depăși fiecare abilitate cognitivă umană în parte, dar nu avem încă răspunsul teoretic la problema conștiinței, de exemplu. Acea singularitate profețită e mai mult o tentație, o provocare, dar orice se poate pune în calea acestei continuu upgrade, chiar și un amărât de virus. Nu cred în apariția Marelui Algoritm și a capacității continue de auto-îmbunătățire până la ceva incontrolabil, ireversibil, numit superinteligență. Dar cred că AI astăzi și mai ales mâine ne-ar putea ajuta să descătușăm puterea creierului uman în mintea fiecăruia. Cu siguranță, nu cred că ne folosește ca model al creierului și sistemului nostru nervos central. Dar crezând asta, ascund alte convingeri, care, la rândul lor pot fi contestate. 

Cum ar trebui să tratăm roboții? Ar trebui plătiți, ar putea fi cetățeni? Ce facem cu încă teoreticii cyborgi și unde tragem linia?

C.V.: Cyborgii sunt post-umani, așa că ei conservă toate drepturile de până acum. Întrebarea este dacă nu ar trebui să fie supuși ori la mai multe limitări, ori să aibă și mai multe drepturi?

Deocamdată roboții sunt aici să ne medieze realitatea socială, nu să participe cu preferințe și interese la ea. 

Nu are sens să vorbim despre drepturi (salariale sau politice). Totuși, să nu picăm nici în capcana de a îi/le considera simple ustensile, niște scule care se manevrează cu o tehnică dibace. Ca și animalele, roboții inteligenți ar trebui tratați ca subiecți ai moralității, adică să beneficieze de o protecție și de o formă de respect. Chiar dacă ei/ele nu simt sau nu au conștiință, a le aplica rele tratamente spune ceva despre moralitatea noastră, a oamenilor, și cum vedem relațiile cu ce este diferit de noi.



interviu de

Mihai Ghiduc

Redactor-șef. A oscilat între print (Opinia studențească, Men's Health, Maxim, Marie Claire) și online (Vice, Glamour, Slow Forward) până l-a prins din urmă revoluția tehnologică.

TEHNOLOGIE|MS TALKS

O platformă de accesorii tech pentru mobile? E unul din pariurile HMD, pe lângă Barbie Phone

De
Rebranduit de curând ca Human Mobile Devices, HMD se concentrează pe parteneriate și pe o platformă mobilă deschisă, dar nu renunță la Nokia.
CULTURĂ|MS TALKS

Palazzina LAF: oțel, sudoare și trădare. O discuție cu Michele Riondino

De
„Palazzina LAF” spune povestea fostei oțelării ILVA din Taranto, Italia, un loc unde mai bine de 85 de persoane au fost private de libertate și de dreptul de-a munci. Regizorul, un localnic, reflectă asupra impactului pe care oțelăria l-a avut asupra oamenilor din acea zonă săracă, în care „ori munceai la ILVA, ori mureai de foame”.
TEHNOLOGIE|MS TALKS

Adina Vălean: „Primele taxiuri aeriene ar putea zbura la Olimpiada de la Paris”

De
Comisara europeană pe transporturi explică cum ar putea arăta viitorul mijloacelor de transport din Europa, de la digitalizarea sistemului feroviar la avioane electrice.
AI&ROBOȚI|FYI

Slow Forward: Videoclipurile AI generate de Sora au pus în umbră Gemini 1.5 

De
Două noi modele AI s-au lansat în aceeași zi, dar cel de la OpenAI s-a dovedit mut mai bun la marketing.