Inteligența artificială discriminează. Dar tu cum afli?16 min read
Inteligența artificială este folosită din ce în ce mai mult la decizii administrative. Dar, pentru că a învățat de la oameni, ea poate să discrimineze, inclusiv în hotărâri importante. De exemplu, dacă să primești sau nu un credit. Și atunci, n-ar trebui să existe dreptul fundamental de a ști dacă viața ți-a fost influențată de un algoritm?
Poate ești tentat să te gândești la inteligența artificială ca la un sistem infailibil, care nu adoarme la locul de muncă, nu se plictisește niciodată, nu are emoții, nu face greșeli și nu are preferințe. Dar inteligența artificială îi imită atât de bine pe creatori săi, încât excelează și la un alt capitol: prejudecățile.
Un exemplu pe care îl dă mereu Gabriela Cortes, cercetătoare în domeniul inteligenței artificiale pentru Alexa, asistentul deștept al Amazon-ului, are legătură chiar cu angajatorul ei. „Amazon folosea inteligența artificială pentru a filtra CV-urile în procesul de recrutare”, spune ea. „Atunci când folosești un model de învățare automată, ai nevoie de date pentru a-l antrena. Așa că au folosit CV-urile din ultimii zece ani ale oamenilor care aplicau pentru anumite roluri și desigur, femeile erau subreprezentate în acești zece ani. Și atunci algoritmul de învățare automată a dedus că o candidatură de succes era legată de ideea de a fi bărbat.” Filtrate de algoritm, femeile nu reușeau nici măcar să obțină un interviu pentru acea poziție.
Gabriela mi-a mărturisit că folosește zilnic inteligența artificială, atât pe Alexa la muncă, cât și pe ChatGPT acasă, dar că nu are încredere în rezultate. Discuția cu ea a avut loc după un eveniment din cadrul // Care s-a desfășurat între 1 și 10 noiembrie 2023, berlinscienceweek.com // organizat alături de alte trei colege de la organizația non-profit // Site oficial: womeninairobotics.de // în care a vorbit pe larg despre motivele pentru care nu este recomandat să ai încredere în judecățile inteligenței artificiale. Evenimentul a fost dedicat prejudecăților pe care sistemele de inteligență artificială le au față de femei, minorități etnice, sexuale și alte categorii subreprezentate.
CITEȘTE ȘI: Etică și AI. Putem avea încredere în roboți?
Inteligența artificială e la fel de bună ca datele pe care a fost antrenată
Problemele de bias în algoritmul de inteligență artificială pot suna ca o chestiune filosofică, spune Maisam Madi, analist de date, dar sistemele sunt deja încorporate în viața de zi cu zi și iau decizii despre fiecare om în parte.
„Să ne gândim la un algoritm folosit pentru a decide riscul unui împrumut, iar algoritmul este părtinitor împotriva femeilor. Atunci femeilor li se aprobă mai puține împrumuturi”, explică Madi. „Sau un exemplu și mai întâlnit: dacă algoritmul decide care este următorul videoclip care va apărea în fluxul copilului meu în timp ce este pe Instagram? Dacă toți băieții primesc sugestii de videoclipuri științifice sau arte marțiale și toate fetele primesc videoclipuri de dans, atunci este foarte important să înțelegem profunzimea problemei.”
De ce ar fi însă părtinitor un program de calculator, care e o entitate tehnică, împotriva femeilor și minorităților? O explicație se poate găsi, de exemplu, în scrisul de mână al lui Uwe Ohler, profesor la centrul de medicină moleculară Max Delbrück. „Scrisul meu de mână este oribil”, spune cercetătorul german, „dar totuși inteligența artificială îl recunoaște. Așa sunt datele din lumea reală: imperfecte, pline de zgomot și de bias-uri, dar AI-ul rulează cu ele.”
În cercetările sale, Uwe Ohler încearcă să folosească inteligența artificială pentru a „citi” codul genetic. Într-o discuție pe tema creativității inteligenței artificiale, Ohler a atras atenția asupra acestor imperfecțiuni și bias-uri din datele cu care a fost antrenat AI-ul: „Un sistem computațional, bazat pe învățare automată, nu poate fi mai bun decât datele pe care i le-ai dat.”
Programul de inteligență artificială nu primește reguli precise în cod, explică Maisam Madi. „Îi dăm date multe și îl lăsăm singur să învețe reguli empirice pe baza lor”, spune ea. „Pe viitor, va lua decizii după regulile învățate. Problema e că datele date algoritmului pot conține prejudecăți. Companiile iau de obicei date de pe internet, pentru că sunt gratuite și din abundență, dar știm că aceste date nu sunt lipsite de părtinire. Așa că prejudecățile ajung în deciziile algoritmului.”
Lumea tech nu e destul de diversă pentru a evita bias-urile
Pe cei care încă nu sunt convinși de discriminarea femeilor de către inteligența artificială, Gabriela Cortes îi invită să reflecteze asupra numelor asistenților smart.
„Alexa, Siri și majoritatea asistenților cu voce sunt reprezentate ca femei și sunt servile, pentru că sunt asistenți”, spune ea. „Dar asistentul de la IBM, care lucra alături de cercetători și-i ajuta să facă noi descoperiri în domeniul cancerului a primit un nume bărbat, Watson. Și a primit și o voce de bărbat, pentru că vocea de bărbat reflectă faptul că este pregătit și că lucrează în cercetare și face lucruri importante.”
Gabriela crede că astfel de nuanțe sunt importante, iar de vină pentru ele este și componența echipelor care construiesc instrumentele de inteligență artificială. Dacă joburile din domeniul tehnic vor continua să excludă femeile, minoritățile etnice, minoritățile sexuale, atunci instrumentele produse vor reflecta viziuni încărcate de prejudecăți asupra lumii.
O soluție ar fi deci reconfigurarea echipelor, astfel încât acestea să fie mai diverse. În plus, companiile încep să fie atente la reacția publicului și să se autoreglementeze. Gabriela Cortez a dezvăluit faptul că la Amazon există o întreagă echipă dedicată ideii de a construi o inteligență artificială „responsabilă”, capabilă și conștientă de bias. Pe deasupra, au început să intervină și guvernele în reglementarea IA, dar Maisam Madi atrage atenția că discuțiile deseori includ doar politicieni, developeri și reprezentanți ai marilor companii de tehnologie. Inclusiv la această masă, a marilor decizii, lipsește o diversitate a opiniilor și punctelor de vedere.
Dacă AI-ul decide, ar trebui să fii informat?
La o discuție despre deciziile în știință, profesorul Gordian Overschmidt, fondatorul unei organizații care ajută oamenii să ia decizii mai bune, a insistat de câteva ori: „Puteți lua o decizie cum doriți, dar nu faceți greșeala să o lăsați pe mâinile inteligenței artificiale.” Dar dacă nu hotărăști tu ca decizia să fie pe mâinile inteligenței artificiale?
Dacă un algoritm este plin de prejudecăți, iar algoritmul ia decizii care te pot afecta – de exemplu, dacă să fii invitat sau nu la un interviu, pe baza CV-ului – ar trebui oare companiile obligate să te informeze că decizia a fost luată de un algoritm și nu de un om? Regulamentul GDPR al Uniunii Europene prevede că o persoană are „dreptul de a nu face obiectul unei decizii bazate exclusiv pe prelucrarea automată […] care // Regulamentul (UE) 2016/679 al Parlamentului European și al Consiliului, eur-lex.europa.eu // Este însă neclar dacă această prevedere s-ar aplica și deciziilor legate de inteligență artificială. Spre deosebire de prelucrarea automată, care se face pe baza unor reguli prescrise în cod, inteligența artificială nu are reguli – ci învață propriile reguli, pe baza informațiilor pe care le-a primit până atunci.
Am întrebat-o pe Maisam Madi dacă în discuțiile pe care le urmărește, despre etica inteligenței artificiale, se pune și problema informării oamenilor obișnuiți în legătură cu deciziile pe care le ia inteligența artificială despre ei. „Cred că a ști dacă ai fost subiectul unei decizii de inteligență artificiale ar trebui să fie un nou drept fundamental al omului”, spune ea. „Din păcate, nu am auzit până acum să fi fost pus în discuție acest subiect.”
Pentru transcrierea discuțiilor de la Berlin Science Week am folosit inteligența artificială. De câteva ori pe parcursul textului, algoritmul a făcut o mică greșeală de transcriere acolo unde era vorba de ChatGPT și a scris în loc o expresie care sună asemănător, dar e foarte diferită: Judge GPT, adică Judecătorul GPT. Nu cred că va putea fi evitat un viitor în care toată lumea va fi subiectul unor judecăți de valoare ale inteligenței artificiale. Dacă tot va fi așa, ar fi bine să se știe de pe acum pe cine discriminează inteligența artificială și de ce.