Foto: Moor Studio / Getty Images
Nu există încredere în sisteme AI fără transparență14 min read
Discuția despre reglementarea inteligenței artificiale a devenit extrem de polarizată, dar un lucru e cert: e nevoie de sisteme AI mai transparente.
Pe 15 ianuarie 2021, guvernul Țărilor de Jos a demisionat în bloc după ce mii de familii au fost acuzate pe nedrept de fraudă fiscală și obligate să restituie alocațiile primite pentru creșterea copiilor. Imigranții și persoanele cu venituri reduse au fost cei mai afectați, după ce s-au trezit că trebuie să plătească zeci de mii de euro. Mulți au intrat în faliment sau au fost nevoiți să-și părăsească locuințele, iar mii de copii au fost preluați în plasament.
De vină pentru această // „Dutch scandal serves as a warning for Europe over risks of using algorithms”, politico.eu // cum s-a numit raportul unei comisii parlamentare care a analizat cazul, a fost sistemul autorității fiscale, care a folosit algoritmi computerizați pentru a depista „categoriile de risc”.
Pentru a depista persoanele susceptibile de fraudă, algoritmul urmărea anumiți indicatori, precum genul, vârsta, istoricul sănătății mintale, etnia, limbile vorbite sau starea civilă. De exemplu, dacă erai o femeie singură, cu venituri scăzute și naționalitate dublă, care nu vorbea flamanda, riscul ca sistemul să te ia la ochi era crescut. De asemenea, mulți au fost acuzați de fraudă și pentru erori minore, precum lipsa unor semnături pe documente.
Cine spune că mașinile nu pot fi subiective uită că acestea sunt programate tot de oameni, iar algoritmii de învățare automată sunt poate cel mai bun exemplu în acest sens. Scandalul din Țările de Jos nu e un exemplu singular: // „Dissecting racial bias in an algorithm used to manage the health of populations”, science.org // a arătat că sistemul de sănătate din SUA tinde să discrimineze persoanele de culoare, iar sistemul de recunoaștere facială și profiling prin AI folosit de poliția din mai multe țări s-a dovedit și el // „UK risks scandal over ‘bias’ in AI tools in use across public sector”, theguardian.com //
Temerile legate de efectele negative ale inteligenței artificiale, intenționate sau nu, au dus în 2023 la adoptarea // Disponibil pe europarl.europa.eu // care a intrat în vigoare de la 1 august 2024, urmând ca fiecare țară din Uniunea Europeană să îl implementeze în propria legislație. Acesta clasifică sistemele AI în funcție de riscul de încălcare a drepturilor fundamentale ale cetățenilor și le reglementează sau chiar interzice pe cele cu risc ridicat.
De exemplu, vor fi interzise prin lege aplicații AI precum sistemele de identificare biometrică bazate pe caracteristici specifice, recunoașterea facială a înregistrărilor video sau poliția predictivă. Vocile critice afirmă însă că, în această formă, legea are // „The EU’s AI bans come with big loopholes for police”, politico.eu //
CITEȘTE ȘI: Etică și AI. Putem avea încredere în roboți?
„Reglementarea neclară poate fi problematică. Personal, cred că este important ca această să se combine cu inovația. Cel mai bun mod de a obține sisteme conform valorilor tale este să le construiești singur”, e de părere Fredrik Heintz, șeful Diviziei de Inteligență Artificială și Sisteme Integrate de la Universitatea Linköping, Suedia, și unul dintre membrii grupului de experți la nivel înalt al Uniunii Europene privind inteligența artificială. El a fost unul dintre invitații dezbaterilor organizate de // Mai multe detalii pe nordicfest.ro // un eveniment multidisciplinar care explorează cultura țărilor nordice și a avut loc între 13 și 16 februarie la București.
Peste ocean, viziunea reglementării e diametral opusă față de Europa. În primele zile ale mandatului său, președintele SUA, Donald Trump, a anulat un ordin executiv emis de Joe Biden privind securitatea AI, sub pretextul de a încuraja inovația. În același timp, Alphabet, compania care deține Google, a renunțat la // „Concern over Google ending ban on AI weapons”, bbc.com // de a nu folosi inteligența artificială în scopuri precum dezvoltarea de arme și instrumente de supraveghere.
În aceste condiții, chiar și europenii încep să fie mai rezervați când vine vorba de reglementări tehnologice. Înaintea Summitului pentru acțiune privind AI care a avut loc la Paris și unde au participat 61 de țări, președintele Franței Emmanuel Macron a pledat pentru o legislație mai flexibilă, care să sprijine start-up-urile locale. „Există riscul ca unii să decidă să nu aibă nicio regulă, ceea ce este periculos. Dar există și riscul opus, ca Europa să își impună prea multe reguli. Nu trebuie să ne fie frică de inovație”, // „Paris AI summit draws world leaders and CEOs eager for technology wave”, economictimes.com //
Pentru ca Uniunea Europeană să devină la fel de competitivă pe piața AI ca SUA sau China, Heintz crede că „trebuie să devenim mai buni la scalare și viteză. Momentan, suntem prea înceți și nu suntem capabili să ne scalăm produsele pentru a obține cotă de piață. Mi-ar plăcea să existe un fel de CERN pentru AI, care să aducă laolaltă o echipă mare de oameni de știință și ingineri capabili să țină pasul cu ritmul companiilor americane sau chineze.”
Transparența, necesară pentru un AI de încredere
În lucrarea sa // „Three Levels of AI Transparency”, ieeexplore.ieee.org // Heintz propune ca transparența, un element important în dezvoltarea unor sisteme AI de încredere, să nu se limiteze doar la algoritm, ci să se extindă și asupra utilizatorului și a societății.
Dar ce este un sistem AI de încredere? În primul rând, acesta trebuie să fie programat să ia decizii cât mai corecte și lipsite de bias-uri discriminatorii, să fie transparent în ceea ce privește originea datelor pe care a fost antrenat și a algoritmului, precum și a modului în care procesează datele utilizatorilor, și să stabilească clar cine are responsabilitatea în cazul unor erori. Apoi, e necesar să fie robust, să respecte confidențialitatea utilizatorilor – o problemă pentru majoritatea tehnologiei pe care o folosim zi de zi – și să fie sigur în fața atacurilor cibernetice.
Să creezi un AI fair e o provocare cu atât mai mare cu cât societatea se confruntă cu asta în mod constant. „Consider că corectitudinea e dependentă de context și aplicare. Vrei să obții distribuția egală a costurilor și beneficiilor între diferite grupuri. O provocare interesantă e atunci când ești «prea corect» asta poate avea consecințe negative dacă lumea nu e corectă. De exemplu, să acorzi un împrumut bancar unei persoane care ar trebui să-l primească dacă sistemul ar fi corect ar putea duce la probleme dacă piața muncii nu e corectă și persoana respectivă ar primi mai puțini bani decât merită”, spune Heintz.
Pe lângă aspectele legate de transparență, etica rămâne esențială în dezvoltarea și implementarea tehnologiei. Atunci când algoritmii influențează decizii importante în viața oamenilor, cum ar fi accesul la asistență socială, locuri de muncă sau chiar libertate, devine esențial ca aceștia să fie construiți pe principii solide care să promoveze corectitudinea și echitatea.
Un prim pas în acest proces constă în diversitatea echipelor care dezvoltă algoritmi. Diversitatea nu se referă doar la etnie sau gen, ci include și perspective variate care să reflecte experiențele și nevoile diferitelor grupuri sociale. Fără aceste contribuții variate, riscul ca tehnologiile să fie subiective sau părtinitoare crește considerabil.
Dar dincolo de joaca de-a reglementările pe care guvernele încearcă s-o gestioneze astfel încât să împace pe toată lumea, un rol cheie îl are educația publicului cu privire la noile tehnologii. La Universitatea Linköping, Fredrik Heintz și colegii săi lucrează inclusiv la dezvoltarea unor cursuri de educație în inteligența artificială, pe care școlile suedeze ar putea urma să le implementeze la școala generală și liceu: „O provocare este că, în primă fază, va trebui să educăm profesorii care vor urma să le predea”.
În concluzie, Heintz spune că „inteligența artificială ne va ajuta să vedem și să înțelegem mai bine lumea. În același timp, ne va ajuta să analizăm și să înțelegem chiar sistemele de inteligență artificială.”