AI Act: Uniunea Europeană se ia la harță cu inteligențele artificiale28 min read
Prima reglementare de amploare a inteligenței artificiale în blocul comunitar este stufoasă și are probleme
Uniunea Europeană își continuă eforturile de a reglementa la nivelul întregului bloc mai tot ce nu era încă reglementat în sfera digitală. După Detalii pe gdpr.eu „One year of EU copyright reform: Is the Internet still working?”, euractiv.com „Big Tech firms set to face tough EU content rules”, politico.eu și o alta care încearcă „The EU Digital Markets Act Places New Obligations on “Gatekeeper” Platforms”, eff.org a venit acum și rândul inteligenței artificiale să treacă prin filtrul instituțiilor europene.
Ar fi, de departe, cea mai importantă reglementare a AI-ului din istorie, cu consecințe care se vor extinde probabil mult în afara piețelor europene. Ceea ce din start este o țintă destul de ambițioasă, chiar și dacă n-ar avea de-a face cu unul dintre cele mai complicate domenii digitale, în special din punct de vedere al eticii.
CITEȘTE ȘI: Etică și AI. Putem avea încredere în roboți?
Propunerea de lege, numită Artificial Intelligence Act (AIA), a fost publicată de Comisia Europeană (CE) Textul poate fi consultat integral pe europa.eu intrând apoi în procedura legislativă. Deocamdată, a trecut de avizele organizațiilor europene competente și se află în momentul de față în procedura de consultare cu parlamentele naționale, „The EU AI Act and fundamental rights: Updates on the political process”, edri.org După această etapă, ar urma o primă citire în Parlamentul European. Se estimează că întreaga procedură ar putea dura cel puțin încă un an, la care s-ar mai adăuga, probabil, alți câțiva ani până la transpunerea legii în legislațiile statelor membre.
Ce este „AI-ul de risc ridicat”?
În principiu, legea propusă de CE abordează câteva aspecte majore din piața AI-ului: clasifică sistemele de inteligență artificială în funcție de riscul pe care îl au de încălcare a drepturilor cetățenilor europeni în AI-uri de risc scăzut, mediu sau ridicat; propune reglementări speciale pentru cele din ultima categorie și, în special, pentru producătorii acestora; interzice anumite forme de utilizare ale AI-ului și construiește un cadru de monitorizare, verificare și pedepsire a încălcărilor legii. El se aplică oricărui tip de AI dezvoltat sau utilizat în spațiul comunitar, inclusiv cele produse de companii din state non-membre, cu excepția celor folosite în sfera militară.
Dacă te întrebi care este definiția unui sistem AI în percepția CE, află că acesta este un soft dezvoltat prin orice metodă de machine learning, programare pe bază de logică sau metode statistice care poate genera conținut, predicții, recomandări sau decizii care influențează mediile cu care acesta interacționează. Definiție care s-ar putea modifica, însă, pentru că o parte dintre statele membre „Europe Is in Danger of Using the Wrong Definition of AI”, wired.com ce ar include doar sistemelor mai complexe de AI, limitând semnificativ scopul legii.
Cea mai mare parte a textului propunerii se concentrează pe AI-ul care ar avea risc ridicat de a încălca drepturile europene și pe cerințele pe care trebuie să le îndeplinească astfel de programe înainte de a putea fi comercializate sau utilizate în blocul comunitare.
Documentul împarte AI-ul de risc ridicat în opt categorii:
- Sisteme de identificare biometrică și categorisire a persoanelor naturale, precum sistemele de identificare facială folosită de organele legii. Această categorisire creează deocamdată ceva confuzii, pentru că acestea sunt trecute și în lista AI-urilor interzise;
- AI-uri care administrează sau operează infrastructură critică, precum sistemele inteligente de fluidizare a traficului sau de operare a aprovizionării cu apă/căldură;
- AI-uri folosite în educație și traininguri vocaționale. De exemplu, sisteme care ar evalua participanții la examene sau care repartizează elevii la unități de învățământ;
- AI-uri folosite în procesele de angajare sau management al angajaților, categorie la care ar intra instrumentele de selectare a candidaților care aplică pentru un anumit post sau cele folosite de angajator pentru a decide promovarea sau concedierea unui angajat;
- AI-uri care ar putea decide accesul la servicii sau beneficii publice, precum și la servicii private esențiale. Aici intră sistemele care ar putea ajuta autoritățile să evalueze candidații de asistență socială, cele care alcătuiesc un scor de credit pentru bănci sau care ar prioritiza răspunsurile serviciilor de urgență;
- Majoritatea sistemelor AI folosite de către forțele de ordine, de la testele poligraf și instrumente de detectare a deep-fake-urilor până la Sisteme AI care, pe baza profilării suspecților si a unor analize de risc, sunt menite să estimeze posibilitatea întâmplării unor crime
- AI-uri implicate în procesul de migrație, oferire de azil politic sau poliție vamală, precum cele care verifică autenticitatea documentelor de călătorie sau evaluează candidații de azil politic;
- AI-uri folosite în justiție și procesele democratice, precum sisteme menite să asiste autoritățile în cadrul proceselor.
Legea ar obliga aceste tipuri de sisteme AI să respecte o listă destul de lungă de cerințe pentru a putea fi omologate pentru utilizare sau comercializare în EU. Cea mai importantă este supervizarea umană obligatorie – pe durata funcționării, aceste sisteme vor trebui monitorizate de către operatori care le pot înțelege complet modul de funcționare, pot identifica potențialele anomalii sau disfuncții, pot interveni să le oprească imediat dacă este necesar și pot interpreta rezultatele acestora ținând cont de riscurile de eroare.
AI-urile vor trebui să mențină arhive automate care să documenteze procesul de funcționare, care vor trebui păstrate și arhivate, indiferent dacă ele se află la producătorul sistemului sau la client, pentru a putea fi examinate ulterior pe o perioadă corespunzătoare (care ar fi decisă în conformitate cu legile din fiecare stat). În plus, astfel de sisteme vor necesita un nivel de transparență suficient de ridicată pentru ca utilizatorii să le poată interpreta rezultatele în mod adecvat. Cel puțin pe hârtie, asta ar asta însemna interzicerea majorității sistemelor de tip Un termen care descrie toate tipurile de AI cu sistem închis, ale cărui operațiuni interne nu sunt vizibile de către o parte terță. Spus mai simplu, este vorba de AI-urile care îți oferă un răspuns la o problemă, dar nu și o argumentație pentru modul în care au ajuns la acel răspuns.
O cerință poate ușor nerealistă este ca producătorii AI-urilor să se asigure că sistemele sunt antrenate doar cu baze de date de calitate foarte înaltă, pentru a evita rezultatele părtinitoare sau situațiile discriminatorii. În funcție de domeniul și scopul pentru care este folosit un sistem, astfel de baze ar putea să nu existe în momentul de față, să fie inaccesibile (de exemplu, din cauza prețului) sau să fie prea dificil de construit.
În cazuri ceva mai specifice, va exista și obligația ca AI-uri care pot identifica emoții (precum chatboturile care asistă în tratarea depresiei) sau trăsături fizice, pe de o parte, precum și sistemele care manipulează imagini, sunet sau video, pe de alta, să informeze utilizatorii despre natura lor. Restul sistemelor de risc ridicat vor trebui să clarifice doar faptul că utilizatorul are de-a face cu o inteligență artificială.
Furnizorii sistemelor vor trebui să integreze toate aceste cerințe într-un „sistem de management al calității” specific fiecărui tip de AI, adică documente și proceduri scrise care să ateste modul în care produsul lor se conformează legislației, cum este monitorizat și ce strategii pentru dezvoltarea și gestionarea posibilelor erori sau riscuri care pot apărea în utilizare există.
Ce AI-uri (nu prea) sunt interzise?
Noua legislație ar interzice direct câteva dintre sistemele de inteligență artificială mai controversate. Problema este că o parte dintre aceste interdicții vin cu definiții vagi sau inexacte.
Singura interdicție clară este cea a AI-urilor are ar putea evalua sau clasifica cetățenii în funcție de comportamentul lor social, adică deja infamele „China’s ‘social credit’ system ranks citizens and punishes them with throttled internet speeds and flight bans if the Communist Party deems them untrustworthy”, businessinsider.com care deocamdată nu apărut nici ca nivel de idee prin spațiul comunitar.
Mult mai puțin clară este interzicerea AI-urilor care folosesc „tehnici subliminale care acționează dincolo de starea de conștiență a unei persoane” cu potențialul de a-i influența comportamentul, într-un mod care ar putea cauza daune fizice sau psihologice acesteia sau altcuiva. Este o definiție destul de vagă și nu este neapărat clar ce ar putea intra sub umbrela acesteia. La conferința de presă în care a fost prezentată propunerea, „Speech by Executive Vice-President Vestager at the press conference on fostering a European approach to Artificial Intelligence”, europa.eu a dat exemplul unei jucării care folosește funcția de asistență vocală încorporată pentru a manipula un copil în a face o activitate periculoasă.
Este însă discutabil dacă prezența termenului „subliminal” ar permite aplicarea legii chiar și în acest tip de caz, având că acesta se referă de obicei la stimuli care nu pot fi percepuți conștient de către utilizator. Iar formularea din propunerea de lege pare să meargă pe această definiție, ceea ce „The EU needs to protect (more) against AI manipulation”, euractiv.com Un exemplu ar fi AI-urile care încearcă să influențeze practicile de consum sau opiniile politice ale unui utilizator prin exploatarea vulnerabilităților acestora.
Problema vulnerabilităților ar trebui abordată de un alt paragraf ce interzice AI-urile care „exploatează vulnerabilitățile unui grup specific de persoane, pe bază vârstă sau dizabilitate fizică sau mentală” pentru a-i insufla un comportament dăunător. Doar că această definiție se duce în polul opus și este mult prea specifică, din moment ce tacticile de manipulare online pot funcționa bine-mersi și pe persoane adulte perfect sănătoase.
Nu în ultimul rând, Comisia Europeană propune și interzicerea sistemelor de identificare biometrică în public de către forțele de ordine, cu excepții. Însă cele trei tipuri de excepții menționate – căutarea victimelor unor crime, prevenirea unor atacuri violente sau teroriste și identificarea suspecților pentru care s-a emis un mandat de arestare european – pot fi aplicate destul de larg, în funcție de legislația unui stat membru.
Aceste excepții largi și ciudățenia includerii sistemelor biometrice atât la „risc ridicat” cât și în categoria celor interzise vin probabil pe post de compromis între membrii UE, având în vedere că există poziții destul de opuse în folosirea acestui tip de monitorizare – de exemplu, dacă guvernul german vrea interzicerea lor totală în spații publice, Franța consideră astfel de sisteme importante „A quick guide to the most important AI law you’ve never heard of”, technologyreview.com
Cine ar trebui să vegheze la respectarea legii?
Pe hârtie, modul în care se va asigura respectarea legii sună simplu: țările membre vor trebui să-și desemneze sau să instituie autorități proprii de monitorizare și control al activității AI-urilor de risc. Nu este necesară crearea unor agenții noi; cele deja existente pot primi toate puterile necesare pentru a-și îndeplini astfel de atribuții, încluzând chiar și dreptul de a cere acces la codul-sursă al sistemului, dacă este considerat necesar.
Însă majoritatea răspunderii pică în seama furnizorilor, care în cele mai multe cazuri vor trebui doar să ofere o declarație de conformitate care să ateste că AI-ul lor este compatibil cu cerințele europene pentru a primi certificarea necesară, o verificare mai în ansamblu rămânând la latitudinea autorităților, dacă consideră că este necesar.
Pedepsele, în schimb, nu sunt de joacă: producătorii care nu se conformează legislației pot primi amenzi administrative de până la 30 de milioane de euro sau 6% din cifra de afaceri globale a companiei.
Controverse și omisiuni
Chiar dacă la o primă vedere legislația pare destul de cuprinzătoare, este aproape imposibil ca un subiect atât de complicat și fluid, bazat pe o tehnologie care a avut mult timp la dispoziție să se dezvolte liber, să poată fi reglementat corespunzător din prima încercare. Iar opiniile venite din partea analiștilor sau ONG-uri specializate arată un număr destul de ridicat de aspecte omise.
De exemplu, o analiză a think-tank-ului american „Machines learn that Brussels writes the rules: The EU’s new AI regulation”, brookings.edu pe draftul inițial al Comisiei arată că sistemele AI folosite de companiile Big Tech rămân, în mare, în afara scopului reglementărilor: algoritmii folosiți în rețelele sociale, motoarele de căutare, magazinele de aplicații nu intră la vreuna din categoriile considerate cu risc ridicat de a încălca drepturi fundamentale. Iar cei folosiți în publicitatea online trebuie să îndeplinească criterii foarte specifice pentru a putea fi considerați manipulativi.
În asentiment sunt și peste o sută de ONG-uri din domeniul apărării drepturilor digitale și a privacy-ului, care au propus, „An EU Artificial Intelligence Act for Fundamental Rights: A Civil Society Statement”, edri.org (PDF) numeroase modificări care să reglementeze și mai drastic AI-urile de risc ridicat, lărgind în același timp definiția acestora, precum și tipurilor de AI-uri interzise. Printre altele, este propusă obligarea entităților care folosesc astfel de sisteme să mențină baze de date cu fiecare caz de folosire specifică a lor, interzicerea oricărui tip de manipulare efectuat prin intermediul unui AI, a tuturor sistemelor biometrice și de identificare a emoțiilor și un mecanism prin care persoanele ale căror drepturi au fost afectate de inteligența artificială să poată cere despăgubiri.
De partea cealaltă, există și voci care susțin că, acolo unde legislația se poate aplica, va lovi prea mult în furnizori și companiile care folosesc AI-urile vizate. Center for Data Innovation, un think tank american care a adoptat de multe ori în trecut poziții critice față de reglementările UE din domeniile digitale, susține „How Much Will the Artificial Intelligence Act Cost Europe?, datainnovation.org (PDF) că reglementările ar crește semnificative costurile de utilizare ale unui AI considerat de risc ridicat, până la punctul în care multe companii ar putea fi descurajate din a le adopta. În plus, o porțiune semnificativă a sistemelor AI-urilor actuale care nu se conformează regulilor de transparență ar trebui reconstruite, practic, de la zero.
UE versus AI. Cine câștigă?
Legea este deja într-o fază destul de înaintată a procesului legislativ european, așa că există puține șanse ca aceasta să fie refăcută în vreun mod semnificativ până la aprobarea sau respingerea ei. Însă multe dintre dispozițiile individuale ale acesteia vor fi negociate intens, în consultări între Consiliul UE, comisiile europarlamentare de profil și coalițiile grupurilor din societatea civilă.
De altfel, Poate fi consultat pe europa.eu propuse de comisii (pentru care co-raportor este europarlamentarul român Dragoș Tudorache), publicat în luna aprilie, a venit deja o listă lungă de schimbări, incluzând o parte din cerințele ONG-urilor, precum interzicerea sistemelor biometrice și procedura de despăgubire.
Rămâne de văzut dacă aceste negocieri vor duce la o variantă a legii care să reglementeze exact cât mai multe AI-uri potențial periculoase pentru drepturile cetățenilor europeni, sau dacă diferențele ideologice și interesele naționale vor duce mai degrabă către o serie de compromisuri care vor avea un efect limitat în piață. Singurul fapt care pare cert deocamdată este că, dintre toate eforturile recente de a reglementa zonele gri din piața unică digitală, îmblânzirea inteligențelor artificiale care au avut decenii la dispoziție pentru a se dezvolta relativ nestingherit pare a fi cea mai complicată.