Ilustrație: ZfL Getty Images

Cui îi e frică de inteligența artificială generală (AGI)? 13 min read

De Costinel Anuța 03.07.2024

Cât de aproape sunt jucătorii din industria AI de mult căutata inteligență artificială generală și cum ar transforma aceasta lumea?

Probabil ai auzit că, în curând, sistemele de inteligență artificială (AI) vor atinge nivelul inteligenței umane, devenind sisteme de inteligență artificială generală (AGI). Majoritatea discuțiilor despre AGI pornesc de la sau duc la OpenAI, companie care și-a declarat deschis obiectivul de a atinge acest țel în viitorul apropiat. Dar ce înseamnă de fapt AGI, cât de repede pot fi dezvoltate astfel de sisteme și ce impact vor avea asupra lumii sunt întrebări cu mai multe răspunsuri, cel puțin deocamdată

Ce ar însemna AGI?

O clasificare macro a sistemelor AI le împarte în trei tipuri: 

  1. inteligența artificială „îngustă” sau „slabă” (AI);
  2. inteligența artificială „generală” sau „puternică” (AGI);
  3. superinteligența artificială (ASI). 

Majoritatea experților consideră că actuala periooadă este cea  a AI-lui „îngust” sau „slab”, adică a sistemelor AI care pot avea rezultate similare inteligenței umane, dar doar în anumite situații punctuale, cum ar fi jocurile de șah sau go, problemele de optimizare, etc. Ca parte a acestei clasificări, AGI ar desemna sisteme AI care pot avea rezultate similare inteligenței umane în toate situațiile posibile, nu numai jocuri, dar și în rezolvarea problemelor, luarea deciziilor, etc. Adică un sistem AI care să funcționeze similar creierului uman.

Există însă perspective diferite cu privire la definirea AGI. Într-o încercare de a clarifica acest concept, cercetătorii de la Google Deep Mind au creat un cadru care delimitează mai multe niveluri ale AGI,// „Levels of AGI for Operationalizing Progress on the Path to AGI”, arxiv.org  // în funcție de performanța și generalitatea capabilităților AGI. Conform Deep Mind, AGI poate îndeplini „o gamă largă de sarcini non-fizice, inclusiv prin a manifesta abilități metacognitive, precum învățarea unor noi calificări” și are patru niveluri: emergentă, competentă, expertă și virtuoso. La momentul de față, a fost atins primul nivel, AGI emergentă, unde s-ar încadra actualele modele de limbaj (Deep Mind dă ca exemple ChatGPT, Bard sau Llama).

OpenAI are o abordare mult mai flexibilă, dar în același timp netransparentă – decizia atingerii capabilităților AGI de către vreunul din sistemele AI dezvoltate de companie aparține consiliului director al OpenAI. Aceast lucru duce cu gândul la „drama” din 2023, când consiliul director al OpenAI a încercat „concedierea” lui Sam Altman (actual CEO al companiei), pe fondul preocupărilor că OpenAI oferea publicului modele din ce în ce mai avansate, fără teste de siguranță detaliate. Decizia cu privire la AGI ar necesita un consiliu director extrem de stabil.

În același timp, raportul AI Index din 2024// „The AI Index Report”, aiindex.stanford.edu // arată că există din ce în ce mai multe domenii unde modelele AI depășesc capacitățile umane (clasificarea imaginilor, înțelegerea textului, raționament vizual), ceea ce indică evoluția către un „moment” AGI. Pe de altă parte, cercetători precum Yann LeCun// „Meta’s LeCun Debunks AGI Hype, Says it is Decades Away”, aibusiness.com // evidențiază că sistemelor AI le lipsesc capabilitățile necesare pentru a atinge superinteligența (înțelegerea lumii fizice, memorie persistentă, înțelegere și planificare). 

Pe acest fond, există dezacorduri cu privire la momentul în care va fi atinsă AGI – unii indică faptul că aceasta s-ar putea întâmpla până la finalul prezentei decade, alții (precum Yann LeCun) sunt reticenți că AGI va fi posibilă în viitorul apropiat.

De ce AGI este asociată cu dezastrul? Și cum poate fi evitat

Principala temere legată de AGI vine de la faptul că aceasta este percepută ca o „nouă specie” (cum o etichetează Mustafa Suleyman), care ar putea deveni mai inteligentă decât oamenii și ar putea încerca să preia controlul asupra civilizației umane. Ideea de preluare a controlului se poate materializa în diverse moduri – de la influențarea oamenilor și o eventuală „sclavie” (oamenii ca baterii) la distrugerea civilizației umane (cui nu îi e teamă de un scenariu Skynet?). 

Revenind în lumea reală, pentru a prelua controlul, un sistem AGI ar trebui să poată controla sisteme fizice care să-l ajute la atingerea unui asemenea scop, cum ar fi sistemele robotice. De exemplu, odată cu progresul înregistrat în ceea ce privește modelele de limbaj, s-au intensificat discuțiile cu privire la utilizarea AI-uui în domeniul militar (așa-zișii „roboți ucigași”). Mai mult, discuțiile au atins și pericolele utilizării inteligenței artificiale în controlul armamentului nuclear// „The militarized AI risk that’s bigger than «killer robots»”, vox.com //

Dar înainte de a ajunge la roboți ucigași și armament nuclear, imaginează-ți ce ar putea face un sistem AGI autonom care poate genera știri pentru dezinformare sau care ar putea crea și răspândi malware. Ar putea influența mari segmente de populație să acționeze într-un anumit fel sau ar putea distruge infrastructuri. Sau gândește-te la un sistem AGI autonom implicat în cercetare sau în descoperirea de noi tratamente, care brusc își schimbă obiectivele în a identifica modalități de distrugere a civilizației umane, pe care o consideră problematică.

Din cele de mai sus, ar rezulta că principala caracteristică ce poate oferi AGI capacitatea de a duce omenirea în scenarii extreme este autonomia. Guvernele și companiile care activează în domeniu explorează diverse soluții pentru a limita gradul de autonomie al sistemelor AI. Soluțiile vizează atât menținerea unui controlor uman în luarea deciziilor („human in-the-loop”), în special când AI-u e utilizat în situații cu implicații majore, dar și impunerea unor limite, fie prin „alinierea” la valorile umane (un concept dificil de implementat, apropo de translatarea valorilor în linii de cod), fie prin impunerea unor seturi de condiții pe care sistemele AI trebuie să le respecte (cum este cazul AI-urilor „constituționale”, precum modelul Claude de la Anthropic).

CITEȘTE ȘI: Asimov

Desigur, acestea trebuie cuplate cu o măsură de siguranță extremă – în momentul în care sistemul încalcă directivele umane sau limitele stabilite, acesta ar trebui închis imediat. Necesitatea dezvoltării unui „buton” de oprire a sistemelor IA în situații limită (killswitch) a generat multiple discuții, mai ales pe fondul costurilor asociate implementării unui astfel de „buton”. Totuși, se pare că recent, în cadrul unui summit în Coreea de Sud, marile companii (inclusiv OpenAI) au fost de acord// „Tech giants pledge AI safety commitments – including a ‘kill switch’ if they can’t mitigate risks”, cnbc.com // cu implementarea unui „buton” de închidere pentru modelele unde nu pot garanta gestionarea riscurilor asociate utilizării acestora.

După cum menționam la începutul articolului, discuțiile despre AGI sunt încă în faza delimitărilor conceptuale și a încercării definirii riscurilor asociate unei asemenea evoluții, asta deși sistemele AI curente progresează într-un ritm alert. De exemplu, DeepMind a venit în iunie 2024 cu o lucrare// „Open-Endedness is Essential for Artificial Superhuman Intelligence”, arxiv.org // care menționează că există premisele dezvoltării superinteligenței artificiale (ASI), care ar fi următorul nivel după AGI.

Tot ce putem spera este ca dezvoltatorii unor asemenea sisteme să mențină un controlor uman „in-the-loop” și să reușească să translateze în cod și să impună o serie de limitări, a căror încălcare să conducă pur și simplu la închiderea respectivelor sisteme (indiferent că e vorba de AGI sau ASI). 

De altfel, există angajați ai companiilor implicate în dezvoltarea modelelor AI avansate care au lansat un apel pentru „dreptul de a avertiza” cu privire la evoluții ale unor asemenea modele care ar putea generariscuri la adresa civilizației umane.// „A Right to Warn about Advanced Artificial Intelligence”, righttowarn.ai // Important va fi ca un eventual avertisment să vină la timp.



Text de

Costinel Anuța

A studiat informatică, management și relații publice si este interesat de noile tehnologii (AI, calculatoare cuantice, biotech)

AI&ROBOȚI|TENDINȚE

Cum îi ajută AI-ul pe cei care au probleme când călătoresc?

De
Pentru o aplicație de rezervări ca Kiwi.com, AI-ul care să trimită acasă angajații din call center-uri n-a venit. În schimb, îi scapă de răspunsuri la întrebările simple. Cel puțin pe moment.
AI&ROBOȚI|OVERVIEW

Armatele lumii cochetează cu AI-ul. Care ar trebui să fie regulile?

De
 Problema „roboților ucigași” era până de curând ipotetică, dar boom-ul AI din ultimii ani a accelerat dezvoltarea acestora și, mai mult, a permis testarea în zone de război. Ce se întâmplă însă dacă îi lași  să ia decizii?
AI&ROBOȚI|SLOW FORWARD

Sam Altman controlează acum OpenAI, dar se chinuie să mențină interesul asupra AI

De
Pe măsură ce lumea realizează că inteligența artificială are nevoie și de altceva decât mai mulți bani, mai multă energie, mai multe computere, CEO-ul OpenAI se străduiește să păstreze vie flacăra speranței în „superinteligență acum”.
AI&ROBOȚI|MS TALKS

Primul LLM românesc. Cum va arăta viitorul inteligenței artificiale în România?

De
Cercetatori de la Universitatea Politehnica din București, Universitatea din București și Institutul de Logică și Știința Datelor (ILDS) au dezvoltat primele modele de limbaj (Large Language Model – LLM) în limba română. Proiectul este un prim pas în dezvoltarea inteligenței artificiale generative în România.