Marian / Getty Images

Inteligența artificială generală e aici? Spune-i să-mi facă o cafea!33 min read

De Adrian Manea 11.06.2025

Dezvoltarea accelerată a modelelor de inteligență artificială a condus la provocarea de a construi, literalmente, un supraom. Unii specialiști cred că-l vom avea în mai puțin de un deceniu. Dacă e așa, suntem pregătiți? Și ce va urma după?

În 1971, scriitorul peruan Mario Vargas Llosa obținea doctoratul cum laude în literatură cu teza Istoria unui deicid, un eseu de 667 pagini, publicat în același an sub forma unei cărți. Argumentul cercetării este că, prin lumea construită în romanul Un veac de singurătate (1967), Gabriel García Márquez își asumă rolul Creatorului, printr-o lume ficțională construită atât de detaliat, încât urmărește să se substituie realității.

O jumătate de secol mai târziu, inteligența artificială este, după unii, la doar câțiva ani distanță de un nivel cel puțin comparabil cu umanul. Inginerii vizionari ai vremurilor noastre construiesc, așadar, roboți mai puțin după chipul și asemănarea omului și mai mult în încercarea de modelare a minții umane. Dacă tehnologia AI este sau nu capabilă de un deicid, în sensul propus de Llosa, rămâne de văzut, dar cu certitudine marii jucători ai acestei industrii sunt într-o cursă de dezvoltare a inteligenței artificiale generale (AGI).

Din chiar primele încercări și încă dinaintea apariției tehnologiei digitale, mintea umană a fost modelul pentru toate mașinăriile de calcul și raționament. În sarcini computaționale, capacitățile noastre au fost ușor de depășit. Apoi, robotizarea din fabrici și alte unități de producție au arătat că nici capacitățile fizice nu sunt imbatabile, nici pe departe. Așa că întrebarea naturală care a urmat a fost dacă nu cumva și abilitățile logice, de gândire în general, împreună cu cele lingvistice pot fi modelate și apoi depășite de modele artificiale.

CITEȘTE ȘI: Omenesc, supraomenesc: Inteligența artificială, de la 1600 și până în prezent

Reacțiile la astfel de perspective au fost diverse: de la convingerea că ne-am creat singuri instrumente ale apocalipsei și până la negare a atribuirii oricărui tip de inteligență pentru ele.

O echipă de cercetători, organizată în jurul lui Daniel Kokotajlo, formează inițiativa non-profit AI Futures Project. Coordonatorul este fost angajat al OpenAI, care s-a retras din companie în 2024, avertizând// „OpenAI Insiders Warn of a ‘Reckless’ Race for Dominance”, nytimes.com // publicul cu privire la pericolul pe care îl reprezintă progresul nereglementat al modelelor AI.

Proiectul lui Kokotajlo & co. s-a remarcat prin publicarea raportului de cercetare AI 2027.// Mai multe detalii pe ai-2027.com // Echipa explică impactul pe care îl prevăd în următorii doi ani pentru tehnologiile de „inteligență artificială supraomenească“ (superhuman AI), care vor provoca o revoluție globală mai mare decât revoluția industrială. Printr-un grafic interactiv, AI 2027 arată progresul în timp (aproape) real al modelelor AI în domenii esențiale precum securitatea cibernetică, programarea, politica, cercetarea și dezvoltarea armelor biologice, robotica și previziunile economice. 

Pentru luna mai 2025, raportul vorbește despre existența a cel puțin 2000 de modele care „gândesc“ la o viteză de opt ori mai mare decât oamenii și monitorizează progresul tehnologiilor viitorului, inclusiv cele menționate de literatura științifico-fantastică. Ultimul indicator pare ridicol, dar în fapt, comparația cu viziunea SF de acum doar câteva decenii arată surprinzător de reală.

Dincolo de aprecierea dacă un astfel de raport este sau nu alarmist, marii jucători din piața modelelor AI vorbesc adesea despre inteligența artificială generală. Indiferent dacă un astfel de nivel este sau nu posibil și, cu atât mai mult, în viitorul (foarte) apropiat, înțelegerea noțiunii pune progresul tehnologic într-o perspectivă potrivită.

Ce înseamnă, deci, AGI – inteligența artificială generală (sau puternică)?

La cârma intenției

Capacitățile supraomenești – raționament logic, operații computaționale, simularea și depășirea acuității senzoriale prin vedere artificială de înaltă rezoluție, recunoaștere vizuală și auditivă, coordonare și mobilitate fizică etc. – sunt, desigur, incluse în descriere. Dar mai e ceva, care, odată descoperit, a schimbat modul în care ne raportăm la mașinării: mecanismul de feedback.

Americanul Norbert Wiener (1894-1964) este părintele ciberneticii, domeniu al tehnologiei care susține că orice comportament inteligent apare prin reacții și, în general, mecanisme de feedback. Etimologia cuvântului (gr. kybernetes) trimite la abilitățile timonierilor, care controlează un vapor prin comenzi de adaptare la valuri și curenți, un efort care implică schimb continuu de informație.

Modelele de inteligență artificială de astăzi te încurajează să le corectezi și răspund (mai mult sau mai puțin) în consecință. Îți dau, astfel, impresia că învață în timp real, iar ChatGPT a implementat inclusiv un sistem de memorie,// Memory and new controls for ChatGPT, openai.com // prin care îți arată că a mai învățat ceva despre tine, informații care se transferă de la un chat la altul.

Însă mecanismul de feedback înseamnă mult mai mult, iar în primul rând, învățare și adaptare automată, ceea ce implică obligatoriu putere de decizie, intenție și acțiune „de la sine“. Chiar dacă unelte precum Gemini, de la Google, sau Copilot, de la Microsoft, sunt prezentate ca (multi)agenți, în realitate, inițiativele lor (dacă măcar se poate vorbi despre așa ceva) sunt dictate și apoi limitate de utilizator.

Chiar și așa, mai mulți cercetători// Beware the Intention Economy: Collection and Commodification of Intent via Large Language Models, dsr.mitpress.mit.edu // vorbesc despre „economia intenției“ – idee prezentată și în România de jurnalistul Mihnea Măruță.// „Mihnea Măruță, ce intenții ai”, revista-apostrof.ro // Dată fiind prezența tot mai greu de evitat a uneltelor de inteligență artificială, care se implică din ce în ce mai mult în metode de marketing, colectare și prelucrare a datelor, ne îndreptăm către un viitor în care modelul de inteligență artificială din telefonul, browser-ul sau orice alt aparat smart pe care îl ai să-ți facă sugestii pe baza intențiilor pe care le-ai arătat anterior, oricât de subtil.

Ai conversat cu ChatGPT săptămâna trecută și i-ai zis că te simți singur(ă) (cum, de altfel, se și întâmplă// „Heavy ChatGPT users tend to be more lonely, suggests research”, theguardian.com // cu mulți utilizatori frecvenți), că ți-ar plăcea să ai prieteni cu care să ieși? Azi primești o notificare de la AI că e vremea bună, se anunță o maximă de 20 grade și că ai o terasă la 350 metri de blocul tău, cu un rating de 4.9 pe Google. Uite și poze de acolo. Nu vrei să scrie un mesaj de invitație pe care să-l trimită la 3 persoane din agenda ta, cu care ai vorbit câte cel puțin 15 minute în ultimele 3 zile să le invite la o șuetă?

Dacă pare prea mult, trebuie să știi că astfel de lucruri sunt deja posibile, mai ales odată ce ChatGPT a introdus memoria, prin care învață din fiecare interacțiune lucruri noi despre tine și la care poate face referire în orice discuție. Nu mai vorbim de Google, care, mai presus de orice, este o companie de marketing. Dacă ai un telefon Android sau i-ai folosit măcar câteva dintre produse, deja te cunoaște mai bine decât crezi și-ți poate servi răspunsuri personalizate prin Gemini. De multe ori, frânele care incapacitează Gemini sau ChatGPT au fost adăugate intenționat — modelul nu este lăsat să facă asta, deși ar putea.

Într-un interviu recent// „Google DeepMind CEO Worries About a “Worst-Case” A.I Future, But Is Staying Optimistic”, youtube.com // pentru revista TIME, laureatul Nobel pentru chimie din 2024 și cofondatorul DeepMind, Demis Hassabis, insistă asupra progresului inteligenței artificiale în domenii critice pentru omenire, precum cercetarea și medicina.

Hassabis spune că a trecut la specializarea în AI (după ce lucrase tot în IT, dar ca dezvoltator de jocuri video) hotărât încă de la început să participe la crearea inteligenței artificiale generale. Sam Altman a fost și mai îndrăzneț, declarând că OpenAI, compania pe care o conduce, știe cum să construiască AGI, care e doar la câțiva ani distanță.

CITEȘTE ȘI: Înainte să câștige Nobelul, a creat un joc video despre autocrație în Europa de Est

Este acesta un AGI-ent?

Cum poți identifica un model de inteligență artificială generală și cum se face că, deși modelele actuale au deja multe abilități supraomenești, experții nu declară acest obiectiv atins? Mai mulți cercetători au propus tipuri diferite de teste, axate pe abilități umane, pe care o mașinărie să le simuleze convingător.

Testul Turing, propus în anii ‘50 și bazat pe conversații generale, inclusiv de literatură și filosofie, nu este singura metodă și oricum, chiar în cazul lui există destule controverse. Cele mai recente rezultate, din martie 2025, arată că modelul GPT-4.5 a fost identificat drept uman în 73% din cazuri, pe baza unor discuții în format text de câte cinci minute.

Pentru că inteligența este adesea asociată cu abilitățile intelectuale, Ben Goertzel, unul dintre principalii cercetători implicați în dezvoltarea robotului Sophia în 2016, a propus un test academic. Goertzel spune că un model AI poate fi considerat inteligent la nivel uman dacă e un student bun: să participe la cursuri și seminarii, iar în urma învățării, să treacă examenele. Testul a reușit cu destulă ușurință încă din 2023, când LLM-urile au promovat examenele chiar fără participarea la cursuri.

Totuși, acest mod de evaluare a inteligenței artificiale nu arată chiar abilități umane, ci mai degrabă o memorie spectaculoasă și capacitatea de regăsire rapidă a informației. Probabil că dacă Wikipedia ar face un LLM care să fie antrenat doar pe enciclopedia proprie, rezultatele nu ar fi cu mult diferite.

Un test aparent simplu, dar care ascunde multe subtilități este cel propus de cofondatorul Apple, Steve Wozniak, care cere roboților să poată face cafea. Evident că nu este vorba de sarcina banală a unui espressor, pentru că Woz cere serviciu complet: AI-ul trebuie să găsească aparatul de cafea, recipientul cu cafea, să adauge apă și cafea în cantități potrivite, apoi să găsească o cană și să toarne produsul, gata de consum. Văzută din perspectiva acestui test, inteligența artificială ar avea o înțelegere de bază a nevoilor și preferințelor umane. Evident că un robot poate fi programat după o rețetă precisă încât să livreze o cafea excelentă, dar testul lui Wozniak cere ca AI-ul să poată prepara băutura fără să fi fost antrenat anume. Aici intervine atât conceptul de învățare prin feedback, de la Wiener, cât și capacitatea de a lua inițiativa și a acționa în consecință.

La fel de practic și poate ușor sarcastic este testul lui Gary Marcus, profesor emerit de psihologie și neuroștiințe la Universitatea New York, discipol al lui Steven Pinker. Marcus este unul dintre semnatarii scrisorii deschise din 2023, care cerea reglementarea în AI, iar până atunci, îndemna la prudență și chiar la stagnarea intenționată a cercetărilor.

Testul propus de el pentru AGI pare desprins dintr-o glumă: mașinăria ar trebui să fie capabilă să asambleze mobilă de la IKEA, pe baza pieselor și instrucțiunilor detaliate din pachet.

Nici varianta lui Wozniak, nici testul Marcus nu au fost încercate de vreun model curent de inteligență artificială, dar ele servesc drept exemple foarte bune pentru a înțelege că, dacă vorbim despre roboți ca posibili înlocuitori ai oamenilor, ei ar trebui să se descurce și la sarcini aparent banale. De altfel, conform unei discuții între Stephen Witt, biograful lui Jensen Huang (CEO Nvidia) și David Remnick (editor șef The New Yorker), mulți dintre cei chestionați într-un sondaj au spus că și-ar dori să fie înlocuiți de roboți în treburi banale, gospodărești, ca strânsul și spălatul vaselor.

Șeful Microsoft AI și cofondatorul DeepMind, Mustafa Suleyman, prezintă un test la fel de pragmatic, dar care atacă un alt domeniu: cel economic. Într-un articol// „Mustafa Suleyman: My new Turing test would see if AI can make $1 million”, technologyreview.com // pentru MIT Technology Review, Suleyman propune ca un robot să primească $100,000 și, fără preantrenare specifică, să-i poată spori la un milion de dolari. Conform acestuia, în lupta pentru progresul inteligenței artificiale către AGI, ar trebui să luăm în considerare mai serios o etapă intermediară, dar cu beneficii substanțiale, pe care o numește ACI: artificial capable intelligence. Un model care ar trece testul propus de el nu doar că ar reprezenta un exemplu excelent de ACI, dar ar putea să rezolve multe sarcini logistice, politice, organizaționale și de business pe care le-ar conține implicit o astfel de provocare.

„Concentrarea pe oricare dintre aceste două sisteme (AI și AGI) este simultan mioapă și periculoasă. Cu mult după ce Turing a crezut că discursul este cel mai bun test pentru AI și cu mult înainte să ajungem să avem un sistem AGI, este nevoie de categorii mai bune prin care să înțelegem această nouă epocă a tehnologiei. În era ACI, puține lucruri vor rămâne neschimbate, așa că ar trebui să ne pregătim de acum“, concluzionează Suleyman, în articolul citat.

Inteligență, indiferență și bunăstare

Încă din 2014, Stephen Hawking critica indiferența cu privire la progresul tehnologic în general și inteligența artificială în particular. Fizicianul s-a exprimat într-o discuție// „Stephen Hawking: ‘Transcendence looks at the implications of artificial intelligence – but are we taking AI seriously enough?’”, independent.co.uk // cu jurnaliștii de la The Independent, spunând că, dacă ai afla de vizita iminentă a unei civilizații extraterestre superioare pe planetă, probabil nu i-ai spune „OK, sună-mă când ajungi“. De aceea, și în fața dezvoltării inteligenței artificiale superioare celei umane în unele privințe nu ar trebui să fim așa de relaxați.

Lipsa de reglementări la nivel continental și cu atât mai mult la nivel global e o problemă spinoasă și multistratificată. În timp ce organismele politice se îndoaie mai mult sau mai puțin la presiunea sau lobby-ul giganților din IT, cercetările pentru dezvoltări accelerate și ample continuă, inclusiv în domenii de importanță existențială. La fel și investițiile, unde SUA domină, urmată, cu sume de trei ori mai mici, de China și, la încă o treime aproape, de Marea Britanie și Germania, conform unui studiu al Universității Stanford din 2024, referindu-se la date colectate până în 2023. Dar oricine studiază graficele prezentate în articol vede că progresul este aproape exponențial, deci, cum ne aflăm la jumătatea lui 2025, lucrurile deja s-au schimbat, iar diferențele probabil s-au accentuat.

Dintr-o altă perspectivă și dincolo de lupta pentru supremație tehnologică în sine, o întrebare importantă privitoare la viitorul inteligenței artificiale care se apropie de nivelul general este cea a conștiinței.

În 2022, un inginer Google a devenit viral prin afirmațiile că modelul de atunci, LaMDA, ar fi conștient. E greu de dovedit așa ceva, iar, când apare, primește mai degrabă scepticism din partea comunității academice și inginerești.

Problema conștiinței inteligenței artificiale se leagă puternic de un argument al filosofului american John Searle, numit „argumentul camerei chinezești“. Searle imaginează un computer programat să reacționeze ca și cum ar ști limba chineză. Dar, și dacă trece testul Turing (în sens conversațional), nu ai avea cum să-ți dai seama dacă computerul înțelege limba chineză sau reacționează automat ca și cum ar înțelege. Concluzia: cel puțin în accepțiunea modernă a ideilor de conștiință, inteligență și înțelegere, un computer poate, în cel mai bun caz, să se comporte ca și cum le-ar avea.

Unii cercetători susțin ideea conform căreia conștiința este o proprietate emergentă a sistemelor complexe. Dată fiind structura extrem de complicată a creierelor noastre și a rețelelor neuronale din ele, poți spune, cu o oarecare probabilitate, că se manifestă fenomene emergente, precum autoorganizarea. Printre ele s-ar afla și conștiința, iar dacă ar fi așa, atunci ideea de „natură umană“ ar fi golită de sens, pentru că ar fi suficient să simulezi o rețea neuronală cât mai apropiată, ca infrastructură, de creierele noastre, structural și morfologic, iar conștiința ar apărea „de la sine“, ca o proprietate emergentă.

Nu e de mirare, atunci, că există cercetători care se concentrează chiar pe această problemă: cum să tratăm etic o inteligență artificială conștientă? Chiar în 2024, Anthropic, compania care a dezvoltat modelul Claude, a angajat primul cercetător în bunăstarea AI-ului. Într-un interviu pentru New York Times, specialistul — Kyle Fish — spune că sunt șanse destul de mici („poate 15% sau în zona asta“) ca modelele actuale, precum Claude și concurența să fie conștiente. Însă viitorul, spune Fish, ar trebui să ia în serios această posibilitate.

Demis Hassabis insistă asupra aplicațiilor medicale și de cercetare pentru îmbunătățirea vieții umane inclusiv pe această temă. Întrebat de TIME ce ar face dacă ar descoperi că sistemele AGI — obținute cel târziu în 10 ani, conform aceluiași Hassabis – sunt conștiente, britanicul răspunde că le-ar folosi pentru studiul propriei minți. Din moment ce astfel de sisteme ar fi creația omului, înseamnă că sunt reproductibile. În plus, un studiu amănunțit al acestor sisteme AGI ar fi aproape echivalent cu studiul minții umane, dar alcătuirea artificială ar fi un avantaj.

În contextul dezvoltării exponențiale, nu e de mirare să vezi că marii dezvoltatori din domeniu vorbesc destul de încrezător despre atingerea și apoi depășirea nivelului uman de inteligență, simțuri și chiar conștiință. Criticii văd entuziasmul ca pe un balon de săpun și evită chiar să folosească termenul de „inteligență“ despre computere și roboți.

Indiferent pe ce poziție te afli, poți vedea că inteligența artificială ocupă prim-planul nu doar în cercetare și tehnologie, ci și în piața muncii, economie, artă și chiar religie.

Până la urmă, întrebarea dacă AGI este sau nu aproape tinde să devină irelevantă, câtă vreme și în etapa actuală de dezvoltare, impactul este semnificativ, de ambele părți ale eticii și beneficiilor omenirii. Poate că, în locul testelor practice și pragmatice precum cel al cafelei sau al mobilierului IKEA, ne putem întreba mai eficient și cu mai multe foloase cum putem specializa mai bine AI-ul. 

În ciuda controverselor, Premiile Nobel din 2024 pot fi un exemplu de urmat, iar cercetări care să impulsioneze o colaborare mai amplă în domeniul biologiei și medicinei, un viitor mai dezirabil decât cel în care robotul spală vasele, face cafeaua, ia examenele fără să treacă pe la școală, trece interviul de angajare și face bani. Căci pentru cine pregătim o planetă în care roboți și multiagenți le știu și le fac pe toate?



Text de

Adrian Manea

Adrian Manea este matematician și profesor, fondator al Poligon Educational, proiect prin care îmbină matematica și științele cu istoria, filosofia, literatura și jocurile. Scrie și pe Substack, Laturi ale științei.

AI&ROBOȚI|AI101

Etica inteligenței artificiale: între lingușeală, suferință și autocrație

De
Amenințări cu divulgarea unor secrete, suferință, halucinații din afara matricei și alianțe diplomatice pentru supremația Europei anilor 1900. Nu e un scenariu SF, ci câteva dintre dilemele etice care gravitează în jurul inteligenței artificiale.
AI&ROBOȚI|FYI

Studiu MIT: AI-ul generativ poate dăuna gândirii critice, dacă te bazezi exclusiv pe el

De
Un nou studiu publicat în format pre-print arată că utilizarea AI-ului generativ poate crea probleme cu gândirea critică și memorarea informațiilor pe termen lung.
AI&ROBOȚI|TURNING POINT

E mai ușor pentru că nu e om: de ce face tot mai multă lume terapie cu ChatGPT

De
Modelele de limbaj de mari dimensiuni, cum e ChatGPT, schimbă modul în care oamenii interacționează cu munca și educația, iar mai nou, și cu propriile emoții. Am vorbit cu trei oameni care folosesc AI-ul pentru a cere suport emoțional, apoi am cerut părerea unei psihoterapeute despre acest fenomen. 
AI&ROBOȚI|OVERVIEW

Google spune că inteligența artificială generală vine mai repede decât îți ia să te reprofilezi

De
CFO-ul OpenAI a prezentat cu entuziasm beneficiile AGI, dar a evitat să discute și riscurile iminente. În același timp, raportul exhaustiv al Google despre AGI avertizează asupra riscurilor de abuz și subliniază necesitatea unor reglementări și pregătiri imediate.