Vertigo3d / Getty Images

Google spune că inteligența artificială generală vine mai repede decât îți ia să te reprofilezi23 min read

De Radu Stochița 30.04.2025

CFO-ul OpenAI a prezentat cu entuziasm beneficiile AGI, dar a evitat să discute și riscurile iminente. În același timp, raportul exhaustiv al Google despre AGI avertizează asupra riscurilor de abuz și subliniază necesitatea unor reglementări și pregătiri imediate.

E greu să ții pasul cu toate lansările din lumea AI-ului. De-abia ce am făcut tranziția de la ChatGPT o1 la o3, apoi o3 mini, că deja văd opțiunea de o4. ChatGPT Premium îmi oferă cel puțin șapte opțiuni din care să aleg, Gemini vine cu capacități noi pe bandă rulantă, iar Elon Musk pretinde că SuperGrok este cel mai rapid și eficient model de AI existent în prezent. 

Folosesc zilnic versiunea 4o de ChatGPT, iar când am nevoie de o putere mai mare de procesare o1 sau o3-mini. Îi pun întrebări la care am nevoie de răspuns rapid sau îi dau cincisprezece rapoarte anuale ale Inspecției Muncii pentru a scoate și centraliza datele din fiecare. Îmi prelucrează datele și reușește să identifice câți lucrători sunt la nivelul agenției guvernamentale, dar la celelalte întrebări începe să abereze și să genereze date acolo unde fie nu le găsește, fie refuză să le caute.

Trec prin ChatGPT și ideile pe care le scriu zilnic, adesea 300 de cuvinte, rezumatul știrilor și analizelor pe care le citesc în presă. Îl rog să-mi ofere feedback, lucru pe care-l face rapid și eficient. Pare impresionant pentru moment, dar feedbackul a devenit deja previzibil: adaugă secțiuni, folosește-te de liste pentru a exemplifica mai ușor și conturează o concluzie mai puternică, alături de câteva emojiuri și un hahstag final. 

Anxietatea că ChatGPT îmi va face jobul irelevant a dispărut treptat și a lăsat loc unei relații de coabitare cu inteligența artificială. Pentru alții, însă, anxietatea se amplifică. În Venezuela, clickworkerii, acei lucrători care rezolvă diverse taskuri, în principal de-a identifica ca fiind corect sau greșit conținutul generat cu AI, au început să primească mai puține sarcini.// „Venezuelan migrants relied on clickwork to survive. Now AI is replacing them”, restofworld.org // Practic, AI-ul a devenit îndeajuns de inteligent încât nu mai e nevoie de așa mulți oameni pentru a-l antrena.

Mai există încă câțiva oameni care oferă o verificare finală, doar că și acel rând se subțiază. În India, țara outsourcingului și customer service-ului vestic, inteligența artificială a creat o anxietate generală în rândul lucrătorilor.// „AI is coming for India’s famous tech hub”, wsj.com // ChatGPT îmi poate recomanda cum să construiesc un website în câteva secunde, iar mai apoi îl și pot construi cu Lovable, o unealtă de inteligență artificială generativă creată fix pentru acest scop.// „Idea to app in seconds”, lovable.dev //

Inteligența artificială are un impact real, dar încă nu se face simțită la acel nivel de doomsday scenario portretizat de liderii tech, cel puțin în România, unde digitalizarea este încă un concept de domeniul viitorului. Companiile românești se folosesc cel mai puțin de AI din rândul companiilor europene – doar 3%, față de media UE de 13,4%.// „Use of artificial intelligence in enteprises”, eurostat.com // Nivelul digitalizării instituțiilor publice trimite România tot la coada clasamentului și confirmă ipoteza că viitorul din strategii rămâne încă departe de atins.// „Indicele economiei și societății digitale (DESI)”, digital-strategy.ec.europa.eu //

Pericolul încă rămâne la orizont, iar cu o scădere constantă a capacității de concentrare în rândul populației, riscurile de înlocuire sunt vizibile.// „Speaking of Psychology: Why our attention spans are shrinking with Gloria Mark, PhD”, apa.org // O persoană care nu se poate concentra pe un task de lungă durată poate fi cel mai ușor înlocuită de inteligența artificială în acest moment. Nu este nevoie de o persoană pentru a crea un grafic de tip bară pentru a vizualiza folosirea AI-ului în companii, când ChatGPT-ul o poate face în doar câteva secunde. 

Avantajul competitiv, cel puțin pentru moment, rămâne însă la nivelul taskurilor care necesită mai multă concentrare, unde modelul predictibil al LLM-urilor de-a genera informații de bază de statistici nu poate înlocui procesele subconștiente ce au loc în creierul uman atunci când citești sau interacționezi cu informația. Cel puțin așa cred eu, pentru moment, însă un raport Google și un interviu al CFO-ului OpenAI îmi distrug orice urmă de speranță.

Google și viitorul iminent al AGI-ului

Momentan, dacă AI-ul îți va fura jobul sau nu rămâne o întrebare fără răspuns. Google a lansat recent o lucrare de peste o sută de pagini în care analizează evoluția AGI,// „What is artificial general intelligence (AGI)?”, ibm.com // scenariile posibile, și indică modul în care pot fi diminuate efectele acesteia. Concluzia e simplă: AGI va veni, dar /trebuie să te pregătești de-acum./ „Taking a responsible path to AGI”, deepmind.google //

Cercetarea arată că dacă nu se schimbă nimic în status quo, nu există niciun element care să blocheze dezvoltarea inteligenței artificiale cel puțin la nivelul capacităților umane. Dincolo de paragrafele care justifică această realitate, totul poate fi redus la: companiile fac ce vor și legislația fie nu există, fie e ineficientă în a pune frână.

Cercetarea Google identifică patru scenarii de risc care pot exista concomitent:

  • Abuz (misuse) – oamenii se folosesc de inteligența artificială în scopuri malițioase;
  • Nealiniere (misalignment) – AI-ul face ceva opus față de ceea ce i-a spus dezvoltatorul;
  • Erori neintenționate (mistakes) – AI-ul face greșeli și provoacă daune fără a-și da seama;
  • Riscuri structurale (structural risks) – mai mulți agenți AI la un loc creează un cadru negativ, dar fără vina individuală a niciunuia dintre aceștia.

Cercetătorii anticipează că până în 2030, tehnologiile de inteligență artificială vor atinge niveluri de sofisticare greu de imaginat astăzi, iar odată cu această evoluție riscurile nu vor mai putea fi ignorate. Un prim aspect esențial este cel al abuzului: dacă sisteme capabile de decizii autonome cad în mâinile unor indivizi rău intenționaţi, consecinţele pot fi dezastruoase. 

Pentru a preveni folosirea lor în scopuri maliţioase, cercetătorii consideră că arhitectura acestor soluţii trebuie proiectată încă din start cu mecanisme stricte de autentificare, monitorizare permanentă a accesului şi limitări ale capabilităţilor disponibile pentru utilizatorul final.

Alături de ameninţarea intenţionată, nealinierea reprezintă o provocare la fel de gravă: chiar dacă un sistem AI pare să funcţioneze corect, învăţarea bazată pe date vaste şi adesea imperfect etichetate poate conduce la comportamente neaşteptate. Încercările de a „curăţa” datele de antrenament de tot ce ar putea fi considerat dăunător se lovesc de două probleme majore: volumul enorm de informaţii şi subiectivitatea evaluatorilor umani, care adesea îşi transferă propriile prejudecăţi în etichete. 

O strategie promiţătoare este aceea de a dezvolta versiuni concurente ale aceluiaşi model şi de a le supune unor teste reciproce pentru a identifica reacţii periculoase, însă riscul existenţei „agenţilor dormanţi” – componente ascunse care pot fi activate ulterior – rămâne o ameninţare dificil de gestionat.

Chiar şi în absenţa răului intenţionat sau a erorilor de proiectare, sistemele AI pot cauza daune în mod neintenţionat, prin reacţii automate greşite sau prin lipsa unei înţelegeri reale a contextului. De pildă, un algoritm de viziune computerizată dintr‑o linie de producţie ar putea interpreta greşit gesturile lucrătorilor şi ar genera comenzi periculoase. În plus, dependenţa de patternuri statistice în locul unei înţelegeri semnificative a mediului înconjurător înseamnă că deciziile AI pot fi corecte „pe hârtie” şi complet nepotrivite în practică.

Nu în ultimul rând, odată cu interconectarea tot mai profundă a sistemelor autonome şi a actorilor umani, apar riscuri structurale de amploare: comportamente emergente, care nu pot fi atribuite unui singur agent, și responsabilitate diluată între dezvoltatori, operatori și furnizorii de infrastructură. 

Eric Schmidt, fostul CEO al Google, a declarat că în vreo trei-cinci ani, AGI va gândi mai bine ca oamenii și va fi mai creativ.// „Ex-Google CEO Eric Schmidt: AI that is ‘as smart as the smartest artist’ will be here in 3 to 5 years”, musicbusinessworldwide.com // În fața acestor declarații, întrebarea rămâne legată de ce rol va mai avea omul în viața socio-economică.

Zâmbetele din spatele AGI

Banca americană de investiții Goldman Sachs organizează săptămânal o discuție cu lideri din sectorul de business. Săptămâna trecută, CFO-ul OpenAI, Sarah Friar, a povestit timp de 30 de minute doar despre beneficiile inteligenței artificială, fără a adresa în niciun moment riscurile tehnologiei.// „OpenAI CFO Sarah Friar on the race to build artificial general intelligence”, goldmansachs.com // 

Modelele ChatGPT o1 și o3 sunt îndeajuns de puternice pentru a scrie articole, iar Deep Research, care costă 200 de dolari, poate face o prezentare de la zero. Pentru Friar, această evoluție este îmbucurătoare, deoarece lumea de finanțe va avea mai puțină nevoie de analiști. 

2023 a fost anul chatboților. 2024 a adus modele care „gândeau”, mai precis găseau medii statistice pe baza datelor cu care companiile îi hrăneau, iar mai apoi preziceau un model apropiat de ce ar fi gândit un om. Problema acestor modele, dar și a oricărei iterații de inteligență artificială este că informația disponibilă este finită, așa cum avertiza și IBM, iar puterea competitivă stă de fapt în datele care nu au văzut niciodată internetul.

În discuția de la Goldman Sachs, 2025 o să fie anul agenților, modelele de inteligență artificială care vor funcționa ca o secretară cu sarcini foarte bine definite. Docusign, compania americană de tehnologie care face posibilă semnarea unui contract în mod digital a lansat mai mulți agenți AI pentru a verifica clauzele din contracte și identifica riscuri.// „Docusign unveils AI contract agents, which can analyze agreements and surface issues that usually require human intervention, available by the end of 2025”, constellationr.com // Unealta nu doar că va analiza contracte, dar va putea crea și altele de la zero, și ar putea să negocieze în favoarea celui care-l plătește.

Mai departe, viitorul este incert și nimeni nu are răspunsul categoric la întrebare ce este AGI, când se va ajunge la acel stadiu sau dacă omenirea a atins deja acest nivel, dar nu-și dă seama. Sarah Friar vede o necesitate ca fiecare să știe să se folosească de AI atât în viața personală, cât și în cea profesională, și amintește de Estonia, țara model a hiperdigitalizării europene, care în februarie 2025 a anunțat un parteneriat cu OpenAI pentru a oferi ChatGPT în sistemul școlar liceal începând cu luna septembrie. Elevii nu vor avea acces doar la simpli chatboți, ci la un întreg ecosistem care va îmbina competența umană cu cea a inteligenței artificiale.

Entuziasmul OpenAI se regăsește în orice companie care dezvoltă un ecosistem de inteligență artificială în acest moment. Promisiunea Google este de-a permite o comunicare mai eficientă între cloud-uri prin platforma de Gemini. Amazon se uită la Alexa+ ca la un asistent personal care poate cumpăra bilete de avion, face rezervări sau scrie e-mailuri automate. Există deja și o aplicație care permite să-ți sune părinții vârstnici în locul tău și să mențină o conversație când nu vrei să o faci.// „I Tested The AI That Calls Your Elderly Parents If You Can’t Be Bothered”, 404media.co //

În acest context, singurul lucru cert rămâne incertitudinea: nu se știe când se va atinge pragul AGI sau cum va arăta cu adevărat lumea construită de aceste maşinării „gânditoare”. 

Nu există nicio garanție că skillurile pe care le utilizez zilnic vor mai avea vreo relevanță în doi ani sau dacă poate mai sunt relevante astăzi, iar întrebarea care nu-mi dă pace este: de ce m-ar alege cineva pe mine în schimbul unui robot pe care-l plătești cu 200 de dolari pe lună? Nici Google, dar nici CFO-ul OpenAI nu oferă un răspuns și nici nu vor să o facă.

Etosul rămâne: fugi (nici nu mai este vorba de-a merge rapid) și distruge lucruri.// „Move fast and break things – etosul Silicon Valley” // Cercetătorii Google și CFO-ul OpenAI sugerează că degeaba se oprește o companie astăzi, dacă restul își măresc pasul. În fața acestor amenințări, întrebarea tipică „ce este de făcut” rămâne mai relevantă ca niciodată, dar există riscul ca până se va găsi un răspuns, piața muncii să fie puternic afectată.

Problema în sine nu este pierderea jobului, ci distrugerea sistemelor de asigurări sociale și de sănătate în forma în care sunt ele astăzi. Fără contribuțiile sociale, acestea riscă să se sfărâme fără subvenții din partea statului sau o schimbare de paradigmă. Discursul despre venitul de bază garantat pare că s-a îndepărtat în ultimele luni, de când valul turbocapitalist a luat cu asalt guvernele din Vest. Fără o soluție clară, ce se va întâmpla cu aceste sisteme și cu oamenii care le țin în picioare?



Text de

Radu Stochița

Radu Stochița este jurnalist freelancer și a scris despre tech, economie și lumea muncii pentru Hotnews, Libertatea, Jacobin, Nation, Al Jazeera. În paralel, face cercetare economică pentru Cartel ALFA. Radu a absolvit Bowdoin College, din SUA, și este Watson Fellow.

AI&ROBOȚI|AI101

Inteligența artificială generală e aici? Spune-i să-mi facă o cafea!

De
Dezvoltarea accelerată a modelelor de inteligență artificială a condus la provocarea de a construi, literalmente, un supraom. Unii specialiști cred că-l vom avea în mai puțin de un deceniu. Dacă e așa, suntem pregătiți? Și ce va urma după?
AI&ROBOȚI|TURNING POINT

E mai ușor pentru că nu e om: de ce face tot mai multă lume terapie cu ChatGPT

De
Modelele de limbaj de mari dimensiuni, cum e ChatGPT, schimbă modul în care oamenii interacționează cu munca și educația, iar mai nou, și cu propriile emoții. Am vorbit cu trei oameni care folosesc AI-ul pentru a cere suport emoțional, apoi am cerut părerea unei psihoterapeute despre acest fenomen. 
SĂNĂTATE|OVERVIEW

Pericolul tăcut: cercetătorii analizează substanțele chimice care amenință sănătatea și fertilitatea

De
Substanțele chimice care perturbă sistemul endocrin sunt peste tot – de la materiale plastice la cosmetice – și afectează sănătatea reproductivă. Cercetătorii sprijiniți financiar de UE pun în lumină riscurile și dezvoltă teste îmbunătățite pentru a proteja generațiile viitoare.
ȘTIINȚĂ|OVERVIEW

Criptografie #5: Anarhia digitală a generalilor bizantini

De
Imaginează-ți o comunitate în care membrii sunt egali și anonimi, iar grupurile care iau decizii se alcătuiesc aleatoriu, pentru fiecare caz. Cum ajungi la un consens?