Jimmy Sime Central Press / Hulton Archive via Getty Images

Omenesc, supraomenesc: Inteligența artificială, de la 1600 și până în prezent32 min read

De Adrian Manea 25.02.2025, ultima actualizare: 21.03.2025

Inteligența artificială nu a apărut odată cu ChatGPT, dar influența ei a devenit o prezență constantă în viața oricui.

Cu mult înainte să devină unul dintre cele mai active domenii de cercetare teoretică și inovare tehnologică, studiul inteligenței artificiale a ridicat probleme fundamentale despre natura umană. Convingerea că gândirea se reduce la algoritmi, rulați de omul-mașinărie, traversează secolele și disciplinele de studiu. Iar viitorul va depăși, probabil, majoritatea așteptărilor.

Scurtă teorie a evoluției inteligenței artificiale

Ce arată evoluția inteligenței artificiale din ultimele decenii: că specialiștii implicați și oamenii în general au puteri creatoare de nivel aproape demiurgic sau, dimpotrivă, că arhitectura omului nu este cu mult diferită de cea a unei mașinării, care poate fi meșterită în laborator? Întrebarea stă la baza cărții Dumnezeu, om, animal, mașină,// Traducere Iulian Comănescu, apărută la editura Humanitas, 2023, humanitas.ro // pe care scriitoarea și jurnalista Meghan O’Gieblyn o încheie cu o notă mai degrabă sceptică, prin vocea filosofului și neurocercetătorului Daniel Dennett. 

A vedea în inteligența artificială creaturi egale sau superioare, înzestrate, deci, cu caracter uman, este o amăgire sau, în orice caz, o concluzie pripită. Progresul tehnologic este, însă, incontestabil. Centralizatori precum AI Index, de la Universitatea Stanford,// Detalii pe aiindex.stanford.edu // arată o creștere spectaculoasă a interesului față de tehnologii, produse și servicii care folosesc inteligența artificială. Și, chiar dacă în ochii publicului general se află marii actori de pe scena tech, precumGoogle, Apple sau OpenAI, domeniul atrage interesul tuturor pasionaților sau profesioniștilor tehnologiei. 

Conform aceluiași AI Index, între 2022 și 2023, numărul proiectelor open source din acest domeniu s-a triplat și au depășit 12,1 milioane. În urmă cu doar 12 ani – o eternitate, în lumea tech – acest număr era sub o sută.t

Saltul a fost cu atât mai spectaculos cu cât a ridicat numeroase probleme etice, (geo)politice și filosofice, centrale pentru însăși natura umană și viitorul speciei. Așa cum notează Stuart Russell și Peter Norvig, coautorii volumului-gigant Artificial Intelligence: A Modern Approach,// Ediția a IV-a, publicată în 2000 de Editura Pearson, pearson.com // există două probleme recurente, cu puternice rădăcini în cultura și devenirea umană: problema gorilei și cea a regelui Midas. 

Ambele fac referire la evoluții scăpate de sub control: primatele ancestrale nu sunt tocmai bucuroase de omenirea al cărui viitor nu-l mai pot controla, deși îi reprezintă originile, în timp ce superputerea dorită de regele Midas, de a transforma în aur tot ce atinge, s-a dovedit simultan și un blestem.

Indiferent de perspectiva pe care o ai față de inteligența artificială – și, de altfel, față de orice descoperire științifică sau inovație tehnologică –, istoria oferă contextul potrivit. În termeni generici, prezentul reprezintă o evoluție treptată, chiar și atunci când întregul ajunge să însemne mai mult decât suma părților.

Preistoria inteligenței artificiale

Ceea ce intră astăzi sub umbrela largă a termenului „inteligență artificială“ a apărut din rafinarea treptată a unor unelte. Oamenii și-au construit dintotdeauna dispozitive care să le suplinească puterea fizică și, ulterior, pe cea intelectuală. În aceste condiții, originea inteligenței artificiale, cel puțin la nivel teoretic, se leagă de cercetările asupra mecanismelor gândirii însăși. 

Căutarea regulilor logice și a principiilor de funcționare a intelectului uman urmărea un rezultat concret: algoritmi care să le facă reproductibile. De aceea, se poate spune că începuturile inteligenței artificiale aparțin filosofiei. Thomas Hobbes scria în Leviathan (1651)// Disponibilă pe gutenberg.org // că inima e ca un resort, nervii, niște corzi, iar încheieturile membrelor, ca niște roți. Mai mult, spune el, gândirea în ansamblu funcționează pe aceleași baze ca și adunarea și înmulțirea. Construcția unui robot-om, nu doar umanoid, este doar o chestiune de timp.

Idei filosofice ulterioare au introdus principii precum inducția – în care, dintr-o colecție de informații particulare se poate formula o concluzie generală, ca în experimentele din laborator –, empirismul – prin care se susține că nu putem percepe nimic la nivel rațional, decât după ce trece prin simțuri – și pozitivismul, care folosește ca input simțurile, dar prelucrează informațiile preluate cu ajutorul logicii. Deși pot părea divagații abstracte, aceste idei încurajează teza că rațiunea, gândirea în general, este reproductibilă.

Începând cu secolele XIX-XX, psihologia a contribuit cu diverse teorii ale învățării, dintre care cea mai populară și, totodată, aplicabilă într-un mediu artificial, este behaviorismul. Comportamentul, deci acțiunile omului, îi definesc învățarea, care poate fi influențată de diverși stimuli, sub formă de recompense ori pedepse. Aici își are originea ideea feedbackul preluat în metoda numită reinforcement learning, prin care învățarea este stimulată de reacții – pozitive sau negative – primite după acțiune.

De remarcat este că toate aceste teorii și dezvoltări experimentale au apărut înaintea inventării primului computer. Așadar, inteligența artificială, sub forma extragerii esențialului din modul de funcționare a minții umane, a avut și o importanță teoretică semnificativă.

Intră în scenă Alan Turing

După al doilea Război Mondial, prin britanicul Alan Turing (1912-1954), începe etapa care se concentrează și pe implementare, pe reproducere a minții într-un dispozitiv. De numele lui se leagă două idei fundamentale: principiul de funcționare a computerelor și evaluarea inteligenței acestora, prin raportare la inteligența umană.

Încă din secolul al XVIII-lea, matematicianul și filosoful Gottfried W. Leibniz (1646-1716), căuta characteristica universalis – o formă generală de exprimare a ideilor științifice și filosofice, o esențializare perfectă. Matematica și, ulterior, lingvistica, au fost primele care au răspuns acestei cerințe, prin introducerea limbajelor formale. Limba maternă și limbile străine sunt limbaje naturale, în timp ce limbajele de programare sunt specifice unui domeniu. 

Pe lângă ele, limbajele formale folosesc un alfabet propriu, precum și reguli de formare a cuvintelor (sintaxă) și a înțelesurilor (semantică) unice. Simbolurile din tratatele de matematică, de exemplu ∀, ∃, ∈, ʃ ș.a., sunt cuvinte în limbajul formal al matematicii. Lingviștii au și ei propriile concepte similare, despre care se vorbește în școală la componența unei fraze: părți de vorbire, de propoziție, rădăcini și câmpuri lexicale ș.a.

Atât limbajul formal al matematicii, cât și cel al lingvisticii, sunt studiate cu metode predominant matematice în teoria limbajelor formale. În timp ce lucra la o problemă de logică și algoritmi, despre limitele capacității de calcul, Alan Turing a propus un model specific de limbaj formal și de dispozitiv care să-l descifreze. Într-un articol din 1937// „On computable numbers, with an application to the Entscheidungsproblem. A Correction”, londmathsoc.onlinelibrary.com // el introduce aceste obiecte, numite astăzi mașini Turing. Acestea au fost implementate în primele computere și se regăsesc și în dispozitivele de astăzi.

Cealaltă contribuție fundamentală a lui Turing este articolul său din 1950, Mașinării de calcul și inteligență// „Computing Machinery and Intelligence”, courses.cs.umbc.edu // apărut în revista de filosofie Mind, a cărui primă secțiune poartă numele biografiei autorului, ecranizată în 2014, The Imitation Game. Matematicianul imaginează o discuție pe teme diverse, apoi întreabă ce s-ar întâmpla dacă unul dintre interlocutori ar fi înlocuit cu o mașinărie. Cum s-ar modifica dialogul și cum ar trebui să conducă discuția participantul uman pentru a-și da seama de impostor? 

Aceasta este originea testului Turing, prin care se evaluează și în prezent competențele inteligenței artificiale. Cercetătorii au alcătuit și o variantă modificată, numită testul Turing total, prin care se iau în considerare și alte abilități umane în afara inteligenței, precum vederea artificială (computer vision) și mobilitatea (robotică).

Ideile exprimate în articol sunt mai mult decît vizionare. Într-o vreme în care abia dacă se putea vorbi despre computere (în sensul mașinăriilor de calcul, folosite aproape exclusiv pentru aritmetică), Turing propune un dialog pe baza sonetelor de Shakespeare. El atinge și o problemă actuală: teama că o eventuală mașinărie gânditoare ar aduce distrugerea omenirii – pentru care prezintă un răspuns ironic: „Nu cred că acest argument este substanțial încât să necesite respingere. Consolarea ar fi mai potrivită: poate ar trebui căutată în transmigrarea sufletelor.“

Cum a luat amploare cercetarea din domeniul AI

Anii 1950 au adus noutăți semnificative și au dat startul dezvoltării exponențiale a tehnologiei, atât din punct de vedere practic, ingineresc, cât și teoretic, prin matematică și teoria informației, care au condus la discipline noi precum informatica teoretică și cibernetica. Specialiști din tot mai multe domenii au studiat modele teoretice ale creierului și minții umane, ale gândirii, ale comportamentului, sentimentelor și limbajului. 

De exemplu, în 1958, John McCarthy de la MIT a propus unul dintre primele limbaje de programare, Lisp, cu un design profund matematic, dar și adaptat procesării limbajului natural. Articolele sale, ca Programe cu bun simț// „Programs With Common Sense”, jmc.stanford.edu // sau Situații, acțiuni și legi cauzale,// „Situations, actions, and causal laws”, apps.dtic.mil // în care pune bazele interacțiunii dintre matematică și programare în probleme fundamentale pentru inteligența artificială au fost comparate de specialiști cu noutatea teoriei relativității, din punctul de vedere al impactului științific și al ingeniozității.

Apoi, pe parcurs ce componentele hardware s-au îmbunătățit și au putut stoca mai multă informație, pe care să o proceseze cu o viteză tot mai mare, s-a impus dezvoltarea sistemelor expert. Conform teoriei, învățarea seamănă cu regăsirea informației. Cu alte cuvinte, se poate stoca o cantitate foarte mare de informație, oricât de dezorganizată, iar sarcina algoritmilor de inteligență să fie navigarea prin acest haos și identificarea bucăților care răspund la întrebarea adresată. 

În 1969, inițiativa a condus la programul DENDRAL,// Detalii pe wikipedia.org // dezvoltat la Stanford, de o echipă condusă de un informatician (Ed Feigenbaum), un fost filosof devenit informatician (Bruce Buchanan) și un laureat Nobel pentru genetică (Joshua Lederberg).

Din anii 1980, cercetările au devenit tot mai abstracte. Teoria simbolurilor, pornită de neuroantropologul Terrence Deacon și susținută, printre alții, de laureatul Nobel de anul acesta, Geoff Hinton, modelează inteligența pe baza manipulării simbolurilor, a semnelor abstracte. Se deschide, astfel, calea studiului rețelelor neuronale artificiale, antrenate pe cantități mari de date, organizate într-o formă abstractizată.

Componenta matematică devine și ea din ce în ce mai sofisticată și implică tot mai multe discipline, în cercetări spectaculoase pentru aplicații nebănuite. Statistica și teoria probabilităților au fost folosite pentru studiul lingvisticii de la începuturi, căci este vorba despre o disciplină în primul rând cantitativă, deci este natural ca ele să aibă un rol major și în inteligența artificială.

Însă metodele moderne folosesc inclusiv geometria și algebra pentru a face ordine în desișul de cunoștințe și limbaj cu care sunt alimentați algoritmii de învățare în cadrul domeniului denumit simplu big data. 

În acest sens, un articol din 2001,// „Scaling to Very Very Large Corpora for Natural Language Disambiguation”, aclanthology.org // de Michelle Banko și Eric Brill, arată că dacă se mărește cantitatea de informație procesată cu două sau trei ordine de mărime (adică de o sută până la o mie de ori), se îmbunătățește performanța sistemului mai consistent decât orice modificare a algoritmului de funcționare. Așa se face că astăzi, multe sisteme de inteligență artificială sunt antrenate pe zeci, sute sau mii de terabiți de date și necesită o putere de procesare care depășește aproape orice computer disponibil pe piață pentru utilizatorul obișnuit.

La fel de costisitoare sunt și metodele din domeniul numit deep learning, care organizează algoritmii pe mai multe straturi ajustabile. Astfel, în loc să se treacă direct de la informația pură la răspunsul programului, se aplică etape de procesare succesive, mai mici și mai flexibile, într-o structură modulară. Metodele au fost teoretizate încă din anii 1970, dar aplicațiile cele mai spectaculoase și le-au găsit în jurul anilor 2010, în vedere artificială, procesarea și recunoașterea discursului (în formă audio) și identificarea obiectelor din imagini.

Structura modulară, etapizată fin, este simultan cel mai mare avantaj, precum și cea mai mare cheltuială a metodelor de deep learning. Așa că multe cercetări teoretice s-au concentrat pe optimizarea lor, iar una dintre soluțiile cele mai populare a venit din analiza matematică dezvoltată în secolul al XIX-lea: coborârea după gradient (gradient descent). 

Intuitiv, gradientul unui proces, reprezentat prin funcții matematice, arată direcția de creștere a rezultatelor procesului respectiv. De exemplu, dacă ai folosit Photoshop sau alte programe de editare foto-video, știi ce e gradientul liniar al unei culori, care arată direcția de creștere a saturației culorii. Coborârea după gradient caută drumul invers, urmărind direcția de scădere – în cazul acesta, a costului computațional și deci, conduce la optimizare.

Unele etape de procesare din deep learning trebuie să fie aplicate în paralel, așa că soluția hardware a fost surprinzătoare: plăcile video. Unitățile de procesare grafică (GPU) sau plăcile video se folosesc în computere pentru afișarea și procesarea imaginilor în timp real, fie că e vorba despre imagini statice, videoclipuri, animații sau scene sofisticate precum cele din jocuri. 

Designul acestor componente se potrivește perfect pentru aceste sarcini, pentru că imaginile sunt alcătuite din unități foarte mici (numite pixeli, în varianta bidimensională și voxeli în 3D), care trebuie prelucrate – mutate, recolorate, transformate geometric – foarte des, de zeci sau sute de ori pe secundă. 

În spatele acestor transformări vizibile se află calcule nu neapărat sofisticate matematic, dar într-un număr extrem de mare și procesate în paralel, astfel încât toate punctele imaginii să se schimbe deodată. Așa se face că plăcile video au nuclee cu mult mai numeroase, dar mai puțin performante decît procesoarele. Această caracteristică le-a făcut perfecte în algoritmi și calcule din deep learning.

Nu este prima aplicație neconvențională pentru GPU: înainte de boomul inteligenței artificiale, ele fuseseră folosite în criptomonede, ceea ce a dus la o creștere artificială a prețurilor – asta a făcut ca gigantul Nvidia să limiteze intenționat, prin design, unele funcții ale plăcilor video nou lansate. 

Când goana după criptomonede s-a mai potolit, cererea de GPU a explodat din nou, de data asta cu mult mai spectaculos, datorită utilizării în inteligența artificială. Principalul furnizor pentru supercomputere și megacorporații AI rămâne Nvidia, ceea ce i-a adus un loc pe podiumul celor mai valoroase companii din lume, ba chiar și un efemer loc de lider în noiembrie 2024, cu o evaluare la 3,43 triliarde de dolari, peste Apple și Microsoft.

Societatea deschisă și modelele ei

Peisajul actual al inteligenței artificiale este cât se poate de divers. Pe de o parte, la nivelul cel mai înalt, situația e multipolară. Marile companii – Microsoft, Google, Apple, Amazon, Meta – au dezvoltat modele sofisticate, oferite drept soluții în cercetare științifică,// Vezi Premiul Nobel pentru Chimie 2024, acordat lui Demis Hassabis, fondatorul Google DeepMind. // soluții corporate, precum Copilot d›e la Microsoft, sau aplicații de productivitate și entertainment pentru utilizatorii obișnuiți (Apple Intelligence, Google Gemini sau Meta Llama). 

CITEȘTE ȘI: Înainte să câștige Nobelul, a creat un joc video despre autocrație în Europa de Est

Totodată, au apărut și companiile fondate special pentru soluții AI, cu cercetători de prim rang și care deja concurează cu marii jucători. OpenAI a luat lumea prin surprindere când a lansat ChatGPT în noiembrie 2022, iar ulterior a intrat într-un parteneriat cu Microsoft, pentru ca din vara lui 2024 să fie folosit ca sursă externă pentru Apple Intelligence. 

Pe drum, OpenAI a impresionat cu prezentarea programului de generare a videoclipurilor Sora și a modelului care folosește raționamente matematice avansate, o1. Italo-americanii de la Anthropic și-au asumat rolul de late bloomer, dar promit, prin modelul Claude, o soluție care pune accentul pe imitarea raționamentului uman, mai presus de performanțe supraomenești.

CITEȘTE ȘI: Este inteligența artificială gata să demonstreze teoreme?

Pe lângă aceste modele, se poate observa și o oarecare democratizare a inteligenței artificiale. Mulți dintre algoritmii fundamentali sunt de domeniul cercetării științifice, așa că sunt publici. În plus, companii mai mici și echipe de cercetători și-au pus la dispoziție modelele în format open source.

Într-o mișcare surpriză, acestora li s-a alăturat Meta, care în vara lui 2024 a deschis către public sursa modelului său, Llama. Democratizarea, totuși, vine cu multe note de subsol. Marile companii au adăugat numeroase metode de optimizare secrete, iar licența Llama nu e cea mai permisivă și nici nu dă acces chiar la modelul folosit de Meta. 

În plus, mai sunt și limitările de hardware: majoritatea utilizatorilor nu au computere suficient de puternice pentru lucrul serios cu modelele performante, așa că fie folosesc modele pre antrenate (ceea ce nu le mai face personalizate), fie, mult mai rar, apelează la soluții costisitoare de închiriere și cloud computing. 

Chiar și așa, asistenții virtuali sunt nelipsiți din majoritatea interacțiunilor cu magazine sau instituții publice, tot mai multe dispozitive devin „inteligente“ și produse software cu aplicații diverse sunt actualizate cu funcții AI. Acest lucru se datorează popularității modelelor lingvistice mari,// LLM, large language models. // care procesează și generează text la nivel conversațional. Mulțumită lor, s-a făcut trecerea de la instrucțiuni și interogări criptice, formulate în limbaje de programare sau specifice la conversații în limbaj natural.

Dezvoltarea inteligenței artificiale este unul dintre cele mai rapide progrese științifice și tehnologice, cu implicații pentru fiecare. Promisiunile de viitor depășesc imaginația oricărui optimist de acum doar câțiva ani. Totodată, inerția, scepticismul sau pur și simplu teama generalizată fac acest progres unul complicat, atât la nivel de implementare – prin proiecte legislative și reguli specifice –, cât și de înțelegere și acceptare.

Niciun alt domeniu de până acum nu a stârnit și nu a produs atât de multe cercetări, din atât de multe domenii aparent disjuncte, centrate simultan pe științe și tehnologie de cel mai înalt nivel și pe capacitatea umană numită „inteligență“. Totodată, ca un ecou al lui Einstein din mijlocul cercetărilor nucleare, specialiști ca Fei-Fei Li (Stanford, Google) amintesc cu fiecare ocazie despre prioritatea umanului, în toate cercetările AI.



Text de

Adrian Manea

Adrian Manea este matematician și profesor, fondator al Poligon Educational, proiect prin care îmbină matematica și științele cu istoria, filosofia, literatura și jocurile. Scrie și pe Substack, Laturi ale științei.

AI&ROBOȚI|AI101

Calculatorul, expertul și Kasparov: De la neuroni artificiali la multiagenți 

De
Dacă ai avea o memorie care conține toate informațiile din istorie, formulele matematice și legile științei, în toate limbile Pămîntului ai spune că ești inteligenți? Dar dacă ai putea câștiga lejer orice meci de șah în fața lui Garry Kasparov? Conferința de presă de după s-ar putea să te dea însă de gol.
AI&ROBOȚI|SLOW FORWARD

DeepSeek vs OpenAI. Chiar s-a spart bula?

De
Aproape imediat după ce Trump anunța o investiție de 500 de miliarde de dolari în AI, DeepSeek, un model chinezesc, șoca lumea cu rezultate similare lui ChatGPT, obținute cu mai puțină procesare și consum de energie. Și nu e singura veste care vine din China.
AI&ROBOȚI|TENDINȚE

Cum îi ajută AI-ul pe cei care au probleme când călătoresc?

De
Pentru o aplicație de rezervări ca Kiwi.com, AI-ul care să trimită acasă angajații din call center-uri n-a venit. În schimb, îi scapă de răspunsuri la întrebările simple. Cel puțin pe moment.
AI&ROBOȚI|OVERVIEW

Armatele lumii cochetează cu AI-ul. Care ar trebui să fie regulile?

De
 Problema „roboților ucigași” era până de curând ipotetică, dar boom-ul AI din ultimii ani a accelerat dezvoltarea acestora și, mai mult, a permis testarea în zone de război. Ce se întâmplă însă dacă îi lași  să ia decizii?