Portishead1 / Getty Images

Când asistentul AI devine specialist39 min read

De Adrian Manea 28.04.2025

Inteligența artificială stă de vorbă cu tine, îți rezumă cărți, scrie eseuri și cod, gândește repede, învață și nu uită niciodată. Dar cum se descurcă printre experți și cercetători?

Jensen Huang, CEO al Nvidia, spunea într-o discuție recentă// ​​„Jensen Huang on GPUs – Computerphile”, youtube.com // pe canalul de YouTube Computerphile, că îi place să citească articole de cercetare de pe arXiv,// „Inside arXiv—the Most Transformative Platform in All of Science”, wired.com // care găzduiește una dintre cele mai mari colecții de preprint-uri din domenii științifice diverse în format open access

Cercetătorii le încarcă pe arXiv înainte de a le trimite revistelor de specialitate, care le mai pot revizui și, eventual, restricționa accesul. Huang alege articole variate, dar recunoaște că pe multe nu le înțelege, pentru că i se par prea tehnice și aprofundate. Dar are un as în mânecă: ChatGPT.

Pe lângă rezumatele și ideile principale pe care LLM-ul i le oferă în formatul binecunoscut, cu liniuțe și paragrafe scurte, șeful companiei care a devenit în doar câțiva ani motorul inteligenței artificiale globale – furnizând inclusiv hardware-ul pe care e construit ChatGPT – cere lămuriri, pune întrebări și face legături diverse. „ Am depășit testul Turing,// Cu referire la conversații cotidiene cu AI-ul // deja putem discuta cu un cercetător“, spune Huang, sugerând că modelul înțelege articolele și ți le explică de parcă el le-ar fi scris.

Google a mers și mai departe, iar în cea mai recentă iterație a NotebookLLM, îți generează un podcast cu doi interlocutori care discută rezultatele dintr-un articol de cercetare oricât de complex pe care îl încarci. Poți chiar să intervii în discuție și să completezi, să corectezi sau să întrebi. 

Astfel de exemple nu arată o specializare a inteligenței artificiale, ci mai degrabă este vorba despre aceeași putere computațională cu care, pe baza miilor de terabiți de antrenare, face legături și generează conversații, mai mult sau mai puțin tehnice, de parcă le-ar ști pe toate. Până de curând, în fața unor provocări extrem de specializate și de nișate, ca problemele de matematică de nivel olimpic, modelele AI își dovedeau limitările.

Olimpiada Internațională de Matematică Artificială

Raționamentul matematic a fost de mult timp în atenția dezvoltatorilor de inteligență artificială – se poate spune chiar de la începuturi. Minimalismul prin care limbajul tehnic al matematicii reușește să exprime proprietăți abstracte, dar și să facă legături spectaculoase, în raționamentele logice cu care demonstrează teoreme sunt atribute pe care puține domenii ale cunoașterii umane le mai dețin. 

În prima jumătate a secolului XX, matematicienii și logicienii au trecut de la dezordine la rigoare și înapoi. Bertrand Russell, Alfred North Whitehead și Kurt Gödel sunt principalii logicieni care au esențializat la maximum limbajul matematic. Cei doi britanici au vrut să demonstreze că orice propoziție matematică, orice teoremă și, în general, orice problemă se poate formula doar cu ajutorul logicii matematice, dar austriacul a arătat că astfel de eforturi nu pot avea succes. 

Logica matematică este fie incompletă, adică se pot descoperi oricând întrebări imposibil de răspuns (numite indecidabile), fie contradictorie – adică vor exista demonstrații (corecte!) care arată că aceeași afirmație este și adevărată, și falsă.

Lumea către care ne-a deschis ochii Gödel are multe particularități greu de înțeles fără o pregătire serioasă în logică. De exemplu, o propoziție indecidabilă nu este una prea complicată pe care nimeni nu a rezolvat-o, cum este cazul conjecturilor. Propozițiile indecidabile sunt acele ciudățenii despre care s-a demonstrat că nu se pot rezolva. Un caz aparte îl alcătuiesc cele independente de sistemul formal al matematicii. Ca și cum ar fi exprimate în altă limbă imposibil de tradus, le poți declara fie adevărate, fie false și niciodată nu vei găsi contradicții sau conflicte logice din cauza asta. Unul dintre cele mai faimoase exemple este ipoteza continuului, a lui Georg Cantor, părintele teoriei mulțimilor, care a demonstrat, printre altele, că există mai multe tipuri de infinit.// Ierarhia infinitului, poligonedu.substack.com //

De la publicarea rezultatelor lui Gödel (anii 1950) și până în prezent, matematicienii au descoperit mai multe probleme indecidabile sau independente, dar asta nu i-a oprit pe logicieni să continue să caute așa-numitele „fundamente ale matematicii“ –  un set minimalist de teorii din care să poată deduce toate proprietățile și teoremele; o mare teorie a totului, așa cum caută fizicienii. 

Una dintre încercările care a produs rezultate spectaculoase este programul fundamentelor univalente sau teoria de omotopie a tipurilor, pornită de matematicianul rus Vladimir Voevodsky, în jurul anului 2010. Detaliile matematice sunt, conform așteptărilor, foarte complicate, dar un merit deosebit al programului este atenția la implementarea pe computer. Voevodsky, împreună cu francezul Thierry Coquand, au demonstrat rezultate care au dus la dezvoltarea unor programe numite demonstratoare automate sau asistenți de demonstrație. Încă dinaintea epocii AI, demonstratoarele au folosit un limbaj specializat, asemănător unui limbaj de programare, cu care verifică dacă raționamentul pe care l-ai scris conține fisuri logice.

Integrarea modelelor de inteligență artificială a fost un pas următor previzibil. Un demonstrator lansat de Microsoft în 2013, Lean, care la început conținea unelte construite special pentru teoria univalentă a lui Voevodsky, este azi în centrul atenției. Atât OpenAI, prin modelul o1, cât și MetaAI, cu al său HTPS, au început din 2022 să integreze inteligența artificială în Lean, mai întâi pentru rezolvarea unor probleme de olimpiadă de matematică și metode didactice. 

Astfel de inițiative au condus la scoaterea Lean de sub dominația Microsoft și formarea unui grup de lucru specializat care să coordoneze dezvoltarea lui (numit Lean FRO), din 2023. Echipa urmărește ca demonstratorul, ajuns la versiunea a patra, să devină simultan potrivit pentru sarcini complexe, dar și prietenos cu utilizatorul, astfel încât să poată fi folosit inclusiv pentru educația matematică.

Noua direcție, care înglobează metode de inteligență artificială, a dus la alte colaborări fructuoase după implicarea OpenAI și MetaAI. De exemplu, în 2023, Tudor Achim și Vlad Tenev (România/Bulgaria), au fondat Harmonic,// Mai multe detalii pe harmonic.fun/about // un startup californian prin care încearcă să limiteze halucinațiile AI cu ajutorul metodelor de matematică formală, integrate în Lean. 

Convingerea lor este că dacă un model de inteligență artificială este antrenat și construit cu ajutorul matematicii formale, atunci sunt limitate până la eliminare toate situațiile când modelul inventează citate, titluri și alte tipuri de conținut – fenomen care afectează majoritatea modelelor disponibile astăzi.

Kevin Buzzard, profesor de matematică la Imperial College London și unul dintre cei mai populari dezvoltatori și promotori ai Lean, a pornit un proiect prin care vrea să folosească Lean pentru a reface și verifica demonstrația Marii Teoreme a lui Fermat. Rezultatul, venit după mai bine de 350 ani (1637-1995), reunește eforturile multor generații de matematicieni și, chiar dacă britanicul Sir Andrew Wiles este creditat pentru cireașa de pe tort – demonstrația care a pus ultima piesă în puzzle –, e greșit să spui că Wiles sau oricine ar putea reface întregul raționament sau chiar să-l înțeleagă în totalitate. 

Sub titlul Xena Project, Buzzard folosește mixul de inteligență artificială și logică formală din Lean ca să automatizeze astfel de demonstrații. Pe drum, Lean și AI-ul din el trebuie să învețe noi domenii ale matematicii, pe care cercetătorii le-au construit în încercările de demonstrație ori ca aplicații.

Buzzard face parte din echipa AIMO, alături de nume importante din matematică și inteligență artificială, ca laureații Fields Terence Tao și Timothy Gowers, fostul antrenor al lotului olimpic american Po-Shen Loh și creatorul primei versiuni Lean, Leo de Moura. Organizația oferă un premiu de 10 milioane de dolari pentru un model de inteligență artificială care să reușească performanțe de aur pe probleme de nivelul Olimpiadei Internaționale de Matematică (OIM). Cerințele suplimentare sunt ca, atât datele de antrenare, cât și soluțiile produse de AI să fie prezentate în format natural, exact ca un concurent uman. 

După doar un an, divizia DeepMind de la Google a anunțat că a dezvoltat modele care obțin performanțe de nivelul medaliei de argint. Deloc surprinzător, modelul DeepMind, numit AlphaProof, este construit pe baza integrării în Lean, așa că soluțiile matematice pot fi și verificate logic automat. Premiul AIMO încă nu a fost decernat, dar astfel de progrese arată că este doar o chestiune de (scurt) timp.

Geometria proteinelor

La finalul anului trecut, DeepMind s-a aflat din nou în centrul atenției, când Demis Hassabis, cofondator și CEO, a fost recompensat cu premiul Nobel pentru chimie. Mai mult, Nobelul din 2024 a oferit încă o surpriză legată de inteligența artificială, prin decernarea premiului pentru fizică lui Geoffrey Hinton, pionier în cercetări de deep learning și backpropagation, metode astăzi indispensabile pentru multe sisteme AI. 

Dar Hassabis nu este chimist, iar Hinton nu este fizician, iar asta a stârnit controverse în jurul distincțiilor. Totuși, justificarea comisiei Nobel arată că, în cazul lui Hinton, modele fundamentale de fizică, numite mașini Boltzmann și inspirate din studiul statistic al sistemelor de particule sunt responsabile de funcționarea neuronilor artificiali, în timp ce teoriile și tehnologia dezvoltate de Hassabis și echipa lui au pornit adevărate revoluții în studiul proteinelor.

CITEȘTE ȘI: Înainte să câștige Nobelul, a creat un joc video despre autocrație în Europa de Est

Recunoașterea academică internațională pe care o primesc astfel de cercetări arată că modelele de inteligență artificială pot fi construite și pentru sarcini extrem de specializate. Prin puterea uriașă de calcul, care depășește cu mult capacitatea oricărui cercetător uman și chiar pe cea a unor întregi echipe, modelele AI ajută în primul rând în problemele bazate pe multe cazuri de analizat.

AlphaGeometry și AlphaProof, de exemplu, modele construite special pentru probleme de matematică de nivel OIM, acordă atenție deosebită problemelor de geometrie. Algebra sau analiza matematică sunt mai ușor de tratat computațional, așa că efortul deosebit apare în geometrie, unde concurenții umani au avantajul vizualizării, pentru care AI-ul trebuie să compenseze. 

Echipa DeepMind a venit cu o soluție ingenioasă și, într-un fel, deschizătoare de drumuri, care combină modelele lingvistice mari (LLM) cu un motor simbolic (symbolic engine). Tehnologia permite modelului să înțeleagă în sens abstract problemele de matematică, pe baza limbajului specializat: notații, simboluri și convenții specifice, conform explicațiilor lui Thang Luong,// „Google DeepMind’s new AI system can solve complex geometry problems”, technologyreview.com // cercetător în echipa AlphaGeometry.

Totodată, accentul asupra problemelor de geometrie, dintre toate ramurile matematicii, are multe implicații în alte domenii. Aranjarea spațială, construcțiile bidimensionale sau tridimensionale, precum și traducerea acestora în limbaj matematic specific, procesat apoi cu reguli de logică matematică, sunt abilități folositoare și în afara contextului de olimpiadă, ca în vedere artificială, fizică, arhitectură sau inginerie.

Tocmai înțelegerea spațială este cheia și într-un alt domeniu supraspecializat care a progresat mult cu ajutorul inteligenței artificiale: studiul proteinelor și, mai precis, aranjarea lor spațială (numită protein folding). Este vorba chiar de tema pentru care Hassabis a primit Nobelul, împreună cu americanii John Jumper și David Baker. 

CITEȘTE ȘI: Nobel 2024. Structura proteinelor, primul premiu în care AI-ul e folosit în cercetare

Proteinele sunt molecule organice uriașe – numite și macromolecule, pentru că pot fi alcătuite și din mii de atomi –, cu importanță biologică deosebită. Dacă ai fost atent la conținutul nutrițional când îți pregătești masa ori pur și simplu te-ai uitat pe eticheta unui produs alimentar, ai văzut că proteinele sunt nelipsite și, într-adevăr, sunt principalul combustibil al organismului. Tot proteinele au un rol fundamental în creșterea și dezvoltarea corpului uman și nu numai. 

„Gena: o istorie fascinantă“ este o carte excelentă și multipremiată, publicată în 2018, în care medicul Siddhartha Mukherjee explică legătura fundamentală dintre genetică și structura proteinelor. În gene se află instrucțiunile de fabricare a proteinelor, o adevărată rețetă pentru creșterea și dezvoltarea fiecăruia dintre noi, iar orice eroare, în care un astfel de ingredient (adică o proteină) se formează greșit poate conduce la boli sau defecte genetice grave.

Problema structurii proteinelor era, de mai mulți ani, aproape imposibil de rezolvat. Când ai mii de atomi la dispoziție, cum poți ști în ce fel se aranjează ei în spațiu într-o moleculă de proteină? Posibilitățile teoretice sunt inimaginabil de multe, iar alegerea celei reale, în conformitate cu legile fizicii și chimiei părea o căutare a acului în carul cu fân.

AlphaFold este soluția propusă de DeepMind, printr-o echipă care i-a implicat pe toți cei trei laureați Nobel din 2024 de-a lungul mai multor ani. Eforturile lor au fost completate și chiar concurate de alte modele, lucru care arată, în primul rând, o încredere tot mai mare în inteligența artificială drept partener de cercetare, pe teme de maxim interes și importanță.

Mohammed AlQuraishi, biolog la Universitatea Columbia, a contribuit la dezvoltarea OpenFold, un concurent al AlphaFold, și a imprimat o politică diferită în cercetarea din domeniu. Proiectul a adunat mai mulți specialiști, cu intenția programatică de a-l face open source, în timp ce primele versiuni de la DeepMind erau accesibile doar angajaților. Între timp, ajuns la iterația a treia, AlphaFold este și el open source.

Într-un articol// ​​„Did AI Solve the Protein-Folding Problem?”, magazine.hms.harvard.edu // pentru revista Facultății de Medicină a Universității Harvard, AlQuraishi și Nazim Bouatta vorbesc despre revoluția adusă de AI în probleme de cercetare precum structura proteinelor. Dincolo de detaliile tehnice, computaționale – deloc de neglijat, dar abordabile pentru supercomputerele zilelor noastre –, structura proteinelor prezintă o problemă similară geometriei de nivel OIM: componenta vizuală. 

Tot mai mulți lingviști și informaticieni cercetează modul în care modelele AI, majoritatea construite pe structura LLM, pot rezolva sarcini atât de diverse, inclusiv legate de vedere artificială și orientare spațială. Dacă, într-adevăr, modelele AI au fost construite pornind de la principii ale neuronilor, atunci trebuie să existe o legătură între limbaj, procesarea lui și probleme spațiale și computaționale complexe. Înțelegerea acestor legături va ajuta atât la îmbunătățirea modelelor de inteligență artificială, cât și în cercetările și studiile umane, mai ales că vederea și orientarea spațială sunt abilități bine dezvoltate în cazul oamenilor.

CITEȘTE ȘI: Calculatorul, expertul și Kasparov: De la neuroni artificiali la multiagenți 

Modele precum OpenFold și AlphaFold nu sunt baghete magice care să rezolve orice problemă legată de structura proteinelor, dar ajutorul oferit de ele nu poate fi ignorat. Cercetători precum AlQuraishi și Bouatta susțin cercetările de tip open source în AI și, mai mult, invită la o explorare mai atentă a metodologiei de cercetare. „Mai demult, înțelegerea fenomenelor era motivația noastră. 

În această epocă AI, pare că o pierdem parțial. Obținem beneficii practice, dar nu neapărat și unele intelectuale“, concluzionează AlQuraishi, susținând, asemenea lingviștilor, o atenție mai mare asupra modului în care învață și progresează modelele AI la nivel fundamental.

Biologie și roboți

Ajutorul pe care îl oferă modelele de inteligență artificială depășește căsuța de text în care conversezi pe diverse teme, oricât de specializate. Dar o cercetare// „Agents Are Not Enough”, arxiv.org // din decembrie 2024 arată că (multi)agenții, propuși ca întruchiparea asistentului perfect, nu sunt suficienți pentru a spune că inteligența artificială îți îmbunătățește cu adevărat viața, într-un mod care să fie și sustenabil. Cei doi coautori susțin că este necesară și o integrare a lor într-un ecosistem, alături de „Sims“, un fel de avataruri virtuale care să îți învețe comportamentul, gusturile și alte preferințe greu de cuantificat.

O astfel de propunere este mai degrabă la nivel conceptual sau, în orice caz, nu pentru viitorul imediat. Dar observația că (multi)agenții nu își ating potențialul maxim este justificată. Există astăzi multe modele AI, supraspecializate, generaliste, conversaționale, la fel cum există și proiecte de asistare sau chiar înlocuire a funcțiilor și capacităților umane, precum vederea artificială sau exoscheleții. Pe lângă acestea, robotica a progresat semnificativ, atât prin dispozitive specializate ca roverele spațiale, cât și prin umanoizi. 

Apare, deci, naturală provocarea de a le combina într-un robot inteligent, antrenat pentru sarcini specifice sau generalist – un adevărat „om“ din metal și siliciu.

DeepMind pare pregătită și pentru un astfel de viitor. În martie 2025, au anunțat divizia Gemini Robotics, care urmărește să combine inteligența artificială din asistentul Gemini cu robotica dezvoltată și furnizată de Apptronik, o companie texană, ajunsă lider mondial pe piața roboților umanoizi, prin parteneriate cu NASA și investitori ca Mercedes Benz.

Gemini Robotics nu este o noutate în peisajul zilelor noastre. Încă din 2017, de exemplu, OpenAI vorbea despre roboți care învață și, din 2022 până în prezent, au publicat mai multe videoclipuri și articole care arată progresul în construcția robotului Figure. Inteligența, furnizată de modele specializate ale producătorului ChatGPT, este completată de îndemânare, mers biped și treburi logistice.

O doză de optimism pentru viitorul omenirii vine de la Bill Gates. În viziunea lui, sunt trei domenii în care inteligența artificială și roboții nu vor putea înlocui oamenii: studiul biologiei, programarea și energia (management, producție, distribuție). Cofondatorul Microsoft mai adaugă și că sporturile sunt ceva aparte, fiindcă poți avea roboți care să joace perfect sau să arate forță supraomenească, dar astfel de meciuri nu ar mai avea farmecul specific pe care îl urmăresc spectatorii.

Dacă energia, mai ales la nivel continental sau global, este, într-adevăr, un domeniu extrem de complex, în care orice eroare poate fi catastrofală, e greu de argumentat că programarea și chiar biologia sunt cariere ce vor rămâne în sarcina oamenilor. Însuși Jensen Huang sfătuiește tinerii să nu se mai orienteze cu atâta încredere către o carieră de programator, iar Sam Altman, CEO al OpenAI, încurajează angajările de specialiști în IT, dar numai în măsura în care pot folosi cu mare eficiență uneltele AI. 

Marc Benioff, CEO al Salesforce, una dintre cele mai importante companii americane în domeniul soluțiilor de cloud pentru business, declara recent// „Salesforce is “seriously debating” software engineer hires in 2025 due to the “incredible productivity gains” from agentic AIs”, windowscentral.com // că se gândește foarte serios dacă să mai angajeze vreodată un programator sau pur și simplu să-și îmbunătățească suita AI.

În ce privește biologia, în afară de structura proteinelor, sunt deja multe situații în care inteligența artificială contribuie în moduri în care cercetătorii umani nu ar putea s-o facă. De exemplu, imagistica medicală este revoluționată de modelele AI, atât în analiza datelor, cât și în predicții. În plus, deși Human Genome Project a putut fi dus la bun sfârșit fără contribuții decisive din partea inteligenței artificiale, devine tot mai clar că un astfel de proiect nu s-ar mai desfășura astăzi în același mod. Ba chiar Institutul Național de Sănătate Publică (NIH) din Statele Unite are pe pagina dedicată geneticii un apel către dezvoltarea și utilizarea modelelor specializate de inteligență artificială în domeniu.

Viitorul AI între oameni sau invers?

Care e situația, așadar, după mai bine de jumătate de secol de cercetări și implementări ale inteligenței artificiale? 

La numai câteva săptămâni după lansarea primelor modele generative, mai multe companii au trecut la concedieri și, de atunci, numărul lor a continuat să crească. Totodată, calitatea produselor AI este perfectibilă în cel mai bun caz și îndoielnică în destul de multe. Ideea lui Bill Gates despre specializările „sigure“, ferite de revoluția AI, sunt greu de susținut, dar și la fel de greu de contrazis în peisajul actual atât de rapid al dezvoltării inteligenței artificiale. 

Modelele au început ele înseși parcă să aibă propriile „meserii“ și roluri clare, de la prietenul cu care stai la o șuetă pe teme diverse la profesorul care te ajută la teme sau ți le rezolvă cu totul și, poate cel mai impresionant, la asistentul de cercetare cu care poți face schimb de idei, te poate inspira, verifica și sfătui. Cum spunea Jensen Huang în interviul de la început, dialogul cu LLM-ul îți oferă experiența reală să ceri lămuriri sau chiar să faci brainstorming cu un expert, aproape indiferent de domeniu.

În plus, ca și oamenii, AI-ul învață. În dialoguri, nu-ți cere feedback doar pentru analize de marketing a satisfacției clientului, ci te încurajează să scrii explicit ce au răspuns corect și unde a greșit, pentru a-l ajuta să se îmbunătățească. AI-ul nu uită și prețuiește cel mai mult informațiile introduse de oameni, dar are, de multe ori, și capacitatea să înțeleagă dacă încerci să-l induci în eroare.

Dacă privești lucrurile strict cantitativ, din punctul de vedere al puterii de calcul și al vitezei de execuție, omul nu va putea depăși niciodată computerul, cu atât mai puțin sistemele complexe de inteligență artificială. Dar știi asta încă de când au apărut primele mașinării de calcul – a fost unul dintre premisele design-ului: depășindu-te în unele privințe, să te ajute. La fel cum computerul și-a găsit locul printre noi (e drept, a mai dat din coate și s-a strecurat și unde nu-ți doreai neapărat, dar a și întârziat în alte locuri), la fel o fac și modelele AI și roboții umanoizi.

Cursa nu este, așadar, între (multi)agenții de inteligență artificială și oameni – pe asta am pierdut-o aproape de la început, dacă ai privit-o ca pe o cursă) –, ci modelele între ele se străduiesc să ne rezolve cât mai multe dintre probleme și, într-un sens care poate suna amenințător, să devină independente. Urmăresc autoreglarea, în lipsa feedback-ului uman și chiar a programării, manifestarea și implementarea voinței și a intențiilor. În trei cuvinte: inteligența artificială generală (AGI).

Să fie doar o chestiune de timp și momentul în care AI-ul își va decerna singur un Nobel?



Text de

Adrian Manea

Adrian Manea este matematician și profesor, fondator al Poligon Educational, proiect prin care îmbină matematica și științele cu istoria, filosofia, literatura și jocurile. Scrie și pe Substack, Laturi ale științei.

AI&ROBOȚI|AI101

Inteligența artificială generală e aici? Spune-i să-mi facă o cafea!

De
Dezvoltarea accelerată a modelelor de inteligență artificială a condus la provocarea de a construi, literalmente, un supraom. Unii specialiști cred că-l vom avea în mai puțin de un deceniu. Dacă e așa, suntem pregătiți? Și ce va urma după?
AI&ROBOȚI|TURNING POINT

E mai ușor pentru că nu e om: de ce face tot mai multă lume terapie cu ChatGPT

De
Modelele de limbaj de mari dimensiuni, cum e ChatGPT, schimbă modul în care oamenii interacționează cu munca și educația, iar mai nou, și cu propriile emoții. Am vorbit cu trei oameni care folosesc AI-ul pentru a cere suport emoțional, apoi am cerut părerea unei psihoterapeute despre acest fenomen. 
AI&ROBOȚI|OVERVIEW

Google spune că inteligența artificială generală vine mai repede decât îți ia să te reprofilezi

De
CFO-ul OpenAI a prezentat cu entuziasm beneficiile AGI, dar a evitat să discute și riscurile iminente. În același timp, raportul exhaustiv al Google despre AGI avertizează asupra riscurilor de abuz și subliniază necesitatea unor reglementări și pregătiri imediate.
AI&ROBOȚI|AI101

Calculatorul, expertul și Kasparov: De la neuroni artificiali la multiagenți 

De
Dacă ai avea o memorie care conține toate informațiile din istorie, formulele matematice și legile științei, în toate limbile Pămîntului ai spune că ești inteligenți? Dar dacă ai putea câștiga lejer orice meci de șah în fața lui Garry Kasparov? Conferința de presă de după s-ar putea să te dea însă de gol.