Bernie Nunez / Allsport via Getty Images
Calculatorul, expertul și Kasparov: De la neuroni artificiali la multiagenți 48 min read
Dacă ai avea o memorie care conține toate informațiile din istorie, formulele matematice și legile științei, în toate limbile Pămîntului ai spune că ești inteligent? Dar dacă ai putea câștiga lejer orice meci de șah în fața lui Garry Kasparov? Conferința de presă de după s-ar putea să te dea însă de gol.
Viteza cu care operau primele calculatoare era impresionantă, chiar din primele iterații, când se bazau pe lămpi (tuburi electronice), întrucât electronica însăși era o disciplină la începuturi. Dar în lipsa unor invenții care să facă și ordine în rezultatele acestor calcule, computerele ar fi rămas doar niște abace ultrarapide.
Funcționarea mașinăriilor de calcul s-a bazat de la început pe reguli de logică matematică; rezultatele erau previzibile și depindeau exclusiv de datele de intrare. Dacă problema era formulată corect, computerul oferea răspunsul potrivit, de fiecare dată. Dar dacă dificultatea era însăși formularea problemei?
Cum poți ști dacă un computer va răspunde la orice întrebare, câtă vreme este corect formulată și are suficientă putere de calcul și timp la dispoziție? Iată esența uneia dintre cele mai importante căutări care a schimbat definitiv modul în care interacționăm cu computerele – prin limbaje de programare, dar și prin alte elemente fundamentale de arhitectură.
Calcule și logică
Entscheidungsproblem sau problema deciziei a fost formulată prima dată de matematicienii David Hilbert și Wilhelm Ackermann, în 1928. Fără detalii tehnice, ea întreabă dacă, folosind metodele raționamentului logico-matematic disponibil, poate exista un algoritm universal, adică unul care să răspundă mereu cu „da“ sau „nu“ la orice întrebare, formulată, la rândul ei, într-un limbaj logico-matematic potrivit.
În termeni specifici, ea se referă la calculabilitate, pentru că o astfel de întrebare, la care se poate răspunde printr-o procedură algoritmică (adică prin pași concreți, succesivi), se numește funcție calculabilă și este un concept care stă la baza teoriei algoritmilor.
Spre deosebire de rezultatele matematicienilor, care nu au nevoie neapărat să și execute calculele implicate, informatica, mai ales cînd urmează să fie implementată, necesită ca soluțiile să poată fi implementate concret, prin pași executați unul câte unul.
Răspunsul negativ la problema deciziei a venit în 1935-36, independent, prin cercetările logicianului american Alonzo Church și matematicianului britanic Alan Turing. În plus, demonstrația lui Turing este fundamentală în evoluția computerelor, pentru că a fost formulată cu ajutorul mașinilor Turing, concepte teoretice care modelează, într-un fel, computerele ideale.
La fel cum întreaga matematică este sortită să întâlnească probleme pe care nu le va putea rezolva – conform teoremelor demonstrate de Kurt Gödel –, și proaspăt apărutele computere vor avea limitări inevitabile. Și tot ca în matematică, rezultatul a fost luat la cunoștință, dar nu a împiedicat semnificativ evoluția ulterioară.
După ce arhitectura computerelor a fost pusă la punct, în special prin rezultatele teoretice ale lui Alan Turing și John von Neumann, urmate de implementări inginerești, tot mai mulți cercetători le-au privit drept niște „creiere externalizate“, înzestrate cu sau pe cale să acumuleze capacități de gândire. Așa se explică faptul că primele evoluții în arhitectura și programarea computerelor sunt în strânsă legătură cu o înțelegere a neuronilor artificiali.
Semnalele electrice ale creierului, teoretizate încă din secolul al XVIII-lea prin Luigi Galvani și demonstrate experimental în secolul XX de Santiago Ramón y Cajal și alții au fost asemănate cu funcționarea binară a circuitelor care alcătuiesc procesoarele („creierele“) computerelor. Mai mult, ele sunt cadrul perfect pentru studiul logicii, căci, la nivel elementar, propozițiile pot fi adevărate sau false — exact cum semnalele electrice sau neuronii pot să fie într-o stare activă (1) sau dezactivată (0).
Warren McCullogh și Walter Pitts, doi dintre pionierii inteligenței artificiale, au arătat că nu doar propozițiile simple pot fi tratate cu această abordare binară, ci că se pot construi circuite care să includă și conectori logici precum „și“, „sau“ ori negația. Astfel, neuronii artificiali, modelați prin circuite electrice binare, pot cu adevărat să rezolve probleme de logică a propozițiilor.
McCullogh și Pitts și-au implementat descoperirile construind așa-numiții // McCullogh și Pitts au avut primele idei în majoritate teoretice în 1948, implementate ulterior în mai multe iterații, începînd cu 1958. Prima echipă implicată a fost condusă de Frank Rosenblatt, cunoscut ca părintele metodei deep learning. // dispozitive care, în termenii prezentului se numesc clasificatoare binare, folosite în domeniul învățării automate (machine learning). De exemplu, s-a încercat o simulare a vederii, folosind rețele de fotocelule, organizate pe straturi, corespunzătoare circuitelor anatomice: un strat pentru „retină“, care preia stimulul vizual, următorul pentru proiecție, care realizează prima prelucrare, apoi unul pentru analiză și, în fine, unul de decizie. Așa cum arată numele, clasificatoarele binare aveau ca scop doar să decidă dacă stimulul corespunde sau nu unei imagini prestabilite, cum ar fi dacă o imagine dată conține sau nu o pisică.
Perceptronii nu au avut succesul așteptat, motivele fiind și practice, și teoretice. În 1969, Marvin Minsky și Seymour Papert au arătat o limitare fundamentală: un astfel de dispozitiv nu ar putea învăța să folosească unii conectori de logică elementară, precum sau exclusiv (XOR). Capacitățile lor erau, deci, limitate prin design. Însă ideea nu s-a pierdut, iar astăzi, multe sisteme de învățare automată folosesc o structură pe straturi, cu control fin asupra fiecărei etape.
În paralel, același Minsky, împreună cu Dean Edmonds, au construit și ei un computer care funcționa pe baza principiilor neuronilor. Botezat SNARC (Stochastic Neural Analog Reinforcement Calculator), computerul simula o rețea alcătuită din 40 de neuroni, implementați prin lămpi (tuburi electronice), coordonați prin sistemul de pilot automat preluat dintr-un bombardier B-24.
Minsky și-a dus cercetările mai departe, iar în studiile doctorale, absolvite la Princeton, a prezentat o lucrare despre calcule matematice realizate cu ajutorul rețelelor de neuroni artificiali. Comisia care i-a analizat lucrarea a avut rezerve dacă o astfel de temă merită încurajată, dar tânărul Minsky a fost încurajat de marele John von Neumann, care a recunoscut o temă cu impact major în viitor.
Cum învățăm?
Dacă rețelele neuronale s-ar fi rezumat la simularea activității electrice a neuronilor, adică simplul ciclu binar de activare-dezactivare, care să fie interpretat logico-matematic drept adevăr și falsitate, cu greu le-am fi putut încadra la inteligență artificială. Învățarea înseamnă mult mai mult, iar reproducerea ei într-o mașinărie a fost încurajată de așa-numitele automate celulare și al lor comportament emergent.
Adesea, automatele sunt încadrate în categoria jocurilor, cu mențiunea specială că nu au un jucător. Numite, de aceea, și 0-player games, ele propun configurații inițiale și un set de reguli de evoluție. Singura intervenție externă este în modificarea acestui setup inițial, după care automatul, „jocul“, evoluează singur, pe baza regulilor prestabilite.
Cel mai cunoscut exemplu este, de departe, „Jocul vieții“, introdus de matematicianul britanic John H. Conway în 1970 și folosit în multe studii de sociologie, geopolitică, economie și nu numai, tocmai pentru a simula interacțiunile complexe între elemente care evoluează pe baza unor reguli simple de supraviețuire. Configurațiile care pot apărea pe parcursul unui astfel de joc sunt spectaculoase și, nu de puține ori, surprinzătoare, motiv pentru care se poate spune că sistemul ajunge să se autoorganizeze.
Implicația, în ce privește inteligența artificială, este că și un sistem cu o configurație aparent simplă și cu reguli elementare de funcționare, poate conduce la structuri complexe, pe parcurs ce evoluează – adică învață.
Psihologia și neuroștiințele încearcă de mai bine de un secol să definească învățarea. De-a lungul studiilor, au apărut mai multe descrieri ale acestui proces și dintre acestea, una dintre cele mai importante pentru inteligența artificială a fost formulată de Donald Hebb în 1949. Teoria hebbiană, care are și o formulare succintă – // Exprimarea originală, în engleză, este și mai sugestivă: Neurons that fire together, wire together. // arată că dacă doi sau mai mulți neuroni contribuie repetat la o anumită activitate, atunci ei ajung să se lege din punct de vedere biologic (sinaptic).
Astfel, rețeaua neuronală învață că acei neuroni colaborează de obicei și eficientizează activarea lor, implicându-i mereu împreună. Situația seamănă cu o autoorganizare: dacă la început, neuronii se activează independent, după ce sunt solicitați în mai multe sarcini, se creează legături, grupări optimizate pentru activități anume.
Alte două elemente teoretice contribuie la evoluția rețelelor neuronale către unele care modelează inteligența umană, ambele recunoscute chiar în denumirea calculatorului SNARC: stocastica și consolidarea (reinforcement).
Calculul stocastic este o ramură a matematicii care lucrează în primul rând cu statistică și probabilități. Sistemele modelate stocastic (printre care se numără și cele cuantice) abandonează certitudinea, determinismul în ce privește evoluția lor: nu mai putem fi siguri de starea viitoare a sistemului, ci știm doar o serie de stări posibile, împreună cu probabilitățile lor de realizare. Cele mai folosite modele, atât în inteligența artificială, cât și în studiul altor sisteme reale, sunt lanțurile Markov și modelele Monte Carlo.
Rusul Andrei Markov, matematician și șahist, este cel care a introdus lanțurile care îi poartă numele, în primul deceniu al secolului trecut. Cu ajutorul lor se studiază evoluția în timp a unor sisteme cu stări multiple, știind probabilitățile de tranziție între acestea. Lanțurile Markov extind studiul evenimentelor probabilistice condiționate: cînd un lucru se întâmplă numai dacă a avut loc o condiție preliminară, care, la rândul ei, are o anumită probabilitate de realizare și poate fi condiționată de o alta ș.a.m.d. – de unde și denumirea de lanț.
Pe lângă analiza pas cu pas, metodele introduse de Markov permit și studii „la limită“, în viitor, în cazul sistemelor a căror evoluție se stabilizează. Ca un mix dintre două substanțe, cînd se atinge o concentrație maximă iar amestecul devine omogen, și sistemele complexe, chiar dacă evoluează probabilistic, pot ajunge la o stare de echilibru: un fel de saturație, după care devin stabile și evoluția lor este certă.
Unele dintre cele mai importante aplicații ale lanțurilor Markov sunt în fenomene influențate de atât de mulți factori, încât certitudinea este imposibilă. Exemplul favorit este în domeniul fiziologiei și medicinei, unde atât factorii interni, cum ar fi cei anatomici sau genetici, cât și cei externi // Discuția este complexă și de mare impact în domeniu. Este vorba despre așa-numita dezbatere “nature vs nurture” în evoluția unui organism, între factorii naturali (biologici, genetici etc.) și cei care țin de creștere (alimentație, mediu, societate etc.). // Este, deci, și cazul proceselor neuronale, al activării neuronilor și al învățării.
Un alt răspuns al matematicii în fața complexității sistemelor este prin simulări Monte Carlo. Ca aproape întregul domeniu al statisticii și probabilităților, originea acestor metode este în jocurile de noroc. Matematicianul polonez Stanisław Ulam, creditat cu introducerea acestui subiect, a fost inspirat de viciul unui unchi care-și făcea veacul la cazinoul din Monte Carlo.
Metoda matematică studiază un sistem complex prin alegerea aleatorie a unor date de intrare „de probă“. De exemplu, dacă o mașinărie funcționează după reguli necunoscute sau suficient de complexe încât să fie imposibil studiul ei precis, se generează aleatoriu (dar controlat, cu distribuție cunoscută) date de intrare, care se introduc în mașinăria respectivă.
Astfel, „simulăm“ funcționarea generală a sistemului, ghilimelele arătând că, de fapt, datele de intrare nu au fost tocmai oarecare. Avem o doză de control asupra input-ului, apoi nu știm exact cum este acesta procesat – fie pentru că funcționează probabilistic, fie din cauza complexității prea mari – și analizăm output-ul. În mod evident, metoda este potrivită pentru sistemele inteligente, indiferent de cum am descrie „inteligența“, întrucât complexitatea lor face ca funcționarea exactă să fie, practic, magie.
Dar chiar și prin compromisul propus de calculul stocastic și simulările Monte Carlo, prin care certitudinea cedează în fața complexității, nu ne apropiem suficient de funcționarea reală a învățării. Un element lipsă este consolidarea (reinforcement), idee care stă la baza ciberneticii. Conform părintelui acestei discipline, americanul Norbert Wiener, cibernetica se ocupă de sistemele cu feedback. Etimologia cuvântului este din greacă, unde kybernetes înseamnă timonier, cel care conduce o navă. Alegerea nu este întâmplătoare și este explicată de Wiener în cartea prin care introduce domeniul, Cibernetica sau controlul și comunicarea în animal și mașinărie, publicată în 1948.
Timonierul controlează nava fiind mereu atent la consecințele mișcărilor sale, care nu sunt instantanee. Dacă o mașină sau o trăsură răspund imediat la comenzi, o navă arată cu întîrziere consecințele comenzilor cârmaciului, de care acesta trebuie să țină din nou cont și așa mai departe, până la crearea unei bucle de feedback (feedback loop): decizia are consecințe, care sunt reintroduse (fed back) în sistem ca factori pentru decizia următoare ș.a.m.d.
Organizare și căutare
Învățarea eficientă presupune memorie, dar mai ales tehnici de organizare și accesare eficientă a acesteia. În sisteme artificiale, spațiul de stocare sau memoria (volatilă [RAM] sau permanentă [HDD/SSD]) nu are o organizare internă; este o simplă „grămadă“, care trebuie grupată, sortată și accesată preferențial prin metode programate separat.
Aceste metode aduc provocări suplimentare deloc simple; nu întâmplător, algoritmul de căutare Google este unul dintre cele mai prețioase secrete ale industriei. Fiecare produs sau serviciu care folosește o bază de date – fie că e vorba de servicii de streaming ca Netflix sau Spotify sau sisteme de fișiere ca Windows Explorer sau macOS Finder – implementează metode specifice de grupare, sortare și căutare mai mult sau mai puțin eficiente.
Variantele avansate folosesc metadate, // De exemplu, genul filmului pe Netflix, anul apariției unui album pe Spotify, data ultimei modificări a fișierului în Explorer sau Finder // care adaugă criterii suplimentare, încât căutarea devine mai precisă, cu prețul lărgirii spațiului de posibilități – pe lângă numele înregistrărilor, avem acum de căutat și în alte câmpuri.
În plus, căutările pot avea și forme complexe: ne interesează o înregistrare al cărui nume începe cu „A“, a fost modificată ieri și este de tip imagine JPEG cu o mărime de cel puțin 1 MB.
La fel funcționează și memoria, cunoștințele și amintirile, umane sau artificiale. Memoria are o componentă de durată scurtă (sau memorie de lucru), prin care, de exemplu, ținem minte numele persoanei cu care vorbim acum și una de durată lungă, unde stocăm amintiri vechi de luni sau ani. Când vrem să recuperăm astfel de informații, căutăm în memorie după diverse elemente de care ne putem lega. Dacă nu știm data la care s-a întâmplat ce căutăm, ne legăm de o culoare, o persoană sau un sentiment anume. Chiar dacă astfel de detalii sunt mai greu de cuantificat și de implementat artificial, e clar că este vorba de același tip de proces.
Încă dinaintea cursei către inteligența artificială, cercetătorii au realizat importanța organizării și căutării informației stocate într-un computer. Puterea de calcul creștea, la fel și spațiul de stocare, așa că regăsirea informației nu trebuia să semene cu răsfoirea unei cărți sau căutarea într-o arhivă de dosare, pagină cu pagină. Astfel au apărut așa-numitele sisteme expert, organizate și cu ajutorul programării logice.
Intenția era ca un computer să se comporte ca un expert în unul sau mai multe domenii, adică să poată stoca („ști“) cât mai multe informații specifice. Dar simplul fapt că informația era memorată undeva nu-l făcea și folositor, cel puțin nu mai mult decât o bibliotecă sau un dulap de arhivare. Expertul artificial, asemenea celui real, trebuia să și răspundă la întrebări din domeniile specifice, formulate cât se poate de precis.
Exprimarea afirmațiilor din limbajul comun sub formă logică riguroasă a fost și este o preocupare seculară, dacă nu milenară. „Toți S sunt P“, „Dacă (A și B) atunci (C sau D)“, „Orice x cu proprietatea P(x) este y“ — toate sunt exemple pe care le întâlnim în logica matematică și urmăresc să abstractizeze, adică să prezinte într-o formă generală, propoziții din limbajul comun. Toți oamenii sunt muritori. Dacă plouă și e frig, vin cu mașina sau cu metroul. Orice român este european.
Odată extrasă (abstractizată) informația sub formă logică, propozițiile se pot prelucra cu metode matematice. Astfel, în 1972 apare Prolog, unul dintre cele mai influente limbaje de programare logică. În loc să manipuleze numere în calcule aritmetice, programarea logică folosește o serie de „fapte“, adevăruri memorate în compilator, cu ajutorul cărora se analizează programul curent, alcătuit din propoziții și conectori. Dacă se poate ajunge de la premisă la concluzie cu ajutorul regulilor compilatorului, atunci programul este „adevărat“.
Cu programarea logică, computerele intră într-o nouă epocă: nu doar ca asistenți virtuali ai oamenilor, ci și printr-un alt set de puteri supraomenești, pe lângă cele aritmetice. Un sistem expert, care are memorate cu mult mai multe date și informații decât ar putea reține vreun om, și care este programat cu un limbaj ca Prolog dă primele semne că „înțelege“ cunoștințele pe care le are. Căutarea într-un astfel de depozit nu se mai reduce la simpla parcurgere a biților din memorie, ci conține și implicații, consecințe și alte legături între faptele memorate.
Una dintre primele aplicații ale programării logice în general a fost în demonstrarea automată a teoremelor sau verificarea demonstrațiilor, un domeniu care astăzi este puternic influențat de evoluția inteligenței artificiale.
CITEȘTE ȘI: Este inteligența artificială gata să demonstreze teoreme?
Cea mai faimoasă utilizare a limbajului Prolog este în sistemul IBM Watson, lansat într-o primă iterație în 2011 și conceput pentru a răspunde la întrebări de tipul „Știi și câștigi“.
Șah mat(ematic)
La nivelul anilor 1970, așadar, cercetările în inteligența artificială evoluaseră atât în ceea ce privește înțelegerea învățării (la nivel natural și artificial), cât și a stocării și regăsirii informației, prin sisteme expert și programare logică. Totuși, lipseau foarte multe componente care să facă un computer cu adevărat inteligent, indiferent de definiția termenului.
De exemplu, programarea logică a permis un control mai fin asupra căutărilor în memoria computerelor, care, în 1980 ajungea la nivelul gigabiților, prin introducerea de către IBM a sistemului 3380. Dar, dacă ne imaginăm un graf pentru modelarea acestei memorii organizate, realizăm că un control mai fin asupra organizării și parcurgerii grafului înseamnă inevitabil adăugarea de noi informații.
Cu cât vrem să știm mai precis un lucru, cu atât avem mai mult de studiat, în sens pur cantitativ. Puterea de căutare crește, ca și costul ei. De aceea, computerele au trebuit să împrumute încă o trăsătură umană: simțul riscului, al deciziei asumate.
Când suntem copleșiți de informații care ar trebui să cântărească în luarea unei decizii, nu de puține ori ne asumăm o cale care nu ia în calcul absolut toți factorii sau scenariile posibile, ci doar încearcă să maximizeze beneficiile, scăzând, pe cât se poate, pierderile. Nicăieri nu este mai des folosită o astfel de abordare decât în teoria jocurilor.
Apărută ca ramură a matematicii, prin John von Neumann (1928), teoria jocurilor a fost aplicată imediat în economie, dar și în domeniul militar. În forma cea mai simplă, o strategie câștigătoare pentru un joc (o investiție, o asigurare, un război ș.a.) se numește minimax și încearcă să obțină un minimum de pierderi chiar și în cazul cel mai rău în care s-ar aduce un maximum de daune.
Prin dezvoltările ulterioare, teoria jocurilor a ajuns, practic, sinonimă cu teoria deciziei, aplicată în scenarii tot mai diverse și mai importante. Printre altele, a adus multe Premii Nobel în Economie, dintre care cel mai cunoscut este al matematicianului american John F. Nash, inspirația pentru filmul A Beautiful Mind, din 2001.
Folosirea teoriei (matematice a) jocurilor în inteligența artificială a adus progrese semnificative. În linii mari, a permis rețelelor neuronale să ia decizii optime, alegând, de exemplu, să ignore într-o căutare informații care au șanse minime de relevanță. În plus, a deschis calea către mașinăriile concepute special pentru jocuri extrem de complexe, ca șahul.
Teoria probabilităților și statistica au fost folosite pentru modelarea jocurilor de noroc, pentru că acolo strategia este secundară în evoluția partidelor. De cealaltă parte, șahul prezintă multe trăsături care îl fac potrivit pentru studii științifice. Deși pornește cu doar 16 piese pentru fiecare jucător, iar fiecare piesă are propriile mutări permise, jocul de șah poate evolua rapid și aproape incontrolabil.
Nu se poate calcula numărul total de posibilități ce apar într-un meci generic, fiindcă sunt implicate prea multe variabile, dar o estimare des folosită presupune că au loc 40 de mutări (o durată medie, folosită convențional). În acest caz, există cel puțin 10120 (1 urmat de 120 zerouri) moduri în care poate evolua o partidă. Numărul nu doar că este imens, dar este mai mare decât totalul atomilor din Univers, iar la fiecare configurație se poate ajunge printr-o anume serie de mutări, rezultate din decizii, influențate de strategii proprii și ale adversarului.
Niciun șahist, indiferent de abilități, nu ar putea să memoreze toate posibilitățile, pentru ca performanța proprie să se reducă la o simplă căutare în această bibliotecă uriașă — deși mulți mari maeștri au o memorie remarcabilă și pot identifica ușor configurații din meciuri istorice. Dar este o sarcină de care se pot ocupa computerele. Însă dacă ar fi vorba de simplă forță brută – căutare prin cele 10120 posibilități –, s-ar irosi timp și resurse computaționale. De aceea, se folosesc metode specifice teoriei jocurilor. Șahul implică doi jucători care-și doresc să câștige.
Conform matematicii lui von Neumann, situația se reduce la doi concurenți care-și caută propriul minimax. O optimizare suplimentară a fost adusă de americanul John McCarthy (creatorul limbajului de programare Lisp, cu care ne vom mai întâlni), când a introdus, în anii `50, un algoritm numit căutare alfa-beta. Algoritmul ține evidența simultană a mutărilor celor doi jucători și, când unul dintre ei ia o decizie, elimină din posibilități acele mutări care, din cauza celei precedente, nu mai pot minimiza daunele.
Algoritmul a fost îmbunătățit succesiv de-a lungul anilor, iar cea mai recentă variantă datează din 1986, prin contribuțiile israelianului Avi Wigderson, laureat al celor mai importante distincții din informatică (Premiul Gödel în 2009, Premiul Abel în 2021 și Premiul Turing în 2023).

Bernie Nunez / Allsport via Getty Images
Previzibil, nu a durat mult până ce astfel de algoritmi au fost implementați în computere special construite pentru jocul de șah. Unul dintre cele mai cunoscute este Deep Blue, de la IBM. Computerul a pierdut în fața lui Garry Kasparov în 1996, dar varianta actualizată și-a luat revanșa, în 1997, cu o performanță de peste 100 milioane de căutări alfa-beta pe secundă și peste 40 de mutări în avans, parcurse și filtrate cu algoritmi ca alfa-beta.
Astăzi, standardul în materie de șahiști artificiali este Stockfish, un program complex, care folosește rețele neuronale, lansat cu licență open source în 2008 și actualizat continuu. Programul are performanța echivalentă a unui jucător cu peste 3600 de puncte Elo (metodă specifică de evaluare a șahiștilor), în timp ce Magnus Carlsen, jucătorul cu cel mai mare punctaj din istorie, a avut, în vârful carierei, 2882 puncte.
Discuții despre viitor
La finalul anului 2024, Sundar Pichai și Demis Hassabis, CEO ai Alphabet și, respectiv, DeepMind, lansau Gemini 2.0, noua generație a asistentului virtual de la Google. Mai remarcabil decât capacitățile noului asistent a fost, însă, accentul comunicatului de presă asupra epocii agenților și multi-agenților.
Ideea de inteligență artificială ca „agent“ nu este nouă și a apărut aproape simultan cu primele dezvoltări în domeniu. Prin definiție, un agent este orice element hardware sau software care poate să perceapă mediul prin senzori și să acționeze robotic în consecință.
Teoreticienii au definit agenți cu scopuri precise și deosebesc, de pildă, agenți bazați pe reflexe, care răspund imediat la informațiile de la senzori, fără prea mult accent asupra procesului decizional, de alții bazați pe utilitate, care urmăresc o strategie de tip minimax specifică ș.a.m.d. Sarcinile tot mai complexe la care ar trebui să răspundă un astfel de agent, în calitate de asistent virtual, impun, însă, evoluția către multi-agenți, versiuni mai flexibile, antrenate și adaptate mai multor scopuri.
De exemplu, unul dintre motivele pentru care jocul de Go nu a putut fi modelat de inteligență artificială // Încă nu există un computer care să cîștige consecvent în fața marilor maeștri umani, cum o face Stockfish la șah // este că acest joc are și o componentă vizuală, estetică. Pe parcurs ce meciul evoluează – cu mult mai multe mutări și configurații posibile decât șahul, pe o tablă de 19 x 19 poziții –, marii maeștri se orientează și după tipare vizuale, aranjamente care țin și de strategie, dar și de aspect. Un computer de Go ar trebui, deci, fie să conțină receptori și vedere artificială, fie să simuleze cumva această informație vizuală, pe âîngă strategiile generale de joc.
În plus, chiar dacă teoria jocurilor are implicații majore în micro- și macro-economie, iar calculele aritmetice ne ușurează viața în multe privințe, interacțiunile de fiecare zi sunt rareori atât de specializate, pentru utilizatorul generic. Un asistent virtual, dacă este să-și arate utilitatea, trebuie să ajute și la sarcini comune.
Multi-agenții, așadar, trebuie să poată face mult mai mult decât calcule, căutări de informații și decizii care să minimizeze pierderile în investiții sau tranzacții complexe. Nicăieri nu este mai evident acest lucru decât în conversații. Capacitatea de a purta o conversație simplă, care să nu semene cu un interogatoriu sau un examen oral ultraspecializat, este strict necesară oricărui asistent virtual ce vrea să treacă drept inteligent. În definitiv, nu acesta era criteriul esențial din testul Turing?
Până în anii 2000, majoritatea programelor de inteligență artificială nu puteau purta o conversație reală. Chiar dacă erau construiți aparte, sub forma așa-numiților chatbots, nu făceau mai mult decât să recunoască tipare ale vorbirii sau să caute cuvinte-cheie în dicționare, cu care formulau replici generice, repetitive, robotice. Unul dintre primele exemple, ELIZA (dezvoltat între 1964 și 1967) a fost construit chiar ca o satiră a monotoniei conversațiilor.
A fost nevoie, așadar, de noi descoperiri, atât în lingvistica computațională, în procesarea limbajului natural, cât și în tehnologiile implicate în inteligența artificială pînă ce primii agenți conversaționali să poată fi lansați. Astăzi, după doar două decenii și jumătate, majoritatea sistemelor care țin prima pagină de știri IT & tech sunt de tip LLM: modele lingvistice mari (Large Language Models), iar asistenți virtuali precum Siri, Alexa ori Gemini, care funcționează pe aceleași baze, ușurează tot mai multe sarcini comune.