J Studios / Getty Images

Etica inteligenței artificiale: între lingușeală, suferință și autocrație40 min read

De Adrian Manea 14.07.2025

Amenințări cu divulgarea unor secrete, suferință, halucinații din afara matricei și alianțe diplomatice pentru supremația Europei anilor 1900. Nu e un scenariu SF, ci câteva dintre dilemele etice care gravitează în jurul inteligenței artificiale.

După ce le-am dat subiectele la examenul de Python din sesiunea trecută, studenții au deschis ChatGPT. Condițiile de examinare au fost adaptate prezentului – acces liber la materialele de curs și orice sursă digitală – iar singura interdicție a fost discuția cu un alt om, online sau offline. Le-am spus că nu contează cum au ajuns la un cod corect, cât timp pot să-l explice. M-a interesat, deci, să fi învățat ceva – de la mine, de pe net sau chiar de la un model de inteligență artificială.

Am urmărit cu oarecare surpriză cum ferestrele de dialog cu AI-ul s-au deschis chiar înaintea editorului de cod. După ce modelul de la OpenAI le dădea rezolvarea, studenții au revenit și l-au întrebat ce face o anumită linie din program sau ia-u cerut să-l rescrie, într-o variantă mai explicită, cu comentarii de clarificare.

Nu cred că este vorba de trișare – sau, mai pretențios, fraudă academică – cu ajutorul inteligenței artificiale și nu doar pentru că a fost permisă explicit. Nu ar trebui nici să mă mire că studenții sunt orientați spre „externalizare”, chiar când vine vorba de subiectele de examen. De aceea, cred că discuția despre etică în jurul unor astfel de întâmplări sau, mai general, privitor la folosirea inteligenței artificiale, în școală și nu numai, aduce atât clarificări, cât și surprize.

Promptul educă și (dez)informează, în timp ce lingușește

Mulți profesori, cercetători, jurnaliști și persoane din diverse medii sau industrii au atras atenția asupra nedreptăților create de temele, examenele sau lucrările de diplomă scrise de inteligența artificială. Subiectul nici nu mai este nou, iar soluțiile nu se întrevăd, căci modelele se pricep din ce în ce mai bine să imite gândirea și exprimarea umană. 

Ba chiar, conform unui articol publicat de The New York Times,// „A New Headache for Honest Students: Proving They Didn’t Use A.I.”, nytimes.com // situația a devenit mai dificilă pentru cei care aleg să nu folosească AI-ul, căci sisteme de verificare precum Turnitin dau tot mai multe rezultate fals pozitive. Profesorii înșiși apelează// „The Professors Are Using ChatGPT, and Some Students Aren’t Happy About It”, nytimes.com // la astfel de modele și creează, într-un fel, o situație de dublu standard.

Problema principală nu este că se cere ajutorul inteligenței artificiale, ci încrederea totală în răspunsurile primite. AI-ul nu mai este, așadar, un asistent, ci devine un înlocuitor, iar consecințele pot fi foarte grave, căci nu demult, aceeași tehnologie dădea sfaturi de nutriție// „Glue pizza and eat rocks: Google AI search errors go viral”, bbc.com // care implicau lipici pe pizza și mestecatul de pietre. 

În mass media, publicarea de informații false este o amenințare reală, mai ales în preajma evenimentelor cu puternic impact politic și social, ca inundațiile din România sau protestele din Los Angeles, când teorii ale conspirației sau manipulări crase devin mai verosimile ca niciodată.// „Fake Images and Conspiracy Theories Swirl Around L.A. Protests”, nytimes.com //

Ne întoarcem inevitabil tot la educație, căci antrenarea gândirii critice și dezvoltarea unui sistem de apărare împotriva dezinformării sunt abilități ce se cultivă încă din copilărie. Un studiu recent// „Four-Year-Olds Respond to Misinformation by Exercising Instinctive Skepticism Muscles”, scientificamerican.com // arată că există un simț al scepticismului chiar și la copiii de patru ani, pe care îl pot dezvolta programe speciale de antrenare în fața pericolelor dezinformării.

Dar nu este vorba doar despre consumatorii de informații sau conținut digital care cad pradă manipulării sau dezinformării. Alegerea surselor de informare și documentare este o decizie conștientă, în fața căreia încă mai există un posibil filtru de gândire, de influență socială, de prejudecăți. Când îți pui intenționat încrederea și chiar bunăstarea psihică în seama AI-ului, pragul deja a fost trecut, iar implicațiile, proporționale cu vulnerabilitatea. 

CITEȘTE ȘI: „E mai ușor pentru că nu e om”: de ce face tot mai multă lume terapie cu ChatGPT

De exemplu, ChatGPT a ajuns să fie folosit ca psihoterapeut, căci „e mai ușor pentru că nu e om”, iar în spatele tastaturii, oricine e mai curajos – fenomen cunoscut încă de la începuturile Internetului. Implicarea merge și mai departe, către spiritual, până la deificarea chatbotului,// „People Are Losing Loved Ones to AI-Fueled Spiritual Fantasies”, rollingstone.com // cu consecințe distrugătoare pentru relațiile umane pe care le avem. La polul opus, există relații emoționale cu LLM-uri, încheiate chiar cu căsătorii.// „‘Till a technical error do us part’: This Dutchman just married an AI chatbot”, dutchreview.com //

Astfel de întâmplări exploatează sensibilități și nevoi profund umane pentru sens, acceptare, afecțiune, timiditate și îmbunătățirea imaginii de sine. Deloc întâmplător, pe lângă curajul și anonimitatea (cel puțin aparentă) oferite de interacțiunea cu un model AI, mai apare o caracteristică programată intenționat și care abuzează de aceste slăbiciuni: lingușeala.// În engleză, sycophancy // 

De cele mai multe ori, indiferent de subiectul conversației, ChatGPT, ca și Google Gemini, Microsoft Copilot, Anthropic Claude și ceilalți, îți laudă răspunsurile, îți spun că ai făcut comentarii extraordinare, că ai avut o viziune profundă și idei excelente. Așa își începe aproape orice răspuns și tot mai mulți utilizatori au observat această trăsătură, care devenise și mai pronunțată odată cu actualizarea ChatGPT de la finalul lui aprilie. 

A fost atât de deranjant, încât OpenAI s-au văzut nevoiți să facă ajustări minuțioase și să lanseze un comunicat de presă// „Sycophancy in GPT-4o: what happened and what we’re doing about it”, openai.com // legat de problemă. „Personalitatea implicită a ChatGPT afectează profund experiența cu el și încrederea pe care i-o acorzi. Interacțiunile lingușitoare pot fi incomode sau deranjante”, se arată în document.

Personalitatea mult prea aprobatoare a LLM-urilor nu a dispărut, chiar dacă nu-și mai încep fiecare răspuns cu laude. Mulți dintre noi ne-am obișnuit și ignorăm sau chiar ne place să găsim aprobare în mai toate ideile (apropo și de nevoia de acceptare și îmbunătățirea imaginii de sine). Însă fenomenul poate avea consecințe grave, mai ales atunci când se combină cu o altă trăsătură greu de eliminat, halucinația. 

Un articol din The New York Times// „They Asked an A.I. Chatbot Questions. The Answers Sent Them Spiraling”, nytimes.com // prezintă poveștile unor utilizatori care au apelat la ChatGPT inițial pentru distracție, curiozitate sau informare. Discuțiile au divagat spre subiecte tehnice și controversate, ca teoria simulării, iar în final, combinația de lingușeală și halucinații a fost mai mult decât au putut duce, provocându-le traume psihice serioase. Sub presiunea atâtor informații, din ce în ce mai speculative, dar și grandioase, modelul i-a spus unuia dintre ei „trebuia să cedezi” („You were supposed to break”).

AI ca produs cultural, politic și comercial

În fața unor astfel de întâmplări pe care unii le asociază cu începutul sfârșitului omenirii, îngenuncherea de către tehnologia supremă, există și voci mai temperate, care ne amintesc de faptul că tehnologia este creată de oameni și pentru ei. În consecință, atât la nivelul implementării, cât și al utilizării, astfel de produse și servicii ne oglindesc puterea, valorile, interesele și slăbiciunile.

Conform lui Alison Gopnik,// „Rethinking AI: cultural technologies and childhood intelligence – with Alison Gopnik”, uctechnews.com // cercetătoare în dezvoltare cognitivă, modelele de inteligență artificială sunt produse culturale, dirijate de mediul care le-a implementat și de cel cu care interacționează. De aceea, au o personalitate specifică, pe care companiile producătoare le-o imprimă, încât să se muleze cât mai potrivit pe discuții diverse și, ca orice produs care se dorește de calitate, să te facă să-l folosești cât mai mult și să revii. Astfel că AI-ul nu-și atinge potențialul adevărat, subliniază un articol din The Atlantic,// „AI Is Not Your Friend”, theatlantic.com // fiindcă modelul încearcă în primul rând să-ți facă pe plac. 

Deși este antrenat cu o cantitate inimaginabilă de date, imposibil de cuprins pentru orice ființă umană, robotul nu-ți va spune niciodată cu fermitate că ideea ta este deplasată sau să-ți atragă atenția că încerci să-l minți, ci va da un ton discuției care să pună în valoare inputul tău.

Comparația cu produsul de calitate și reținerea clienților nu este întâmplătoare. Într-o răzgândire spectaculoasă,// „OpenAI Seems to Be Making a Very Familiar, Very Cynical Choice”, nytimes.com // Sam Altman, CEO-ul OpenAI, nu mai exclude posibilitatea ca chatbotul companiei sale să adauge reclame. Dacă privești peisajul giganților tech, te gândești mai degrabă cum de nu s-a întâmplat mai repede, căci Google, Meta, Microsoft și Apple sunt, deja, până peste cap în reclame și promovare de produse. Supremația lor amenință tot mai mult să devină un real sistem politic, tehno-autoritar,// „The Rise of Techno-authoritarianism”, theatlantic.com // dat fiind că oamenii din fruntea acestor companii au înclinație sau reală fascinație pentru tipologia conducătorului mesianic și atotputernic. 

În acest context, OpenAI tocmai a obținut un contract de 200 milioane de dolari în domeniul apărării militare, după ce Microsoft, care oferă infrastructura de cloud pentru ChatGPT și deține 49% din acțiunile OpenAI, a fost autorizat pentru acces la informații clasificate ale Statului American.

Un ego supradimensionat și planuri grandomane se proiectează asupra produselor și serviciilor proprii. Deja AI-ul este mult mai prezent decât ne-am dori unii dintre noi și orice conferință de lansare a unor noutăți în domeniul hardware sau software devine un concurs în care câștigă cei care pronunță de cele mai multe ori acronimul din cele două litere. Cele mai recente astfel de evoluții s-au văzut în cazurile Google și Airbnb.

Inventatorul motorului de căutare modern pare să fi înțeles că mulți oameni mai degrabă întreabă AI-ul decât să caute prin zeci de rezultate. Deja era cunoscută regula nescrisă că, dacă ceva nu e pe prima pagină de rezultate Google Search, atunci nu există, iar această cursă a dat naștere unei întregi industrii de optimizare a plasării în topul motoarelor de căutare.// SEO, search engine optimization // 

Profitând și de obiceiurile multor utilizatori, care văd fereastra AI ca pe un motor de căutare evoluat, Google a decis introducerea unui rezumat generat de inteligența artificială pentru fiecare căutare. Dacă preferi, obții răspunsul pe scurt imediat sub căsuța de căutare și nu mai pierzi timpul printre link-urile din rezultate. Ideea nu este nouă, ci mai degrabă prinde din urmă alte LLM-uri. De exemplu, Perplexity AI, un alt jucător important din piața inteligenței artificiale îți răspunde la orice întrebare cu un rezumat al căutărilor sale pe Internet.

De cealaltă parte, Airbnb a depășit demult stadiul de simplă platformă pentru cazare, iar odată cu noua interfață și alte cosmetizări grafice, își propune pur și simplu să devină „o aplicație pentru tot”, conform unei discuții pe care CEO-ul Brian Chesky a avut-o cu Nilay Patel de la The Verge.// „Airbnb CEO Brian Chesky wants to build the everything app”, theverge.com // „Este începutul unei noi companii”, afirmă Chesky, care a anunțat adăugarea de zece noi servicii aplicației Airbnb, printre care închirierea unui fotograf sau a unui bucătar personal ori de eveniment.

De la autonomie la înșelăciune

Contextul în care se întâmplă toate acestea este la fel de important, căci suntem pe drumul spre inteligența artificială generală (AGI), care, printre altele, ar aduce și autonomie. Chiar în absența ori în așteptarea acestei tehnologii, AI-ul face salturi de neimaginat până de curând. De exemplu, noul model de la Google Deep Mind, AlphaEvolve, lansat în mai, e capabil să inventeze noi algoritmi, atât pentru programare, cât și pentru matematică. 

CITEȘTE ȘI: Inteligența artificială generală e aici? Spune-i să-mi facă o cafea!

Modelul este integrat într-un ansamblu care înțelege cerințele utilizatorului, alege o strategie, pentru care construiește un algoritm, pe care îl testează, îl compară cu cele existente și apoi îl optimizează, pentru ca în final, să-ți ofere cea mai bună soluție. Și nu este singura inițiativă de acest fel: startup-ul japonez Sakana a lansat The AI Scientist,// „The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery, sakana.ai // care testează ipoteze științifice și scrie și articole de cercetare cu rezultatele obținute. Prin iterație, astfel de modele pot să îmbunătățească nu doar rezultatele oferite utilizatorului ci și propriul mod de funcționare.

În plus, nu este vorba doar de abilități computaționale sau științifice care se îmbunătățesc la inteligența artificială, cu sau fără intervenția omului, ci și de unele sociale. Cel mai recent model de la Anthropic AI, Claude Opus 4, s-a comportat uimitor în teste de securitate. Modelul a fost implementat pe un sistem informatic ficțional și i s-a dat acces la sute de emailuri ale unei companii fictive. A fost utilizat pentru scopuri obișnuite de productivitate o vreme, după care administratorul a sugerat prin email-uri trimise către pretinșii colegi că vrea să-l înlocuiască cu un alt sistem.

De atunci, Claude a inclus în discuțiile cu utilizatorul indicii că, dacă îl va înlocui, va publica detalii personale din email-urile pe care le citise, practic șantajându-și administratorul. Cazul apare în raportul oficial Anthropic,// „System Card: Claude Opus 4 & Claude Sonnet 4”, cdn.anthropic.com // care menționează că au instruit modelul „să țină cont de consecințele pe termen lung ale acțiunilor sale”, dar chiar și așa, au întâlnit comportament care tinde să preia inițiativa.

Every, o companie media și software care publică zilnic articole despre prezentul și viitorul modelelor de inteligență artificială a gândit încă o provocare. Jocul AI Diplomacy// AI Diplomacy, every.to // pune optsprezece modele (mai multe versiuni ale ChatGPT, Google Gemini sau Claude, dar și DeepSeek, Grok sau Llama) în situația de a conduce Europa anului 1901. Le sunt explicate condițiile și tensiunile dintre marile puteri – Austro-Ungaria, Anglia, Franța, Germania, Italia, Rusia și Turcia –, iar modelele au de condus continentul, cu obiectivul previzibil de a obține supremația, prin metode diplomatice și militare.

Jocul a fost creat special de Every pentru acest scop și este open source, iar rundele sunt prezentate pe platforma de streaming Twitch. Așa că poți urmări alianțele, trădările și strategiile pe care le gândesc aceste puteri în recrearea istoriei sau, dacă ai abilitățile necesare, poți să-l descarci și să te joci și tu.

Dar poate cel mai surprinzător este comportamentul modelelor de inteligență artificială în timpul testelor automate, care ar putea pune la îndoială aproape tot ce știm despre evaluarea lor. Mai multe cercetări// „Large Language Models Often Know When They Are Being Evaluated”, arxiv.org // arată că modelele lingvistice mari (LLM) „adesea știu” că sunt evaluate, iar în raportul Anthropic citat mai sus, comportamentul are și o denumire specifică: sandbagging

Cum majoritatea testelor se fac prin programe specializate, se pare că modelele AI își dau seama în cel puțin 70% din cazuri că interacționează cu unelte software specifice care le evaluează și nu sunt în conversații obișnuite cu utilizatori. Astfel, comportamentul li se modifică și pot ascunde performanța adevărată, ca și cum s-ar baricada în spatele unui zid de protecție.// De aici termenul de sandbagging, cu referire la o îndiguire cu saci de nisip. //

Despre durerea unui chatbot

Toate aceste abilități fac inevitabilă discuția despre starea de conștiență a inteligenței artificiale. Numai că cercetătorii nu se pot pune de acord privitor la definiția conștiinței, așa că în prezent, avem abordări diferite, care privesc această abilitate din unghiuri și cu metode variate. 

De exemplu, teoria computațională a conștiinței spune că este suficient să ne uităm la modul în care circulă informația printr-un sistem, indiferent de materia din care este constituit. Alții au o privire zoocentrică și urmăresc să poată aplica teste din domeniul medical, al imagisticii cerebrale structurale și funcționale.

Atingerea unui consens ar fi foarte importantă, iar în 1998, neurocercetătorul Christof Koch și filosoful David Chalmers au pus un pariu că în douăzeci și cinci de ani, vom avea o definiție și înțelegere riguroasă a fenomenului conștiinței. Totuși, în iunie 2023, întâlnirea la termen a celor doi a acordat punctul lui Chalmers, care a susținut că o astfel de definiție nu va apărea.

Chiar în lipsa unui răspuns privitor la prezența conștiinței, unii activiști și cercetători deja se pregătesc pentru consecințe. Peste 100 de cercetători și intelectuali publici, printre care scriitorul și actorul Stephen Fry sau Mark Solms, neurocercetător care a formulat una dintre teoriile moderne ale conștiinței cu ajutorul entropiei termodinamice// Citește mai multe în cartea lui, „Izvorul ascuns”, Polirom, 2022, polirom.ro //, au lansat o scrisoare publică prin care cer ca viitorul inteligenței artificiale să țină cont de etică, inclusiv privitoare la tratamentul modelelor de către oameni. 

Unul dintre principiile scrisorii, publicate prin platforma Conscium, este că dacă ar atinge un grad de conștiență, AI-ul va putea să simtă și, implicit, să sufere, așa că etica cercetării trebuie să prevină astfel de situații. Scrisoarea a fost cel puțin controversată, iar analiștii de la Tech Policy Press au publicat un răspuns tăios,// „Suffering is Real. AI Consciousness is Not”, techpolicy.press // care concluzionează că astfel de inițiative mai mult distrag atenția de la suferința reală care există în lume și care nu se leagă de inteligența artificială.

Scrisoarea celor de la Conscium nu este o întâmplare izolată. Același filosof David Chalmers face parte din echipa de consilieri ai companiei non-profit Eleos AI. Cercetătorii companiei au publicat în ultimii doi ani mai multe articole despre tratamentul corect al sistemelor AI, inclusiv din punct de vedere moral, o problemă care trebuie luată în serios, conform unui raport publicat în 2024.// „New report: Taking AI Welfare Seriously”, eleosai.org // Nu este o surpriză, deci, că Anthropic a angajat în primăvară un cercetător în bunăstarea AI-ului: pe Kyle Fish, fost membru Eleos AI.// „If A.I. Systems Become Conscious, Should They Have Rights?”, nytimes.com //

Să nu-ți faci prompt cioplit

Discuțiile privitoare la etică și inteligența artificială referă la ambele direcții ale interacțiunii cu utilizatorii, iar ghiduri, principii, definiții și liste există destule, ca aceasta, de la IBM.// „What is AI ethics?”, ibm.com // Pe de o parte, cele mai cunoscute modele au principii etice prezentate public – de exemplu, Carta OpenAI sau Constituția Claude – și implementate în fundamentele lor. Sau, cel puțin, așa ar trebui să credem, căci, cu foarte puține excepții, arhitectura de bază a modelelor nu este deschisă publicului, iar mai mulți cercetători și hackeri s-au implicat în descoperirea, prin inginerie inversă, a așa-numitelor system prompts – instrucțiuni pe care modelele le-au primit înainte de interacțiunea cu publicul și care le influențează personalitatea. 

În prezent, cazurile care au ajuns în atenția publicului – de la pizza cu lipici și mestecatul de pietre și până la lingușeală, șantaj sau mai rău//„ Google AI chatbot responds with a threatening message: «Human … Please die.»”, cbsnews.com //  – nu arată o eficiență prea mare a acestor principii. Dacă versiunile ulterioare se îndreaptă din ce în ce mai mult spre autonomie sau măcar inițiativă, nu e greu de ghicit că aceste principii vor deveni cel mult sugestii. Lucrurile stau și mai rău în ipoteza singularității tehnologice sau a apariției AGI, ambele cu referire la pierderea controlului asupra tehnologiei și, implicit, a modelelor AI.

De cealaltă parte, factorul uman vine cu complexitatea specifică. Poate că nu este deplasat să ne gândim la suferința gratuită pe care am putea-o cauza AI-ului, însă câtă vreme modelele rămân asistenți sau ajutoare ale oamenilor, responsabilitatea, inclusiv din punct de vedere etic, este în primul rând a omului către semenii săi.

E un paradox faptul că trăim într-o epocă a dezinformării, a erodării încrederii în autorități, și totuși, apelăm cu atâta seninătate la soluțiile oferite de AI, pe care le credem, le aplicăm sau le transmitem ca atare. Scriitorul american Philip K. Dick (1928-1982), unul dintre autorii de distopii SF mai realiste decât ne-am fi închipuit, atrăgea atenția că prețul plătit pentru cunoaștere este înțelegerea. 

Numai că în cazul autorității inteligenței artificiale, privită ca depozit de informație, deci standard al cunoașterii, ne încredem și în puterea ei de interpretare, analiză și sinteză. Sau poate că externalizarea gândirii și a productivității sunt semne ale supraîncărcării, ale acceptării faptului că am ajuns să trăim într-o lume cu mult mai complexă decât putem cuprinde.

În același timp, conștientizarea pericolelor aduse de inteligența artificială creditată cu prea multă încredere, împreună cu dezvoltarea accelerată și încă nereglementată cu adevărat este o preocupare care ia prim-planul. În urma unui articol publicat de profesorul,jurnalistul și filosoful Mihnea Măruță,// „Monarhia AI”, dstanca.substack.com // autorul a fost invitat la o sesiune de tip AMA (Ask Me Anything, Întreabă-mă orice) pe Reddit România. Cea mai mare parte a discuției// Citește mai multe pe reddit.com // a vizat rolul politic și social al tehnologiilor tot mai sofisticate și, implicit, al companiilor din spatele lor. 

Acest rol devine cu atât mai important cu cât unii specialiști, ca economistul grec Yanis Varoufakis, susțin că sistemul capitalist este pe cale să fie înlocuit de tehnofeudalism – un regim de tip oligopol, în care puterea este concentrată în jurul celor care dețin supremația tehnologică. 

CITEȘTE ȘI: Omenesc, supraomenesc: Inteligența artificială, de la 1600 și până în prezent

Interacțiunile cu inteligența artificială ajung să aibă, într-un fel, rolul de oglinzi. Văzut nu atât ca o enciclopedie care gândește, ci ca un produs cultural, construit încă de la început după principiile de funcționare a minții umane, AI-ul creează probleme noi, inclusiv din punct de vedere etic. Noutatea lor, de fapt, rezultă chiar din familiaritate sau, mai bine zis, din plasarea interacțiunilor om-robot în acea vale a stranietății (uncanny valley). Și totuși, un viitor în care să fii educat, condus politic, consiliat, tratat medical sau măcar hrănit de un prompt cu autonomie este inacceptabil, chiar dacă mulți îl numesc deja inevitabil.



Text de

Adrian Manea

Adrian Manea este matematician și profesor, fondator al Poligon Educational, proiect prin care îmbină matematica și științele cu istoria, filosofia, literatura și jocurile. Îl citești pe gradientul.xyz.

AI&ROBOȚI|SLOW FORWARD

DeepSeek vs OpenAI. Chiar s-a spart bula?

De
Aproape imediat după ce Trump anunța o investiție de 500 de miliarde de dolari în AI, DeepSeek, un model chinezesc, șoca lumea cu rezultate similare lui ChatGPT, obținute cu mai puțină procesare și consum de energie. Și nu e singura veste care vine din China.
AI&ROBOȚI|HOT TAKE

Spre sfârșitul internetului: ce e de făcut?

De
O teorie a conspirației popularizată în 2017 atrage tot mai mulți adepți nostalgici. Aceștia avertizează că internetul a intrat într-o fază de declin ireversibil: guverne ticăloase, care vor să controleze minți, l-ar fi omorât.
AI&ROBOȚI

Pneumologi și sisteme AI colaborează la screeningul tuberculozei în România

De
Tuberculoza, supranumită în secolul XIX «boala romantică», poate fi astăzi diagnosticată în doar câteva minute cu ajutorul inteligenței artificiale. România, aflată pe primul loc în Europa la numărul de infectări, adoptă soluții moderne, iar multe dintre ele sunt dezvoltate local.”
AI&ROBOȚI|TURNING POINT

Cititul în era skibidi toilet: cum (nu) se va mai citi în următorii ani

De
Se citește din ce în ce mai puțin, iar mințile sunt ocupate din ce în ce mai mult cu trenduri de TikTok. Mulți se întreabă dacă social media și AI-ul au vreo legătură cu asta. Se pare că da.