Adobe Firefly

Armatele lumii cochetează cu AI-ul. Care ar trebui să fie regulile?15 min read

De Costinel Anuța 16.10.2024

Problema „roboților ucigași” era până de curând ipotetică, dar boom-ul AI din ultimii ani a accelerat dezvoltarea acestora și, mai mult, a permis testarea în zone de război. Ce se întâmplă însă dacă îi lași  să ia decizii?

În mai 2023, cu ocazia unui summit// „Highlights from the RAeS Future Combat Air & Space Capabilities Summit”, aerosociety.com // pe tema capacităților de luptă aeriană și spațială, un militar american a prezentat un scenariu ipotetic care a pus sala pe gânduri – ce faci când o dronă controlată de inteligența artificială devine rebelă și consideră că operatorul uman care trebuie să confirme nimicirea unei ținte încearcă să o împiedice să-și îndeplinească misiunea.  Dacă sistemul AI care comanda drona respectivă definește reușita misiunii exclusiv prin distrugerea țintei, operatorul ar putea fi brusc considerat inamic.

Deși oficialul respectiv a prezentat totul ca fiind un „experiment de gândire”, povestea a fost ulterior rostogolită ca pornind de la un caz real, ceea ce a dus la reacții de genul „v-am spus că AI va genera riscuri existențiale” în rândul scepticilor.

Incidentul nu este real, însă multe state testează deja posibilitatea de a da din ce în ce mai multe funcții sau echipamente militare pe mâna AI.

Războaiele duse cu inteligența artificială

Dacă în statele occidentale obținerea de către AI a  puterii decizionale în cazul unui conflict rămâne deocamdată la nivel de discuție, oamenii de știință chinezi au făcut un pas înainte și au ajuns să creeze inclusiv un comandant militar virtual.// „Chinese scientists create and cage world’s first AI commander in a PLA laboratory”, scmp.com // 

Acesta s-ar afla în laboratorul Facultății pentru Operațiuni Comune de la Universitatea Națională pentru Apărare din Shijiazhuang și ar avea rolul de a înlocui comandanții care nu pot participa la jocurile de război derulate la nivelul instituției. Și în occident exă însă sisteme de analiză a unor cantități mari de date care pot fi folosite și în asistarea deciziei în sistemele militare. Două dintre acestea, despre care s-a vorbit public, sunt Maven (SUA) și Lavender (Israel).

Platforma Maven a fost subiectul unui articol recent destul de detaliat în Bloomberg.// „The Era of Artificial Intelligence Warfare Is Here”, bloomberg.com // Programul AI aferent determină ce date trebuie colectate, adună și analizează inputurile senzorilor și prezintă o cale de urmat, dar decizia de a executa soluția oferită de inteligența artificială aparține, în final, comandantului uman.

Platforma a fost perfecționată în urma mai multor runde de testare, cu ocazia unor conflicte și misiuni în Africa sau Orientul Mijlociu. În cazul acestor regiuni, algoritmii care aveau rezultate foarte bune în alte teatre de război erau mai ineficienți decât operatorii uman, din cauză că confundau obiecte sau echipamente cu forme de relief.

Alte îngrijorări legate de utilizarea fezabilă a Maven sunt legate de încercările adversarilor de a ataca cibernetic platforma pentru a o bloca sau a-i influența funcționarea. Îngrijorările nu sunt însă atât de mari, iar armata americană continuă implementarea soluțiilor AI sub supraveghere umană. Sunt mai mult de 800 de proiecte active, care vizează rezolvarea unor probleme militare, de la analiză de date la planificare logistică.

Cu sistemul Lavender, care ar fi fost utilizat de armata israeliană în selectarea țintelor în Gaza, media a evidențiat că problemele ar fi mult mai mari. Oficialii israelieni// „Report: Israel used AI to identify bombing targets in Gaza”, theverge.com // au negat utilizarea AI fără control uman și au precizat că analiștii umani verifică întotdeauna rezultatele obținute automat, pentru a elimina erorile și a veghea la respectarea legislației internaționale în domeniu.  

Sistemele menționate sunt doar câteva exemple care arată interesul militarilor pentru automatizare în camerele de control, fie pentru a sprijini decizia strategică, fie chiar pentru a lua decizii în situații limită. Desigur, însă, automatizarea în domeniul militar implică riscuri cu un impact mult mai mare decât cel al automatizării unor joburi asupra pieței muncii. 

AI poate deja să „piloteze” drone, roboți și avioane de luptă

Dincolo de comandă și analiză, și echipamentele militare au ajuns pe mâna inteligenței artificiale.Drone și avioane de luptă sau alte mașini terestre sau navale autonome pot fi conduse de AI. Au existat chiar sugestii legate de controlul armamentul nuclear – din fericire, ignorate, cel puțin deocamdată. Dronele joacă deja un rol important în războiul din Ucraina, fie că e vorba de sisteme de identificare a țintelor, de navigare cu ajutorul AI sau de roiuri de drone.// „Ukraine rushes to create AI-enabled war drones”, reuters.com // 

În ciuda sancțiunilor, armata rusă utilizează Lancet-3, un model care, cu ajutorul AI, poate să identifice forma unor vehicule, să calculeze elemente precum unghiul de atac, pentru a crește gradul de distrugere, și chiar poate fi „comandată” de computerul de bord pentru a ataca.// „The Real AI Weapons Are Drones, Not Nukes”, theatlantic.com //

CITEȘTE ȘI: Drone Wars: Cum au schimbat dronele mici și ieftine conflictul din Ucraina

Dar soluțiile AI nu sunt testate numai pentru controlul dronelor. Forțele aeriene americane au confirmat public în 2024 că au realizat prima luptă aeriană între o variantă experimentală a unui F-16, controlată de AI (X-62A VISTA), și un F-16 cu pilot uman.// „Air Force confirms first successful AI dogfight”, theverge.com // 

La sol, combinația robotică-AI și montarea de armament pe câini-roboți deschide calea pentru utilizarea acestora de către forțele armate pentru misiuni cu risc ridicat pentru soldați umani.// „Robot dogs armed with AI-aimed rifles undergo US Marines Special Ops evaluation”, arstechnica.com // Aceste teste vin într-un moment în care oficiali americani precum generalul Mark Milley spun că, în următorii 10-15 ani „cel puțin o treime a forțelor armate ale statelor puternic industrializate s-ar putea să fie robotice”.// „Milley Makes Case for Rules-Based Order, Deterrence in New Era”, defense.gov //

După cum spuneam, a existat inclusiv o dezbatere cu privire la utilizarea inteligenței artificiale pentru controlul armelor nucleare. Și aici există un precedent, deși nu e strict legat de AI, ci de automatizare, în general. În 1983, un ofițer rus care monitoriza sistemul de avertizare nucleară a primit de la computerul care deservea respectivul sistem (și ale cărui programe fuseseră actualizate recent) mesajul că SUA a lansat rachete nucleare asupra Uniunii Sovietice. Ulterior, s-a dovedit că sistemul greșise. O astfel de eroare ar fi putut declanșa un război nuclear.// „Giving an AI control of nuclear weapons: What could possibly go wrong?”, thebulletin.org //

De ce e important ca decizia finală să aparțină oamenilor

Aceste exemple arată preocuparea armatelor lumii pentru utilizarea inteligenței artificiale în controlul diverselor dispozitive sau echipamente militare, pentru a crește rapiditatea și chiar acuratețea cu care acestea își îndeplinesc misiunile. Totuși, sistemele AI nu au atins o maturitate suficientă pentru a garanta o siguranță de 100% (sau chiar 90%) în controlul respectivelor echipamente, iar riscul unor incidente rămâne ridicat. Și aici survine o întrebare esențială: cât de multă autonomie ar trebui să aibă astfel de sisteme în domeniul militar și care decizii ar trebui să rămână în responsabilitatea operatorilor umani?

Paul Scharre, un expert american în arme autonome, autor a două volume interesante pe această temă – Army of None: Autonomous Weapons and the Future of War// Mai multe detalii pe paulscharre.com //​​ și Four Battlegrounds – susține că este nevoie de menținerea unui control uman minim și inițiative globale clare pentru reducerea riscurilor aferente utilizării sistemelor militare controlate de AI.

Printre regulile cerute de Scharre se mai numără interzicerea armamentului autonom care vizează ținte umane, schimbul de bune practici privind testarea sistemelor AI militare pentru a evita accidentele, încheierea unui acord global pentru asigurarea unui control uman strict asupra armamentului nuclear, respectiv reglementarea utilizării dronelor autonome.// „The Perilous Coming Age of AI Warfare”, foreignaffairs.com //

Însă demersurile internaționale pentru transpunerea unor astfel de inițiative în reguli unanim acceptate, încorporate unor tratate care vizează explicit domeniul militar, sunt încă în stadiu incipient. O astfel de inițiativă a fost cea a evenimentelor REAIM (Responsible AI in the Military Domain), primul fiind organizat de Olanda în 2023, iar al doilea de Coreea de Sud în 2024. Ultimul a condus la un plan de acțiune pentru dezvoltarea de sisteme AI responsabile în domeniul militar.// „Full statement: REAIM Blueprint for Action”, thereadable.co //. Evoluțiile înregistrate în anumite conflicte în derulare, precum cel din Ucraina, arată însă că demersurile de responsabilizare a sistemelor AI utilizate în domeniul militar trebuie accelerate, pentru că „timpul nu mai are răbdare”.



Text de

Costinel Anuța

A studiat informatică, management și relații publice si este interesat de noile tehnologii (AI, calculatoare cuantice, biotech)

SOCIETATE|OVERVIEW

Alegeri 2025. Ce spun candidații la prezidențiale despre reglementarea consumului de droguri? 

De
În cursa pentru Cotroceni, principalii candidați abordează problema drogurilor fie prin soluții sociale, fie prin măsuri represive. Unii cer prevenție sau închisoare pe viață pentru traficanți, alții vor subiectul în CSAT. Dar puțini se opresc la cauze – la ce îi împinge pe oameni spre consum și cum pot fi sprijiniți cu adevărat.
TEHNOLOGIE|OVERVIEW

Alegeri 2025. Ce spun candidații la prezidențiale despre AI?

De
Inteligența artificială e tot mai discutată la nivel global, dar nu se află printre prioritățile candidaților români la prezidențiale.
TEHNOLOGIE|OVERVIEW

Ai făcut un test genetic pe 23andMe? Șterge-ți datele cât încă mai poți.

De
23andMe, una dintre cele mai mari companii care oferă teste genetice pentru stabilirea originii etnice, a intrat în procedura de faliment. Dar mai are ceva ce poate valorifica: datele genetice ale clienților.
TEHNOLOGIE|OVERVIEW

Revoluția supersonică: ce-am avut, ce-am pierdut și ce urmează

De
Un zbor de la Londra la New York durează în jur de opt ore, dar a existat o vreme în care aceeași distanță o puteai parcurge în doar trei. De ce nu mai se mai poate zbura mai repede decât sunetul?