Adobe Firefly
Armatele lumii cochetează cu AI-ul. Care ar trebui să fie regulile?15 min read
Problema „roboților ucigași” era până de curând ipotetică, dar boom-ul AI din ultimii ani a accelerat dezvoltarea acestora și, mai mult, a permis testarea în zone de război. Ce se întâmplă însă dacă îi lași să ia decizii?
// „Highlights from the RAeS Future Combat Air & Space Capabilities Summit”, aerosociety.com // pe tema capacităților de luptă aeriană și spațială, un militar american a prezentat un scenariu ipotetic care a pus sala pe gânduri – ce faci când o dronă controlată de inteligența artificială devine rebelă și consideră că operatorul uman care trebuie să confirme nimicirea unei ținte încearcă să o împiedice să-și îndeplinească misiunea. Dacă sistemul AI care comanda drona respectivă definește reușita misiunii exclusiv prin distrugerea țintei, operatorul ar putea fi brusc considerat inamic.
Deși oficialul respectiv a prezentat totul ca fiind un „experiment de gândire”, povestea a fost ulterior rostogolită ca pornind de la un caz real, ceea ce a dus la reacții de genul „v-am spus că AI va genera riscuri existențiale” în rândul scepticilor.
Incidentul nu este real, însă multe state testează deja posibilitatea de a da din ce în ce mai multe funcții sau echipamente militare pe mâna AI.
Războaiele duse cu inteligența artificială
Dacă în statele occidentale obținerea de către AI a puterii decizionale în cazul unui conflict rămâne deocamdată la nivel de discuție, oamenii de știință chinezi au făcut un pas înainte și au ajuns să creeze inclusiv un // „Chinese scientists create and cage world’s first AI commander in a PLA laboratory”, scmp.com //
Acesta s-ar afla în laboratorul Facultății pentru Operațiuni Comune de la Universitatea Națională pentru Apărare din Shijiazhuang și ar avea rolul de a înlocui comandanții care nu pot participa la jocurile de război derulate la nivelul instituției. Și în occident exă însă sisteme de analiză a unor cantități mari de date care pot fi folosite și în asistarea deciziei în sistemele militare. Două dintre acestea, despre care s-a vorbit public, sunt Maven (SUA) și Lavender (Israel).
Platforma Maven a fost subiectul unui // „The Era of Artificial Intelligence Warfare Is Here”, bloomberg.com // Programul AI aferent determină ce date trebuie colectate, adună și analizează inputurile senzorilor și prezintă o cale de urmat, dar decizia de a executa soluția oferită de inteligența artificială aparține, în final, comandantului uman.
Platforma a fost perfecționată în urma mai multor runde de testare, cu ocazia unor conflicte și misiuni în Africa sau Orientul Mijlociu. În cazul acestor regiuni, algoritmii care aveau rezultate foarte bune în alte teatre de război erau mai ineficienți decât operatorii uman, din cauză că confundau obiecte sau echipamente cu forme de relief.
Alte îngrijorări legate de utilizarea fezabilă a Maven sunt legate de încercările adversarilor de a ataca cibernetic platforma pentru a o bloca sau a-i influența funcționarea. Îngrijorările nu sunt însă atât de mari, iar armata americană continuă implementarea soluțiilor AI sub supraveghere umană. Sunt mai mult de 800 de proiecte active, care vizează rezolvarea unor probleme militare, de la analiză de date la planificare logistică.
Cu sistemul Lavender, care ar fi fost utilizat de armata israeliană în selectarea țintelor în Gaza, media a evidențiat că problemele ar fi mult mai mari. // „Report: Israel used AI to identify bombing targets in Gaza”, theverge.com // au negat utilizarea AI fără control uman și au precizat că analiștii umani verifică întotdeauna rezultatele obținute automat, pentru a elimina erorile și a veghea la respectarea legislației internaționale în domeniu.
Sistemele menționate sunt doar câteva exemple care arată interesul militarilor pentru automatizare în camerele de control, fie pentru a sprijini decizia strategică, fie chiar pentru a lua decizii în situații limită. Desigur, însă, automatizarea în domeniul militar implică riscuri cu un impact mult mai mare decât cel al automatizării unor joburi asupra pieței muncii.
AI poate deja să „piloteze” drone, roboți și avioane de luptă
Dincolo de comandă și analiză, și echipamentele militare au ajuns pe mâna inteligenței artificiale.Drone și avioane de luptă sau alte mașini terestre sau navale autonome pot fi conduse de AI. Au existat chiar sugestii legate de controlul armamentul nuclear – din fericire, ignorate, cel puțin deocamdată. Dronele joacă deja un rol important în războiul din Ucraina, fie că e vorba de sisteme de identificare a țintelor, de // „Ukraine rushes to create AI-enabled war drones”, reuters.com //
În ciuda sancțiunilor, armata rusă utilizează Lancet-3, un model care, cu ajutorul AI, poate să identifice forma unor vehicule, să calculeze elemente precum unghiul de atac, pentru a crește gradul de distrugere, și chiar // „The Real AI Weapons Are Drones, Not Nukes”, theatlantic.com //
CITEȘTE ȘI: Drone Wars: Cum au schimbat dronele mici și ieftine conflictul din Ucraina
Dar soluțiile AI nu sunt testate numai pentru controlul dronelor. Forțele aeriene americane au confirmat public în 2024 că au realizat prima luptă aeriană între o variantă experimentală a unui F-16, controlată de AI (X-62A VISTA), și // „Air Force confirms first successful AI dogfight”, theverge.com //
La sol, combinația robotică-AI și montarea de armament pe câini-roboți deschide calea pentru utilizarea acestora de către forțele armate pentru // „Robot dogs armed with AI-aimed rifles undergo US Marines Special Ops evaluation”, arstechnica.com // Aceste teste vin într-un moment în care oficiali americani precum generalul Mark Milley spun că, în următorii 10-15 ani // „Milley Makes Case for Rules-Based Order, Deterrence in New Era”, defense.gov //
După cum spuneam, a existat inclusiv o dezbatere cu privire la utilizarea inteligenței artificiale pentru controlul armelor nucleare. Și aici există un precedent, deși nu e strict legat de AI, ci de automatizare, în general. În 1983, un ofițer rus care monitoriza sistemul de avertizare nucleară a primit de la computerul care deservea respectivul sistem (și ale cărui programe fuseseră actualizate recent) mesajul că SUA a lansat rachete nucleare asupra Uniunii Sovietice. Ulterior, s-a dovedit că sistemul greșise. // „Giving an AI control of nuclear weapons: What could possibly go wrong?”, thebulletin.org //
De ce e important ca decizia finală să aparțină oamenilor
Aceste exemple arată preocuparea armatelor lumii pentru utilizarea inteligenței artificiale în controlul diverselor dispozitive sau echipamente militare, pentru a crește rapiditatea și chiar acuratețea cu care acestea își îndeplinesc misiunile. Totuși, sistemele AI nu au atins o maturitate suficientă pentru a garanta o siguranță de 100% (sau chiar 90%) în controlul respectivelor echipamente, iar riscul unor incidente rămâne ridicat. Și aici survine o întrebare esențială: cât de multă autonomie ar trebui să aibă astfel de sisteme în domeniul militar și care decizii ar trebui să rămână în responsabilitatea operatorilor umani?
Paul Scharre, un expert american în arme autonome, autor a două volume interesante pe această temă – // Mai multe detalii pe paulscharre.com // și Four Battlegrounds – susține că este nevoie de menținerea unui control uman minim și inițiative globale clare pentru reducerea riscurilor aferente utilizării sistemelor militare controlate de AI.
Printre regulile cerute de Scharre se mai numără interzicerea armamentului autonom care vizează ținte umane, schimbul de bune practici privind testarea sistemelor AI militare pentru a evita accidentele, încheierea unui acord global pentru asigurarea unui control uman strict asupra armamentului nuclear, respectiv // „The Perilous Coming Age of AI Warfare”, foreignaffairs.com //
Însă demersurile internaționale pentru transpunerea unor astfel de inițiative în reguli unanim acceptate, încorporate unor tratate care vizează explicit domeniul militar, sunt încă în stadiu incipient. O astfel de inițiativă a fost cea a evenimentelor REAIM (Responsible AI in the Military Domain), primul fiind organizat de Olanda în 2023, iar al doilea de Coreea de Sud în 2024. Ultimul a condus la un plan de acțiune pentru dezvoltarea de // „Full statement: REAIM Blueprint for Action”, thereadable.co //. Evoluțiile înregistrate în anumite conflicte în derulare, precum cel din Ucraina, arată însă că demersurile de responsabilizare a sistemelor AI utilizate în domeniul militar trebuie accelerate, pentru că „timpul nu mai are răbdare”.