L’intelligenza artificiale sta conquistando molteplici campi di applicazione, compresi i campi di battaglia. Il tema delle armi autonome, killer robot, apre a una rapida corsa tecnologica agli armamenti da parte delle super potenze.. E di conseguenza proprio ai robot killer, anche noti come armi autonome. Si tratta di sistemi d’arma che operano senza intervento umano diretto durante il loro utilizzo, dispositivi sono progettati per individuare, selezionare e colpire bersagli senza la necessità di un operatore umano che prenda decisioni in tempo reale
Esistono armi letali completamente autonome?
«Se vogliamo partire da una definizione più pratica e strumentale, io non credo che oggi nel mondo ci siano veramente armi letali completamente autonome.Cioè, se pensiamo al sistema d’arma che si attiva da solo, decide da solo di recarsi sul luogo del conflitto, selezionare il target e sparare, questa è una realtà che non esiste ancora». spiega Francesco Vignarca, coordinatore delle campagne della Rete Italiana Pace e Disarmo (una realtà che oltre ad essersi occupata di nucleare, negli ultimi anni ha dovuto interfacciarsi anche con queste nuove tipologie di armi). Non è da escludere che in un futuro non troppo lontano il controllo umano venga messo da parte per affidare l’intera gestione all’AI. Vignarca spiega però che affrontare la questione dal punto di vista della definizione non è del tutto corretto, visto che per ora questo tipo di equipaggiamento è ancora in fase di progettazione: «Ci siamo spostati più su un altro aspetto che non è quello di definire lo strumento, bensì individuare quali siano i problemi derivanti dal suo utilizzo».
Chi comanda i killer robots?
Sono diversi i problemi che derivano dall’utilizzo dei killer robot, specie di natura etica. Come spiega Guglielmo Tamburrini, professore di Filosofia e Logica della Scienza all’Università Federico II di Napoli, ponendosi alcuni interrogativi rilevanti: «Possiamo affidare a una macchina decisioni sulla vita o la morte di un essere umano? Non è una violazione della dignità della potenziale vittima il fatto che non ci sia nemmeno un essere umano dall’altra parte a giudicare e al quale potrebbe appellarsi in qualche modo?». Secondo Tamburrini, si verrebbe a creare il cosiddetto «vuoto di responsabilità». Ipotizzando uno scenario in cui l’arma autonoma, governata esclusivamente dall’intelligenza artificiale, attacchi in modo indiscriminato i civili invece che i belligeranti, a chi bisogna attribuire la colpa? Al robot? Al sistema di A.I che lo comanda? A chi l’ha messo in campo? Visti tutti questi dubbi, per l’esperto «non è raccomandabile sguinzagliare questi sistemi in situazioni così poco ordinate come possono essere i campi di battaglia». Ed è proprio per colmare questo vuoto di responsabilità che molte campagne della Rete Italiana Pace e Disarmo sono state create: «Il cuore delle nostre richieste è mantenere un controllo umano significativo sul sistema d’arma» sostiene Vignarca. «La supervisione da parte del militare che ha messo in campo l’arma autonoma non può terminare una volta cliccato il pulsante d’avvio, ma deve continuare lungo tutta la durata della missione per poterla così bloccare in qualsiasi momento».
Quali soluzioni sono già in campo nei conflitti contemporanei?
Se è ancora in corso lo studio su sistemi d’arma completamente autonomi, è comunque un dato di fatto che l’AI sia parte integrante del sistema bellico. Accade, ad esempio, nella zona demilitarizzata e interdetta situata tra Corea del Nord e Corea del Sud, dove sono presenti sentinelle automatizzate, ovvero torrette dotate di sensori e telecamere in grado di individuare movimenti indebiti, armate e in grado di far fuoco. Tamburrini spiega che queste «hanno la capacità di individuare un essere umano che attraversa l’area e possono operare in due modi: avvisare l’operatore umano oppure agiscono autonomamente e sparano». Un discorso più ampio va fatto invece sui due grandi conflitti in Medio Oriente e Ucraina. Come spiega Tamburrini Israele ha usato sì un sistema di intelligenza artificiale, ma non come arma autonoma, bensì «come supporto alle decisioni, per individuare una lista generale di obiettivi militari da colpire. Tale AI si chiama “Habsora”, che in ebraico significa “vangelo”». Durante i primi mesi di guerra, complice la sua velocità, questo strumento ha generato migliaia di target: «Anche questo sistema ha portato a tante vittime civili». Altro tipo d’armi non completamente autonome ed utilizzate nel conflitto contro Hamas dalle forze di Netanyahu , sono le loitering munitions: «L’operatore delimita una certa area, i robots vagano alla ricerca, ad esempio, di una sorgente di segnali radar e poi si lanciano su questa – continua Tamburrini, Il problema è che quanto più tempo hanno per fare queste operazioni di “vagabondaggio”, tanto più c’è il rischio che la scena circostante cambi e che quindi l’arma non rispetti i principi di distinzione tra civili e belligeranti». La stessa tecnica è usata anche nella guerra tra Russia e Ucraina spiega ancora Francesco Vignarca. Precisando, però, riferendosi ad Habsora: «Non le definirei LAWS (Lethal Autonomous Weapon Systems, ndr.), ma piuttosto “un utilizzo eccessivo di un’automazione data dall’intelligenza artificiale o dalle caratteristiche operative delle loitering che non sono accettabili”».
Le discussioni internazionali
La corsa alle armi autonome, come affermato da Vignarca, ha portato in ambito Onu a numerosi tavoli di discussione all’interno della CCW (Convention on Certain
Conventional Weapons): «La CCW rinnova ogni anno un mandato a un gruppo di esperti internazionali, la GGE, che in due o tre sezioni produce un’analisi contenutistica e tecnica: un lavoro che permette di avanzare anche sulle richieste da fare in un qualsivoglia negoziato per la regolamentazione». Ragionare in questa direzione non è però semplice: rilevanti e intricati sono infatti gli interessi in gioco di paesi quali USA, Cina, Russia, Gran Bretagna e Israele. Il coordinatore delle campagne per la Rete Italiana Pace e Disarmo spiega come questi «abbiano cercato di mettere il bastone tra le ruote alla CCW» e, ponendo l’accento sulla loro ambivalenza precisa come tali superpotenze «giochino su due tavoli: da un lato vogliono sviluppare, ma dall’altro vogliono limitare. Sono “alleati” perché portano avanti pezzi di regolamentazione, ma d’altro canto stanno altresì lavorando in senso opposto». L’Austria secondo Tamburrini è tra i Paesi che spingono per proibire o regolare fortemente le armi autonome mentre la Russia, per contraltare, spicca tra coloro che sostengono che bastano i principi già esistenti in materia di diritto internazionale umanitario. Gli Stati Uniti, invece, lavorano alacremente per la riproduzione del sistema a “sciame”: una centinaio di armi completamente autonome in grado di coordinarsi, comunicare e agire. «Sono allo studio plotoni e battaglioni di imbarcazioni che potrebbero circondare una nave», allerta Tamburrini.
Lo scenario italiano
Tamburrini e Vignarca concordano sul fatto che il tema delle armi autonome letali investa molti ambiti ma che sia però, ancora oggi, troppo poco trattato. Il docente della Federico II di Napoli definisce «assordante» il silenzio dell’Unione Europea e critica il mancato trattamento del tema nell’AI Act approvato gli scorsi giorni a Bruxelles, «in un contesto che non è solo Ucraina e Gaza ma anche quello di sfiducia generale tra le grandi potenze». Anche Vignarca ritiene che i killer robot siano poco considerati e parla di «molta confusione e poca comprensione», non solo a livello di opinione pubblica, ma anche ad un livello istituzionale. «Credo che se facessimo un sondaggio sui parlamentari che sono nelle commissioni competenti nessuno saprebbe dire cosa siano veramente e quali rischi comporterebbero». La campagna “Stop Killer Robots” della Rete Italiana Pace e Disarmo lanciata nel 2013 ha anche l’obiettivo di colmare questi vuoti attraverso la comunicazione e l’informazione per rendere la politica più attenta a questi temi. La questione armi autonome letali resta tuttavia complessa e in continua evoluzione: un’artiglieria autonoma al 100% ancora non c’è, ma è meglio iniziare a discutere e lavorare a una sua limitazione per evitare, come detto da Vignarca, «l’apertura di un vaso di Pandora».
