Il settore militare si evolve velocemente, anche grazie all’utilizzo sempre crescente dell’AI. Gli scenari descritti in Terminator, dove un sistema computerizzato completamente autonomo è stato in grado di acquisire una sorta di autocoscienza fino a provocare un olocausto nucleare e a far sì che le macchine dominassero il pianeta, sembrano oggi sempre meno lontani.

L’uso dell’AI nel settore militare: una panoramica

Nonostante ciò che la vulgata o un qualunque film di fantascienza possano far pensare, siamo ancora lontani dallo scenario di una guerra dove le macchine sostituiranno completamente l’uomo. La stessa intelligenza artificiale è nata nel settore civile, e talune sue applicazioni sono state riconosciute di utilità anche nell’ambito militare. Tuttavia non si può ancora parlare di una rivoluzione nell’ambito dei conflitti: l’AI non è una protagonista bensì uno strumento, che almeno per ora resta nelle mani della ratio umana.

La sua principale funzione è quella dell’analisi dei dati e proprio in tal ambito riveste un ruolo fondamentale nell’elaborazione di un gran numero di dati in un lasso di tempo decisamente breve, garantendo così una maggiore rapidità dei processi organizzativi e decisionali. Un esempio in tal senso è il settore della logistica, da sempre uno dei rami più complessi del mondo militare, dove una veloce e accurata selezione dei dati può essere utile al decisore per facilitare e organizzare lo spostamento di ingenti quantità di truppe. Un utilizzo dell’AI in questo campo risale già al 1991: è il Dynamic Analysis and Replanning Tool, o DART, un programma di intelligenza artificiale impiegato durante la prima guerra del Golfo dalle forze armate statunitensi per ottimizzare e programmare il trasporto di rifornimenti o personale e risolvere problemi logistici.

Ciò non esclude che l’elaborazione dei dati non possa essere utilizzata anche per sistemi volti a scopi offensivi. Un caso recente di un tale impiego è il sistema Gospel, sviluppato da Israele e utilizzato nella Striscia di Gaza, il cui scopo, come afferma Alessandra Russo, dottoranda in Studi Strategici, «è fornire dati ai decisori militari su dove, come e quando lanciare e sferrare un attacco, rendendo quindi più serrati i ritmi decisionali nella scelta dei bersagli». L’evoluzione dei sistemi d’arma legati all’AI si differenzia quindi da quelli più o meno autonomi del passato. Prima alcuni sistemi d’arma “intelligenti”  si basavano sul principio “if…then”, che tradotto significa che se si verificava una situazione, esso reagiva in un determinato modo (se succede X allora la mia reazione sarà Y), mentre ad oggi si assiste a fenomeni in cui tramite l’elaborazione dei dati, tali sistemi sono in grado di “imparare”, attraverso la continua analisi.

L’elemento umano

Con il recente e sempre più veloce avanzamento della tecnologia ci sono e probabilmente ci saranno ulteriori sviluppi nell’autonomia degli armamenti, ma ciò non vuol dire che l’elemento umano sia destinato a scomparire, ma al contrario esso rimane un aspetto fondamentale nell’utilizzo di questi sistemi. Secondo quanto afferma Alessandro Rugolo, coordinatore della rubrica cyber di Difesaonline.it e colonnello della riserva «è bene ricordare che qualunque operazione militare ha delle implicazioni legali e dunque è necessario che vi sia una precisa catena di comando in cui le responsabilità siano chiare». Non è pensabile quindi che un sistema di armamento, per quanto intelligente, esoneri i decisori umani dalle responsabilità di un’azione militare. Secondo Rugolo, inoltre «essendo l’AI uno strumento complesso, è necessaria la formazione di personale specializzato per il suo corretto utilizzo, sia al livello del singolo individuo sia a livelli più ampi di squadra e di plotone, e anche più alti».

Intelligenza artificiale e guerra cibernetica

Nell’ambito dei conflitti tra gli stati l’AI viene utilizzata in modo sempre più massiccio in quella che è nota come cyber warfare, ossia il conflitto militare che si svolge all’interno dello spazio cibernetico. A differenza dello spionaggio, volto alla raccolta di informazioni, la guerra cibernetica si traduce in attacchi informatici contro determinati obiettivi. Come spiega Rugolo «la differenza tra spionaggio e cyberwarfare è che la seconda è una guerra condotta attraverso diversi strumenti, che possono essere sì utilizzati per lo spionaggio, ma soprattutto per condurre attacchi cibernetici veri e propri per mettere fuori uso un sito web, una rete di computer o i sistemi di una caserma».

Tutte le grandi potenze utilizzano sistemi di warfare sia a scopo offensivo che difensivo e ci sono enti specializzati proprio in questo ambito. Si pensi che negli Stati Uniti è presente lo United States Army Cyber Command, con a capo il tenente generale Maria Barret, che si occupa di tutte le questioni relative ai conflitti cibernetici.

Oltre che alla distruzione degli obiettivi militari, la guerra cibernetica può diventare anche uno strumento utile per la propaganda e la produzione di fake news. Un esempio molto recente di questo utilizzo è stato nel 2022 quando sulla rete era stato diffuso un deep fake, un falso video in cui attraverso un’elaborazione di immagine e di audio, veniva proposta l’immagine del presidente Volodymir Zelensky  che lanciava un appello alle truppe ucraine perché deponessero le armi di fronte alle truppe russe. Una rappresentazione alquanto maldestra chiaramente creata artificialmente, ma che comunque mostra come attraverso l’AI si possano creare dei contenuti falsi che se ritenuti credibili possono essere utilizzati a scopo propagandistico.

La regolamentazione di questo tipo di guerra è molto complessa, anche perché ogni stato fa a sé in base al proprio ordinamento e il suo regime politico. Ma se nei sistemi autoritari la tutela dei diritti può essere calpestata, anche negli stati democratici tale regolamentazione può essere differente tra l’ambito militare e quello civile. Lo stesso AI act, approvato dall’Unione Europea, se da una parte ha voluto regolamentare l’utilizzo dell’intelligenza artificiale soprattutto per la tutela dei cittadini, nel paragrafo 3 dell’articolo 2 della stessa normativa è espresso chiaramente che: «Il presente regolamento non si applica ai sistemi di IA sviluppati o usati per scopi esclusivamente militari».

Perché gli stati si rivolgono al settore privato?

Per quanto riguarda la produzione di strumenti AI destinati al settore della difesa, non è raro che tanti di questi vengano forniti da aziende private. Negli Stati Uniti esiste il Darpa (Defense Advanced Research Projects Agency) un distaccamento del dipartimento della Difesa dedito allo sviluppo di nuove tecnologie militari, ma esiste anche un’ampia industria privata degli armamenti. In Israele lo spyware Pegasus, creato in funzione antiterroristica e poi venduto a regimi autoritari per attività di spionaggio, è stato prodotto dalla privata NSO group. Ma perché gli stati preferiscono affidarsi ai privati?

Secondo Russo ciò può derivare dal fatto che «i governi potrebbero non avere personale specializzato su questo, mentre il luogo di nascita dell’AI è proprio il privato, e quindi è lì che molti esperti del settore lavorano. C’è anche un problema di gigantismo burocratico che nel pubblico può rallentare lo sviluppo, mentre nel privato le dinamiche e gli incentivi sono diversi, e il processo decisionale può essere molto più veloce».

Rugolo aggiunge che «questo è funzionale anche all’economia di un paese. Gli Stati Uniti per esempio hanno sempre avuto grande interesse nello sviluppo dell’industria degli armamenti; e il personale specializzato in questo campo può essere attratto dalle più alte retribuzioni che il privato può offrire rispetto al pubblico. Non è raro che molti militari americani, dopo aver passato molti anni nelle forze armate possano decidere di entrare nel settore privato, fondando imprese legate al ramo della difesa o entrando in grandi aziende produttrici di armamenti». Nel caso italiano, una delle più importanti imprese specializzate in prodotti innovativi per la difesa è sicuramente Leonardo, posseduta al 30% dal Ministero dell’Economia e delle Finanze e classificata nel 2022 come la maggiore impresa europea per il settore della difesa.

L’AI non è perfetta

Nonostante la sua efficacia, anche l’intelligenza artificiale ha i suoi limiti e questi finiscono per ripercuotersi sugli scenari operativi, a volte coinvolgendo anche persone innocenti a causa di un’errata elaborazione dei dati. Nell’ambito del teatro operativo si rischia di incorrere in quella che viene definita come “allucinazione”, ossia quando l’AI fornisce un’elaborazione errata dei dati, producendo dei risultati non oggettivi. Il problema è l’affidabilità del dato. Un altro problema relativo a questi sistemi può essere insito nei dati stessi. In questo caso un sistema intelligente può trovarsi ad analizzare dati fallati, per cui l’analisi corretta di questi porterà sì ad una sintesi corretta,  che però risulterà viziata dalla qualità dei dati stessi. E questo può accadere sia perché in buona fede si fornisce ad  un sistema AI elementi fallati  oppure può anche avvenire per un’operazione di controspionaggio di un nemico che è consapevole che qualcuno sta raccogliendo informazioni su di lui. In questo caso chi è spiato potrebbe “aiutare” chi lo sta spiando fornendo dati inquinati che porteranno questo a conclusioni errate. Ultimo, ma non per importanza, è il fattore rischi del teatro operativo. Un sistema computerizzato può essere esposto ad attacchi elettromagnetici (electronic warfare), che potrebbero danneggiare i chip della sua struttura, di fatto facendolo impazzire e quindi rendendolo completamente inoffensivo. Oppure esso potrebbe essere esposto ad attacchi cyber come quelli descritti in precedenza, che potrebbero essere usati per la manomissione dei dati inseriti.