Il futuro è per definizione imperscrutabile. Per questo la domanda su quello che sarà il ruolo dell’intelligenza artificiale in contesti militari resta aperta e adombra prospettive imprevedibili. La conoscenza di ciò che accade nel presente è una bussola per interpretare gli scenari possibili. Spesso l’attenzione si concentra sullo sviluppo di armi autonome potenzialmente indipendenti, dette anche killer robots, ma non si può trascurare l’utilizzo dell’intelligenza artificiale per l’individuazione degli obiettivi militari.
Di questo si occupa Lavender, un programma utilizzato dall’esercito israeliano durante l’attuale guerra nella Striscia di Gaza. In particolare durante le prime settimane del conflitto la maggior parte degli attacchi sono stati indirizzati a obiettivi stabiliti da “Lavender”. Il programma ha indicato più di 37mila palestinesi come sospetti militanti. Le loro abitazioni sono immediatamente diventano bersagli militari per possibili attacchi aerei. Il problema sta nell’assenza dell’obbligo di verifica della veridicità di questa selezione. I bombardamenti delle case, sostengono fonti interne all’esercito israeliano, sono avvenuti senza esitazioni.
Un fonte interna all’esercito israeliano ha rivelato che il personale preposto al controllo svolgeva il ruolo di “timbro di gomma” per le decisioni prese da Lavender. L’accertamento dura non più di venti secondi e serve ad assicurarsi che l’obiettivo sia maschio. I criteri di selezione comprendono anche l’essere giovane e il collaborare con Hamas. Collaborare per Lavender significa entrare in contatto, interagire o svolgere una qualsiasi attività, anche essere volontari della protezione civile, con un militante. Chi presenta diverse caratteristiche incriminanti raggiunge un punteggio elevato e diventa automaticamente un potenziale nemico. Il margine di errore calcolato è del 10% circa. A questo, però, va aggiunto il margine, se davvero si può parlare in questi termini, di vittime collaterali. Per ogni obiettivo viene messa in conto la morte di circa 15 individui non targettizzati. In caso di elementi in alte posizioni gerarchiche le uccisioni collaterali possono essere fino a cento. La maggior parte di queste vittime sono donne e bambini. “In pratica, il principio di proporzionalità non esiste”, afferma una fonte che utilizza Lavender. L’unica logica contemplata è la letalità. E questo è incrementato dalla tipologia di armi che vengono utilizzate per questi attacchi. I militari non utilizzano bombe di precisione, ma dei missili non guidati, in gergo chiamati “bombe stupide”. Si tratta di ordigni più economici, ma anche incontrollabili e capaci di distruggere interi isolati. Si rende così evidente la totale assenza di controllo sulle vittime effettive degli attacchi. È una politica di intelligence molto diversa da quella adottata nelle guerre precedenti dove il personale dedicava molto tempo a valutare quanti civili si trovassero in un’abitazione che doveva essere bombardata. Utilizzando Lavender non c’è neanche la certezza che le persone individuate, ammessa e non concessa la validità dei criteri di selezione, siano state eliminate.
Questa, secondo le fonti consultate da +972magazine e Local Call Reveal, è stata una precisa strategia bellica che è dipesa dalla voglia di vendetta degli israeliani in seguito agli attacchi del 7 ottobre mossi da Hamas. La delega di questa scelta a un sistema automatico evidenzia tutti i problemi etici, politici e umanitari connessi all’utilizzo dell’intelligenza artificiale in ambito militare. Nelle prime sei settimane di guerra, fino alla tregua del 24 novembre, sono stati uccisi più di 15 mila palestinesi, quasi della metà delle vittime fino a ora. Molte di queste vanno imputate all’utilizzo di tecnologie come Lavender.
L’articolo completo qui, su +972magazine