L’IA è una tecnologia che ha il potenziale di cambiare la storia, ormai è chiaro. L’Europa è stata, forse, la prima istituzione sovranazionale ad accorgersene, ecco perché sta lavorando a una legislazione per inquadrare e tracciare dei limiti per proteggere gli utenti. L’IA, infatti, è una tecnologia molto potente che comprende dai modelli base, come ChatGPT, a sistemi molto più sofisticati, pertanto richiede regole e controlli adeguati per essere utilizzata in modo responsabile.

Lo scorso 11 maggio il Parlamento Europeo ha fatto un importante passo avanti nell’ambito della regolamentazione dell’Intelligenza Artificiale, votando a favore dell’approvazione della legge sull’Intelligenza Artificiale, l’AI Act (AIA). La proposta, approdata in due Commissioni – quella sul Mercato interno e la protezione dei consumatori (Imco) e quella per i Diritti civili, la giustizia e gli affari interni (Libe) – è stata approvata con una maggioranza di 84 voti a favore. L’obiettivo dell’atto è stabilire un nuovo quadro normativo per l’IA e la proposta verrà votata nella prossima sessione plenaria del Parlamento Europeo, prevista tra il 12 e il 15 giugno prossimi. In seguito, sono previsti negoziati con il Consiglio dell’UE per l’approvazione della prima legislazione completa sull’IA, entro la fine del termine parlamentare attuale, ovvero nella primavera del 2024.

Il parlamento Europeo ha votato in favore della legge sull’Intelligenza Artificiale. Nella stesura attuale, la legge prevede quattro livelli di pericolosità: i sistemi vietati, quelli considerati ad alto rischio, quelli a rischio limitato e, infine, quelli a basso rischio. La ratio che muove la norma è che più sono previsti dei rischi, più le restrizioni si fanno rigide.

Ma come si articola l’Artificial Intelligence Act? Nella stesura attuale, la legge prevede quattro livelli di pericolosità: i sistemi vietati, quelli considerati ad alto rischio, quelli a rischio limitato e, infine, quelli a basso rischio. La ratio che muove la norma è che più sono previsti dei rischi, più le restrizioni si fanno rigide. La lista dei sistemi di IA vietati include le pratiche manipolative online, che producono danni fisici o psicologici agli individui o sfruttano la loro vulnerabilità sulla base dell’età o della disabilità e il “social scoring”, ovvero il punteggio assegnato ai cittadini, introdotto in Cina, che produce effetti dannosi e decontestualizzati sulle persone. Infine, i sistemi di identificazione biometrica utilizzati dalle autorità di polizia negli spazi pubblici, anche se sarà consentito utilizzarli solo nei casi strettamente necessari.

I legislatori europei hanno, quindi, definito un confine o un limite che non dovrebbe essere superato quando si impiegano servizi o prodotti basati sull’IA nella società. A differenza dei sistemi di IA proibiti, quelli classificati come “ad alto rischio” non sono vietati a prescindere, ma soggetti a diversi obblighi di conformità. Obblighi che includono, tra gli altri, un piano di gestione del rischio, una certificazione di conformità, un piano di gestione dei dati e la supervisione umana. In questa lista sono compresi gli algoritmi di IA che producono deep fake, cioè video o foto falsi altamente realistici, così come i sistemi di riconoscimento facciale, delle emozioni e di categorizzazione biometrica; l’IA usata in infrastrutture critiche, ovvero nei contesti educativi, occupazionali o di emergenza, in quelli di asilo e di frontiera e nell’assistenza sociale. Inoltre, è considerato rischioso l’utilizzo dell’IA per il “credit scoring”, cioè la valutazione del rischio creditizio di un individuo, e il suo utilizzo da parte delle forze dell’ordine o per scopi giudiziari. La Commissione UE si arroga comunque il diritto di poter aggiornare questa lista sulla base della gravità e della probabilità di impatto dei sistemi di IA presenti e futuri sui diritti fondamentali dei cittadini.

Infine, le ultime due categorie che pongono dei limiti a quei sistemi di IA considerati a “rischio limitatoo “basso” includono chatbot, come ChatGPT, filtri di spam e videogiochi con l’IA intregrata. L’uso di questi sistemi non implica alcun dovere specifico di conformità, ma solo obblighi di trasparenza molto vaghi, come una semplice notifica ai consumatori e ai cittadini riguardo al fatto che un sistema di IA sia operativo nel contesto in cui vivono o operano.

Questa regolamentazione rappresenta un importante passo avanti nella definizione dei confini etici e giuridici per l’utilizzo dell’IA e garantisce un maggiore rispetto dei diritti fondamentali e della privacy dei cittadini. La Commissione UE intende, inoltre, promuovere una regolamentazione simile a livello globale, al fine di garantire standard etici e giuridici uniformi per l’utilizzo delle tecnologie dell’IA.

Tra le reazioni più scettiche al testo ci sono quelle dell’European Data Protection Board (EDPB) e dell’European Data Protection Supervisor (EDPS), i quali hanno pubblicato un’opinione congiunta che propone modifiche e correzioni all’Artificial Intelligence Act. Una delle lacune maggiori, secondo loro, riguarda la regolamentazione dei sistemi di riconoscimento emozionale e di classificazione biometrica.

Il tema è delicatissimo, infatti le nuove tecnologie di IA oggi hanno la capacità di analizzare le espressioni facciali, il tono della voce e altre caratteristiche per identificare e interpretare le emozioni umane. Ciò può essere utilizzato per una serie di applicazioni, come la valutazione della soddisfazione del cliente, la diagnosi di problemi di salute mentale o la valutazione delle prestazioni dei dipendenti. Tuttavia, il riconoscimento emozionale può anche essere utilizzato per tracciare il profilo di sospetti criminali o per valutare lavoratori e studenti, il che può sfociare nella violazione dei diritti umani.

La regolamentazione del riconoscimento emozionale è, quindi, estremamente importante per garantire che l’uso di queste tecnologie sia etico e non invasivo. Così come proposta dalla Commissione europea, l’Artificial Intelligence Act tutela solo in parte il riconoscimento emozionale, in quanto non regola a sufficienza tutte le pratiche che utilizzano l’IA per rivelare informazioni sulla mente di una persona. E apre, così, la strada a scenari di rischio per la privacy e i diritti umani.