Alla recente approvazione da parte del Parlamento europeo dell’AI Act, è seguita, anche in Italia, la promulgazione del progetto legislativo che mira a delegare al Governo la gestione e l’applicazione pratica di alcune disposizioni nell’ambito dell’intelligenza artificiale (IA). Le norme previste mirano a “promuove(re) un utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica dell’intelligenza artificiale volto a coglierne le opportunità. Garantire la vigilanza sui rischi economici e sociali e sull’impatto sui diritti fondamentali dell’intelligenza artificiale”. (art. 1)

Intelligenza artificiale, una questione anche italiana

Il disegno di legge italiano non si sovrappone a quello europeo, ma cerca di intervenire negli spazi del proprio diritto interno:«Il Governo ha recepito gran parte delle indicazioni contenute nel Regolamento europeo, l’Ai Act, che è stato approvato definitivamente il 13 marzo e che introduce una serie di paletti per disciplinare al meglio l’intelligenza artificiale. In questo disegno di legge si armonizza la legislazione con quella del nuovo Regolamento europeo, recependone i principi generali. Questi ultimi verranno ulteriormente precisati con i decreti attuativi che seguiranno la discussione del progetto legislativo in Parlamento» ha spiegato Ruben Razzante, editorialista e docente di Diritto dell’informazione all’Università Cattolica di Milano. Che prosegue: «L’esecutivo ha indicato una serie di punti strategici fondamentali per la gestione corretta dell’IA: ad esempio affida all’Agenzia per l’Italia Digitale (AgID) e all’Agenzia per la Cybersecurity la gestione di questo processo di implementazione dell’intelligenza artificiale. Rimangono comunque fermi i poteri del Garante della privacy per tutto quello che riguarda la protezione dei dati personali».

L’importanza della privacy e la sua tutela

Proprio la tutela della privacy è uno degli elementi a cui più si deve prestare attenzione, in un contesto, quello attuale, in cui può essere faticoso comprendere il funzionamento di determinate tecnologie e si può incappare in errori potenzialmente pericolosi. Il docente conferma alcune lecite preoccupazioni:«La privacy viene e verrà messa ancora più a rischio, quindi bisogna potenziare le tutele, fare in modo che soprattutto i dati sensibili che riguardano le preferenze sessuali o quelli di natura sanitaria vengano maggiormente protetti.Non a caso si sta pensando di introdurre dei meccanismi di certificazione: si parla di blockchain (una rete che consente di gestire e aggiornare, in modo univoco e sicuro, un registro contenente dati e informazioni in maniera aperta, condivisa e distribuita) nel campo dell’informazione per certificare le informazioni che ChatGPT e altri chatbot utilizzeranno per elaborare le opere». Inutile però allarmarsi troppo: «Le garanzie per la privacy inserite nel Regolamento europeo e che vengono in larga parte replicate nel disegno di legge italiano, dovrebbero essere, se non sufficienti, certamente una buona base di partenza per evitare violazioni».

I pericoli per il sistema sanitario

Anche il servizio sanitario è uno di quei settori che si vuole migliorare attraverso l’implementazione dell’IA.Il timore è che la dipendenza da sistemi automatizzati possa portare a una deumanizzazione della cura e che venga meno l’elemento umano nelle decisioni cliniche. «I rischi ci sono, certo. A partire da bias e liability (responsabilità), fino ad arrivare all’impatto sul sapere medico. Ma ci sono anche i vantaggi. Intelligenza umana e IA sono cose ben diverse».Questo il parere di Ivana Bartoletti, esperta di privacy, etica e governance nel campo dell’intelligenza artificiale e delle nuove tecnologie. Sarà quindi importante mantenere l’elemento umano nelle decisioni cliniche e garantire che i sistemi di IA siano solo uno strumento di supporto e non sostitutivi del giudizio medico.

Regole per il controllo dell’IA

Viene anche da chiedersi se sarà semplice armonizzare il costante progresso tecnologico e la protezione dei diritti fondamentali. In questo senso, Bartoletti riconosce problematiche e potenzialità dei nuovi strumenti legati all’IA:«La tecnologia non è mai neutra e si dovranno fare delle scelte. In molti avranno visto il film Oppenheimer e si ricorderanno la frase finale nel dialogo con Einstein, che racchiude il senso di tutto il film: “Ricorda quando le ho detto che potevamo distruggere il mondo intero? Credo che lo abbiamo fatto”. Ecco, in fondo siamo nella fase Oppenheimer, il che vuol dire che le regole sono importanti.L’European AI Act, così come l’US Executive Order, vanno in questa direzione. Non c’è bisogno di essere drammatici né di bloccare lo sviluppo, dobbiamo mettere delle regole. Una altra cosa va detta però. L’IA Act ha bisogno di un ente regolatore indipendente dai governi. Non credo di aver capito l’intenzione del Governo italiano, che mi pare parli di una sorta di agenzia digitale e per la sicurezza. Queste hanno potere attuativo, ma il potere regolatorio deve, a mio parere, andare al Garante. Questo perché i rischi legati all’IA sono lesivi dei diritti fondamentali, la privacy in primis». Pericoli che fanno da contraltare alle tante opportunità che l’implementazione dell’intelligenza artificiale può offrire.

Aumentare la produttività grazie all’IA

Proprio in uno dei punti del disegno di legge, viene incentivato l’uso dell’IA nei settori produttivi. Lo scopo è quello di migliorarne il rendimento e di favorire il benessere sociale, senza abbandonare il principio della concorrenza del mercato. Fondamenti corretti, che si scontrano con il rischio di aumentare ancora di più il gap tra grandi aziende, che possono permettersi importanti investimenti, e piccoli produttori.«Il mio augurio è che nelle scelte del Governo e di chi gestirà questo miliardo di euro che si è deciso di stanziare, ci sia questa attenzione speciale per le startup e le piccole imprese. È fondamentale che l’intelligenza artificiale venga incentivata, anche e soprattutto nelle realtà che hanno più bisogno di svilupparla, perché, altrimenti, il rischio è che aumentino le differenze e che si acuiscano le disuguaglianze.Non bisogna dimenticare che lo scopo dell’intelligenza artificiale è anche quello di avvicinare le persone, di avvicinare i mondi e non di allontanarli». I rischi ci sono, spiega Razzante, ma è dovere della Pubblica Amministrazione saperli gestire. Ivana Bartoletti, invece, nota un’altra criticità: «È vero che il disegno di legge italiano si inserisce nel quadro dell’European AI Act, ma in alcune parti lo inasprisce, aggiungendo degli obblighi per le aziende.L’allarme che voglio lanciare è che il problema che vedo per le attività produttive è la differenza normativa nei singoli Paesi. Questo non è un bene, perché la forza dell’Europa risiede nell’aspetto contrario».C’è la concreta possibilità che queste disparità accentuino le differenze tra i singoli Stati, distanziandosi da quello che vuole essere anche un progetto comune europeo.

Disinformazione e intelligenza artificiale

Il contrasto alla disinformazione è un altro dei temi trattati nel progetto di legge: l’intenzione è quella di istituire sanzioni più severe per coloro che utilizzano l’IA in modo fraudolento o dannoso. Ruben Razzante, a proposito di questo aspetto, mostra un po’ di scetticismo:«I deepfake sono già molto diffusi e sono facilissimi da costruire. Per questo motivo sono un po’ scettico sulla perseguibilità di questo tipo di reati. Per fare qualcosa di concreto in questo senso, bisognerà davvero attrezzarsi sul piano degli algoritmi e su quello degli strumenti repressivi, per fare in modo che queste situazioni si riducano all’osso».Inoltre, in determinate situazioni, sembra anche complesso riuscire a distinguere tra fake news e contenuti essenzialmente ironici: «È fondamentale distinguere tra ironia e affermazioni volutamente false. È chiaro che molto dipende dal contenitore e dallo strumento. Un conto è se su un canale social che pubblica contenuti assolutamente ludici, si trovano materiali non autentici. Se, invece, a pubblicare una foto contraffatta spacciandola per vera è il Corriere.it, il problema si pone. La liceità, quindi, varia a seconda del carattere giornalistico della testata o del canale. È chiaro che anche chi fa satira non può pubblicare foto diffamatorie o lesive dei diritti di una persona e non può credere di essere libero da qualsiasi vincolo. Anche per questo, le possibili violazioni andranno valutate caso per caso». Il terreno è spinoso, le questioni da analizzare sono molte e complesse. Ora manca l’approvazione delle Camere e la successiva attuazione della Legge con decreti delegati. Tenendo conto anche delle possibili modifiche future al progetto legislativo, il testo appena emanato può già essere considerato importante per lo sviluppo giuridico dell’ordinamento nazionale, in un ambito, quello dell’intelligenza artificiale, in fortissima ascesa.