L’inizio di una nuova era, una rivoluzione. Che è già qui, più veloce, sfuggente e indefinibile di quanto anche i suoi stessi studiosi e inventori ammettano. Si chiama intelligenza artificiale, croce e delizia di un mondo che ne è l’artefice ma che rischia di diventarne la vittima. Dalla finanza all’editoria, dalla governance alla pubblica amministrazione, l’IA è ormai presente da qualche anno in tutti i settori della vita sociale e lavorativa: eppure, la nostra consapevolezza al riguardo è tanto minima da mettere a serio rischio anche la capacità di gestirne l’impatto e prevederne i possibili sviluppi. Ciò è particolarmente vero in Italia, paese dalla scarsa tradizione digitale, e con l’avvento degli ultimi software generativi (cioè in grado di creare contenuti come testo, immagini o musica) la situazione sembra destinata a peggiorare. Come conferma Claudio Forghieri, esperto in transizione digitale e open government presso l’Università Cattolica del Sacro Cuore di Milano: «A poco più di un anno dal lancio di Chat GPT, una ricerca condotta da Salesforce ha rilevato come il 50% degli impiegati italiani utilizzino l’IA generativa sul lavoro senza autorizzazione, così come negli Stati Uniti fioccano le sanzioni ai liberi professionisti. Siamo in una fase in cui, nei paesi occidentali, la legislazione non tiene il passo del progresso tramite normative adeguate, con tutti i pericoli che questo comporta. Pensiamo ai deepfake, contenuti del tutto falsi ma estremamente realistici, capaci di modificare la percezione pubblica dei fatti del presente e del passato e di compromettere la stabilità delle democrazie». Abbiamo una bomba tra le mani dunque? Forse, ma una progressiva presa di coscienza sul tema sta portando anche la politica nostrana verso la strada della comprensione e regolamentazione del fenomeno sulla scia del Digital Act Europeo, per fare dell’intelligenza artificiale un’alleata anche all’interno del Parlamento.

Il primo passo è stato compiuto già nel luglio del 2020, quando un comitato di esperti costituito dal Ministero per lo Sviluppo Economico si è adeguato alle richieste europee elaborando una Strategia Italiana per l’intelligenza artificiale, con l’obiettivo di creare una prima bozza legislativa sull’impiego dell’IA nel settore pubblico e privato. Nel novembre 2021 il testimone è passato al Ministero dell’Università e Ricerca, incaricato di portare la questione a un livello ulteriore attraverso la stesura di un programma strategico dettagliato, da realizzarsi nel biennio 2022-2024, per costruire competenze, favorire la ricerca nel settore e la diffusione capillare di simili tecnologie. E nonostante l’iniziale svantaggio (Francia e Germania avevano già presentato i propri piani d’azione nel 2015),  il mercato dell’AI è cresciuto: 500 milioni di euro di investimenti nel settore a fine 2022, quando il 61% delle grandi imprese e il 15% di quelle piccole e medie hanno avviato progetti legati all’ intelligenza artificiale. Ma è soltanto nel 2023 che il dibattito sull’introduzione dei software IA nelle istituzioni pubbliche si è concretamente delineato, grazie all’istituzione di un nuovo Comitato di coordinamento nazionale sul tema e di tre commissioni parlamentari ad hoc, di cui una rivolta anche allo studio della possibile automatizzazione di alcuni processi burocratici nelle sedute delle Camere.

L’AI nel prossimo G7

Il prossimo banco di prova sarà il G7 di Borgo Egnazia, in programma per il mese di giugno, occasione nella quale, dopo mesi di colloqui con i grandi dell’high tech, il governo italiano promette di puntare sui temi dell’intelligenza artificiale. Un punto su cui l’esperto non fatica a trovare spiegazioni: «È all’ordine del giorno: l’Italia ha avuto un ruolo nel dibattito sulla costruzione dell’Artificial Intelligence Act europeo, su dove e come le piattaforme possono o meno dispiegare i loro investimenti. È dunque sensato dare grande rilevanza a tutto ciò in quel contesto». E a prescindere dal dialogo che la premier Giorgia Meloni ha instaurato con i vertici delle grandi aziende internazionali, da Elon Musk a Bill Gates, l’adozione di piani d’azione collettivi è fondamentale in questo settore. «Sarebbe molto complesso affrontare la questione IA in un’ottica puramente nazionale. Stiamo parlando di sistemi nati e gestiti a livello sovranazionale, che hanno solo una ricaduta nei singoli stati. Per questo è molto difficile prendere iniziative nazionali in proposito». Fra l’altro, con il passaggio di consegne avvenuto il 16 novembre scorso, il nostro paese ha ereditato dal Giappone la presidenza della task force “Think 7”, istituita per orientare i processi decisionali che porteranno al disegno della nuova governance sull’IA. Grande attenzione andranno alla trasparenza, al rispetto della privacy da parte degli algoritmi e alla conformità tra i sistemi di intelligenza artificiale e lo stato di diritto. Tutti temi centrali anche nella definizione di una strategia europea comune, la cui discussione ha a lungo rallentato l’approdo al cosiddetto AI Act.

Il contesto europeo e l’AI Act

Presentato ufficialmente nell’aprile del 2021 su proposta della Commissione Europea, l’Artificial Intelligence Act rappresenta la prima legge al mondo formulata da un consesso di stati sul tema dell’intelligenza artificiale. Tra emendamenti approvati e accordi provvisori però, il testo non sarà definitivo prima del prossimo 24 aprile e non verrà applicato per intero prima del 2026. A ostacolare l’iter del pacchetto normativo, che intende garantire il rispetto da parte dei sistemi IA immessi sul mercato e utilizzato nella comunità dei diritti e valori fondanti dell’Unione, le schermaglie tra nazioni diverse con diverse concezioni degli stessi valori. Mentre ci si arrovella su categorizzazione biometrica dei dati personali sensibili (come il credo politico o l’orientamento sessuale), riconoscimento delle emozioni e manipolazione della volontà individuale, cercando di costruire profili di rischio per le singole piattaforme e sanzioni correlate, il tempo scorre: «Non siamo ancora arrivati a far uscire AI Act e già c’è chi dice che non è al passo con quelle che per allora saranno le potenzialità tecnologiche dell’Ai, ormai settimanalmente aggiornate» ricorda a questo proposito Forghieri. «L’iniziativa europea è importante, ma è molto difficile in questo campo riuscire ad avere un approccio coerente. Tendenzialmente, l’approccio italiano ed europeo privilegia il controllo ed è più problematico. Si vuole regolamentare qualcosa che sta cambiando con le regole e i tempi del dibattito democratico, che non sono quelli della tecnologia».

IA e Parlamento italiano: la carta vincente del copiloting

Sul fronte sociopolitico della governance italiana invece, il lavoro della Commissione di Vigilanza sull’attività di documentazione della Camera, in collaborazione con la commissione Ai e il Comitato parlamentare bipartisan dedicato, sembra iniziare a dare i suoi frutti. Anzi, dopo Brasile, Giappone, Olanda, Stati Uniti e pochi altri, l’Italia potrebbe diventare uno dei primi paesi al mondo ad applicare strumenti di intelligenza artificiale alle attività parlamentari. Il risultato virtuoso emerge dal report pubblicato sul tema lo scorso 14 febbraio, a chiusura del primo anno di lavoro del Comitato, presieduto dalla Vicepresidente della Camera Anna Ascani e costituito anche dalle deputate Rosaria Tassinari (FI) e Ilaria Cavo (Noi Moderati). Un anno intenso, durante il quale le tre deputate hanno dialogato con enti di ricerca e visitato i quartieri generali delle più importanti high-tech companies internazionali, da Google a Anthropic, da Amazon a Microsoft, da Meta a Open AI per individuare il partner adatto con cui mettere a punto un progetto concreto. Per il momento, la strada più probabile pare essere quella dei cosiddetti “modelli discriminativi” in grado di categorizzare e distinguere diverse tipologie di documento, recuperare informazioni in tempi rapidi e scoprire correlazioni tra quest’ultimi. I software generativi potrebbero invece essere impiegati come veri e propri chatbot, per rispondere automaticamente a domande specifiche o prevedere gli effetti di iniziative politiche. «L’intelligenza artificiale non intende in alcun modo sostituire specifiche figure lavorative. Si tratterà di una semplificazione delle mansioni, per aumentare produttività ed efficacia dei professionisti» ha tenuto a precisare il Comitato, interrogato al riguardo. Nel report, vengono esposti anche i requisiti a cui gli strumenti AI utilizzabili in Parlamento dovranno rispondere: primi fra tutti la trasparenza e la sicurezza. I dati della Camera trattati da tali tecnologie dovranno essere sempre disponibili e completi e il meccanismo di funzionamento dei software facilmente comprensibile all’opinione pubblica. A ricordarlo un punto, quello del cosiddetto copiloting macchina-essere umano, su cui anche l’intervistato concorda: «Il livello di sviluppo attuale dell’Ai mette a rischio più i lavori di concetto rispetto a quelli manuali. Ma la navigazione nel corpo legislativo e nei suoi materiali è una sfida complessa. Inserire strumenti di Ai nel lavoro parlamentare creando automatismi è il futuro migliore che possiamo aspettarci. Questo, com’è applicabile in qualunque attività lavorativa, lo è anche in Parlamento. Non vedo nel breve rischi di alcun tipo, tantomeno per una democrazia solida come l’Italia».