Bandi di concorso che stanno portando all’assunzione di nuovi funzionari, conseguente rinnovamento del personale, progressiva adozione di nuove tecnologie e degli strumenti dell’intelligenza artificiale per ammodernare il funzionamento degli enti pubblici e migliorare efficienza ed efficacia nella gestione nonchè erogazione dei servizi: è un momento di estremo fermento per la pubblica amministrazione. Proprio in quest’ottica l’Agenzia per l’Italia Digitale (AgID) ha adottato il Piano triennale per l’informatica nella PA 2024-2026, che al suo interno contiene un capitolo espressamente dedicato all’intelligenza artificiale.

Alcuni chiarimenti sul Piano triennale per l’informatica nella PA 2024-2026 

Innanzitutto, occorre chiarire che all’interno del documento si specifica che cosa si intende con questa indicazione. Si richiama la definizione OCSE, adottata anche dall’AI Act, il Regolamento europeo per l’intelligenza artificiale, di cui si attende l’approvazione definitiva nelle prossime settimane e che rappresenterà la prima legge trasversale al mondo sull’argomento. Si precisa quindi che: «Per sistema di Intelligenza Artificiale si intende un sistema automatizzato progettato per operare con diversi livelli di autonomia, che può mostrare capacità di adattamento dopo l’installazione e che, per obiettivi espliciti o impliciti, deduce dagli input ricevuti come generare output quali previsioni, contenuti, raccomandazioni o decisioni, che possono influenzare ambienti fisici o virtuali». E si aggiunge che «i sistemi di IA variano nei loro livelli di autonomia e adattabilità dopo l’implementazione». Questa definizione ha quindi inteso escludere dalla categoria i software classicamente intesi, che sono ormai utilizzati da decenni, come spiega l’avvocata Cristina Criscuoli, Senior Lawyer presso lo studio legale DLA Piper ed esperta di privacy e diritto delle nuove tecnologie: «La nozione è sostanzialmente incentrata sui sistemi di intelligenza artificiale generativa, ossia quelli che sono in grado, sulla base degli input con cui vengono addestrati, di creare contenuti nuovi e originali. La Commissione europea adotterà delle linee guida per chiarire e circoscrivere l’ambito di applicazione della definizione».

AI e PA: quale rapporto?

Nel testo, è contenuto anche un decalogo di principi generali, a cui l’attività di applicazione dell’AI alla pubblica amministrazione dovrà conformarsi. Si tratta di punti molto generali, stilati dall’AgID in concerto con tutti gli enti che hanno preso parte alla redazione del Piano, tra cui il mondo della ricerca, dell’università, dell’impresa e le pubbliche amministrazioni (INPS, Consip, INAIL e i Comuni). Nello specifico, le voci previste sono:

  • Miglioramento dei servizi e riduzione dei costi, con l’automazione di compiti ripetitivi connessi a servizi istituzionali;
  • Analisi del rischio, per assicurare che i sistemi AI non violino diritti fondamentali della persona;
  • Trasparenza, responsabilità e informazione, per consentire agli utenti di assumere decisioni informate e consapevoli nell’utilizzare i servizi dell’AI;
  • Accessibilità e inclusività, nel rispetto dei principi di equità, trasparenza e non discriminazione;
  • Privacy e sicurezza, per garantire una gestione sicura e responsabile dei dati dei cittadini;
  • Formazione e sviluppo delle competenze, in modo che l’AI sia applicata in modo efficace;
  • Standardizzazione, in conformità con la normativa tecnica internazionale ed europea;
  • Sostenibilità, tenendo conto dell’impatto ambientale ed energetico dell’adozione di sistemi di AI;
  • Foundation Models, che la p.a. deve assicurare siano trasparenti e chiariscano responsabilità e ruoli al loro interno;
  • Dati, di cui deve essere valutata la gestione del fornitore del servizio dalle p.a. che acquistano i servizi di AI tramite API (interfacce che permettono le interazioni tra diverse applicazioni).

Sul punto, osserva Claudio Forghieri, esperto di IA per le pubbliche amministrazioni e docente dell’Università Cattolica di Milano, occorre tener presente che l’introduzione di sistemi di AI nel settore pubblico è un aspetto che riguarderà direttamente il funzionamento interno degli uffici, ma che avrà significative ricadute indirette sulla vita dei cittadini. «Ad esempio, l’INPS sta sperimentando un sistema automatizzato di reindirizzamento delle richieste che giungono tramite pec o web, un’attività che prima veniva svolta da un ufficio preposto – spiega. Così si riduce drasticamente il lavoro di smistamento del personale, che può quindi dedicarsi completamente all’attività di risposta, con velocizzazione dei tempi, a beneficio dei cittadini». Un altro esempio di applicazione utile per gli utenti è l’utilizzo di chatbot, che in realtà sono diffusi da anni ma che con l’intelligenza artificiale generativa stanno sempre più raffinando le loro capacità di risposta: «Ora vengono dotati di motori generativi in grado di interpretare le domande in qualsiasi modo siano scritte, eventualmente anche se orali, e possono pescare le risposte non solo tra i dati utilizzati per addestrarli, ma da knowledge base molto specifiche individuate dalla p.a.». Si tratta di una circostanza che aumenta in modo significativo l’efficienza di questi sistemi e ne massimizza l’utilità: «Si riduce drasticamente la possibilità che le risposte erogate siano superficiali o addirittura non coerenti con la domanda».

AI e PA: quali vantaggi?

Secondo Forghieri, l’introduzione di sistemi di AI può apportare vantaggi sia per la pubblica amministrazione sia per i privati cittadini. Dal punto di vista della P.A., parte delle attività più meccaniche sinora svolte dagli operatori di front office, come la risposta alle mail, alle telefonate o allo sportello, potrà essere riservata a processi automatizzati, in modo da destinare le risorse umane ad attività di assistenza e consulenza più specifiche. Per quanto riguarda l’utenza, i cittadini potranno godere di un servizio di buona qualità erogato 24 ore su 24, sette giorni su sette, nonché di un personale più altamente qualificato per eventuali esigenze più specifiche. Spiega Forghieri: «Ne è un esempio il sistema Informagiovani: se si affida a una macchina il compito di rispondere alle domande più banali e automatiche, il personale può invece dedicarsi ad attività più complesse come aiutare i ragazzi a compilarsi il curriculum, in modo da accompagnarli e aiutarli».

Il supporto delle start-up all’AI nella PA

Proprio tra i sistemi utilizzati per snellire le procedure dell’Informagiovani e dei servizi al lavoro ha trovato applicazione anche Jobiri.com, una startup nata con l’intento di rendere più efficienti le pubbliche amministrazioni che si occupano del collocamento professionale di giovani, studenti, donne, disoccupati e persone alla ricerca di un nuovo impiego. Claudio Sponchioni, uno dei suoi fondatori, la descrive così: «L’idea è nata perché ci siamo accorti che molte persone, non solo in Italia ma anche all’estero, faticano a trovare un’occupazione: abbiamo quindi pensato di creare uno strumento che potesse rendere più semplice e democratico l’accesso e l’accompagnamento al mondo del lavoro». Nello specifico, si tratta una piattaforma digitale che mette a disposizione servizi utili per tutti e tre i protagonisti del mercato dell’impiego, ossia la pubblica amministrazione, il cittadino e l’azienda, e che viene replicata e personalizzata a seconda del soggetto destinatario. Da un lato, le istituzioni che decidono di adottare questo sistema dispongono di vari strumenti utili a ingaggiare, monitorare e supportare i cittadini, comprese statistiche per sapere chi si stia attivando oppure no e piani di accompagnamento personalizzati per strutturare la ricerca del lavoro in maniera più efficace. Allo stesso tempo, il cittadino dispone di annunci personalizzati grazie all’AI, video di pillole informative, un cover-letter e cv-builder e spesso anche di un collegamento con un orientatore. Le aziende, poi, che spesso sono in contatto con le istituzioni, hanno la possibilità di pubblicare all’interno della piattaforma i loro annunci di lavoro, in modo da generare un incrocio domanda-offerta territoriale molto funzionale. In altri termini, lo scopo è quello di automatizzare quanto più possibile il processo di ricerca del lavoro e di integrarlo con gli strumenti offerti dall’AI per velocizzarlo e consentire al personale che lavora nelle p.a. di concentrarsi su attività più elaborate che altrimenti sarebbero trascurate per mancanza di tempo. «L’87% delle persone che utilizza la nostra tecnologia trova lavoro entro 29 giorni se è under trenta, quando la media di mercato è di quattro o cinque mesi, mentre se ha più di trent’anni di solito ci impiega poco più di un mese e mezzo, contro i tradizionali sei o sette mesi». Il servizio, poi, è completamente gratuito per i cittadini nel momento in cui sono le istituzioni a farsene carico attraverso un investimento, una scelta che secondo Sponchioni è del tutto comprensibile se si considera le ricadute positive del suo utilizzo: «Si crea un circolo virtuoso, perché se una persona entra nel mercato del lavoro inizia a guadagnare, quindi non è più dipendente dai genitori e non deve ricevere alcun sussidio, e poi può spendere, il che crea benefici riguardanti innanzitutto il suo territorio ma che poi si estendono secondo cerchi concentrici».  Del resto Jobiri.com, dalla sua nascita nel 2017, ha giù supportato 150mila persone, più di un centinaio di istituzioni pubbliche e più di 900 addetti ai servizi lavoro di queste istituzioni. E con riferimento specifico ai servizi dell’Informagiovani Sponchioni spiega: «Abbiamo strutturato una rete di 25 territori che non solo crea un match vincente tra domanda e offerta, ma permette anche ai cittadini di accedere ai servizi offerti dal comune stesso che siano funzionali ai propri bisogni ed esigenze».

Quali tempistiche per l’AI nella PA?

Se da un lato sta avvenendo un’introduzione dell’AI nelle pubbliche amministrazioni, per calcolare delle plausibili tempistiche entro cui questa adozione potrebbe essere completa, occorre tener presente molteplici aspetti. Forghieri ad esempio nota che la pubblica amministrazione deve procedere in modo cauto perché è vincolata al rispetto del quadro normativo non solo nazionale, ma anche europeo, a cui ad esempio appartiene l’AI Act. Queste disposizioni spesso impongono limiti stringenti all’introduzione dell’AI nelle p.a. a tutela dei diritti personali e fondamentali, specie per sistemi più complessi: se è probabile che meccanismi come le chatbot si espandano a macchia d’olio in brevissimo tempo, l’introduzione di strumenti che utilizzano informazioni sensibili, immagini personali, dati biometrici e simili potrebbe richiedere alcuni anni. L’avvocata Criscuoli ha al riguardo precisato: «Uno dei principali obiettivi dell’AI Act è prevenire e mitigare i rischi connessi all’IA, vietando o limitando l’uso di sistemi di IA che presentano un rischio inaccettabile per la sicurezza, la salute, la dignità o l’autonomia delle persone, o che violano i valori democratici. L’intelligenza artificiale può ad esempio rappresentare uno strumento potentissimo per la lotta al crimine da parte delle autorità di pubblica sicurezza, ma c’è l’esigenza di assicurare che ciò non mini l’ordine democratico».

«L’intelligenza artificiale può ad esempio rappresentare uno strumento potentissimo per la lotta al crimine da parte delle autorità di pubblica sicurezza, ma c’è l’esigenza di assicurare che ciò non mini l’ordine democratico».

Un approccio basato sul rischio 

Proprio sulla base di tali considerazioni, è interessante sottolineare come l’Unione Europea con l’AI Act e di conseguenza l’Italia, a cui questo regolamento sarà direttamente applicabile, abbiano adottato un “approccio basato sul rischio”, che prevede obblighi diversi, per natura e gradazione, a seconda del tipo di sistema di AI utilizzato e della qualifica del soggetto destinatario della norma. L’AI Act prevede infatti una classificazione dei sistemi di IA in base al livello di rischio che presentano per le persone e per la società, distinguendo tra quattro categorie in cui questo può configurarsi: inaccettabile, alto, limitato e minimoI sistemi di AI che presentano un rischio inaccettabile – ad esempio, quelli che consentono lo “scoring sociale” da parte delle autorità pubbliche – sono radicalmente vietati, mentre quelli ad alto rischio sono soggetti agli obblighi più gravosi. La classificazione include i “general purpose AI” – che possono servire una varietà di scopi e comportano un rischio sistemico e sono perciò sottoposti a limiti stringenti – ed i sistemi AI di base, per cui sono previsti obblighi di trasparenza. Infine, i sistemi di IA che presentano un rischio minimo o nullo, perché non hanno alcun impatto sui diritti fondamentali o sulla sicurezza delle persone e offrono ampi margini di controllo agli utenti, sono liberi dagli obblighi normativi.  Per quanto riguarda l’aspetto soggettivo, gli obblighi più gravosi sono posti a carico dei fornitori che immettono sul mercato sistemi di AI con il proprio marchio, ma anche i produttori, gli importatori e gli utilizzatori dovranno rispettare una serie di regole rigorose. In buona sostanza, tanto più alto sarà il rischio connesso all’uso di un sistema di AI, quanto più rigide saranno le regole da seguire. Spiega Criscuoli: «Ad esempio, i sistemi di AI utilizzati nei processi di selezione di personale sono considerati ad alto rischio, mentre quelli che permettono di dedurre le emozioni per monitorare gli individui in un contesto lavorativo o scolastico sono in linea di principio vietati, perché si tratta di settori molto delicati e ad alto rischio di discriminazione, per i quali il livello di tutela deve essere alto».

E la privacy?

Uno degli aspetti più delicati in relazione all’uso dell’intelligenza artificiale è quello della tutela della privacy degli individui. I pericoli per la privacy sono, in effetti, notevoli ed è necessario pensare a quale possa essere la giusta via di intervento per sfruttare le potenzialità della p.a. senza sacrificare la protezione dei dati personali. Una delle chiavi per assicurare una corretta gestione, secondo Criscuoli, risiederebbe nell’introdurre un percorso formativo sul tema, che è ancora sconosciuto ed ostico per la maggioranza degli italiani, e nel prevedere meccanismi di governance per la gestione dei progetti sull’AI all’interno delle varie istituzioni, ed anche delle aziende, per individuare regole e responsabilità chiare. «La Casa Bianca ha di recente adottato un documento che delinea la strada per la gestione e l’utilizzo dell’intelligenza artificiale da parte delle agenzie federali statunitensi. in cui si sottolinea come la gestione del rischio e la promozione dell’innovazione dell’AI richiedano una governance efficace. Si impone a tutte le agenzie federali la nomina di un chief AI officer, di cui il documento descrive ruolo, responsabilità e posizione – osserva Criscuoli -. Quest’obbligo, invece, non è formalmente previsto nell’AI Act, che però obbliga a dotarsi di un programma interno di compliance sull’AI e di fatto richiede la nomina di dipendenti che ne controllino l’osservanza». Per Criscuoli sarebbe però opportuno che le p.a. italiane si dotassero di una figura simile al chief AI officer, identificata come soggetto  responsabile di assicurare il corretto sviluppo e utilizzo dell’intelligenza artificiale.

Sarebbe opportuno che le p.a. italiane si dotassero di un soggetto  responsabile di assicurare il corretto sviluppo e utilizzo dell’intelligenza artificiale

Lo sviluppo dell’AI nella p.a. non dipende soltanto dagli aspetti problematici riguardanti la tutela di diritti come la privacy, ma anche dalla disponibilità di finanziamenti futuri da destinarvi. Osserva Forghieri: «Molto dipenderà anche da quanto la pubblica amministrazione centrale e le grandi strutture dello Stato come l’AgID o il dipartimento per la trasformazione digitale saranno in grado di sostenere, finanziare e accompagnare tutte le p.a., anche le più piccole». Del resto, nel momento in cui termineranno i soldi del PNRR, la consapevolezza e la capacità di spesa della p.a. diventeranno determinanti. L’Italia si trova già in una posizione di notevole arretratezza rispetto ad altri Paesi, anche per uno “scoglio culturale” che Sponchioni ricollega a una scarsa consapevolezza da parte dell’opinione pubblica delle opportunità che l’AI potrebbe effettivamente generare. «Non mi aspetto che la p.a. si faccia portatrice del cambiamento, perché comunque siamo noi privati ad avervi portato innovazione, ma spero che ci siano persone, come quelle che abbiamo avuto la fortuna di incontrare noi, che decidano di superare un po’ l’avversione al rischio, che tipicamente denota le istituzioni pubbliche, e che provino a osare, affidandosi a realtà magari più piccole ma innovative, propositive di progetti pilota o sperimentazioni».

Spero che ci siano persone che provino a osare, affidandosi a realtà magari più piccole ma innovative

La speranza, è quindi quella che vi sia un’accelerazione importante al di fuori della pubblica amministrazione, che si ripercuota poi con le dovute cautele anche all’interno del settore statale.