Promuovere norme più stringenti per le piattaforme con l’intento di proteggere tutti gli utenti e in particolare i più giovani che varranno in tutta l’Unione Europea: da sabato 17 febbraio entra in vigore il Digital Service Act, il regolamento europeo sui servizi digitali.

COSA PREVEDE IL DIGITAL SERVICE ACT

Il regolamento è stato approvato due anni fa e prevede responsabilità per chi progetta, gestisce e amministra le piattaforme di servizi, stringendo notevolmente le regole nei confronti dei minori. In particolare, impone a tutti gli intermediari in rete di adeguarsi alle norme di trasparenza su algoritmi e pubblicità. Prevede, inoltre, la lotta alla violenza online e alla disinformazione, protezione dei minori, stop alla profilazione degli utenti utilizzando dati sensibili. Un tema di stretta attualità, quello del rapporto tra AI e società, emerso anche durante il World Governments Summit (WGS), un incontro in cui si è discusso delle caratteristiche della nuova GPT-5 e degli impatti dell’intelligenza artificiale sul quotidiano. Lo stesso “papà” Sam Altman ha ammesso forti preoccupazioni sul vuoto di norme ancora esistente sugli usi, che rischia di dare esito a «scenari degni di una fiction». «L’unica soluzione è procedere con la sperimentazione analizzando cosa potrebbe funzionare e cosa potrebbe danneggiare» l’umanità. Un compito di cui la responsabilità è – secondo il primo amministratore delegato di OpenAI – tutta nelle mani dei governi, che dovranno guidare il mondo nel «testare tutti i diversi processi regolamentari”, collaborando con un obiettivo comune. Rischi potenziali e vantaggi indiscutibili che sono stati il focus delle contestazioni di più stretta attualità, tra cui quelle dello scorso 29 gennaio in cui il Garante della Privacy in una lettera di avviso ha contestato ad OpenAI l’assenza di qualsiasi verifica circa l’età degli utenti relativamente al servizio ChatGPT.

MISURE ADEGUATE PER TUTELARE I MINORI

Ad oggi, per i minori di 16 anni le regole Ue prevedono che il trattamento dei dati sia lecito soltanto nella misura in cui il consenso è prestato e autorizzato dai genitori. In Italia, il minore che ha compiuto 14 anni può esprimere autonomamente il consenso all’utilizzo dei propri dati personali. Il Digital Service Act propone «misure adeguate e proporzionate per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sul loro servizio». L’obiettivo è quello di valutare il rischio, obbligando queste piattaforme ad utilizzare strumenti di verifica dell’età e di controllo parentale, volti ad aiutare i minori a segnalare eventuali abusi e ottenere sostegno. Francesco Maria Pizzetti, docente di Diritto Costituzionale all’Università di Torino ed ex Garante della Privacy, avverte: «Io aspetto di vedere quello che avviene. Sono mesi che dicono che la normativa verrà approvata in una data che poi viene prorogata. Circolano delle bozze che sono più affidabili di quanto avveniva qualche tempo fa, ma al di là di questo aspetterei di vedere il testo e prenderne coscienza». Il tema centrale, sottolinea, non è niente di nuovo: la protezione dei minori, materia notoriamente delicata, è già stata trattata nel regolamento privacy del GDPR (garante per la protezione dei dati personali). Quest’ultimo già prevedeva il consenso genitoriale per l’uso dei dati dei minori di 14 anni, soglia minima che il regolamento europeo consentiva di scegliere all’interno del range 14-16 anni. «L’Italia con la Commissione ministeriale di cui facevo parte propose di adottare il limite dei 14 anni. Quindi non c’è nulla di nuovo nel regolamento sull’AI». La scelta di porre la soglia a 14 anni, spiega il professore, deriva dalla necessità del gestore dei dati di analizzare i dati ricevuti con più precisione. Se si alzasse questo livello tra 14 e 18 risulterebbe più difficile accorgersi di trattare con un minore.

minori

Nella situazione attuale di sviluppo delle comunicazioni digitali, l’intelligenza artificiale accumula una quantità molto elevata di informazioni che vengono trasferite in rete come messaggi. Questi sono conservati in numero sempre maggiore e con costi sempre più contenuti.

COSA SI INTENDE PER AI?

«Bisognerebbe capire se quando parliamo di intelligenza artificiale, parliamo più o meno tutti della stessa cosa. Lo stesso Regolamento Europeo conterrà una definizione di cosa si intende per intelligenza artificiale e sarà una definizione ampia che farà riferimento a una tecnologia consistente nell’utilizzo dell’analisi e nell’utilizzo dei dati al fine di trarne altri e altre informazioni» continua.

Le informazioni tratte dalle tecnologie di AI sono di carattere prevalentemente previsionale, per identificare situazioni che potranno verificarsi. Ad esempio, nella gestione di una linea metropolitana si potrebbero utilizzare i sistemi di intelligenza artificiale per l’analisi dei dati relativi alle utenze e, in questo modo, si potrebbero prevedere con minori costi e con maggiore capacità le esigenze dell’utenza.

AI O ALTRE FONTI? RENDERLE SEMPRE RICONOSCIBILI

Pizzetti, inoltre, sottolinea l’urgenza di rendere riconoscibile se un fatto o un’informazione è fornito da intelligenza artificiale o da altre modalità: «L’intelligenza artificiale potrebbe anche prendere delle enormi cantonate e ha molti punti di possibile debolezza. Allora è evidente che non solo per i minori, ma in generale, il primo problema è quello di rendere riconoscibile a chiunque se le informazioni presenti in rete sono fornite dall’AI o da altre fonti».

Il primo problema è quello di rendere riconoscibile a chiunque se le informazioni presenti in rete sono fornite dall’AI o da altre fonti.

Riguardo ai minori, aggiunge, la premura diventa ancora maggiore, in quanto facilmente soggetti a tali rischi, essendo potenzialmente meno in grado di avere una capacità critica. «Se dicono che sulla metropolitana di Milano alla stazione Duomo ci sono 100.000 persone che vogliono accedere alla metropolitana a una certa ora, probabilmente un sospetto sul fatto che sia un dato non credibile le viene. Ma un minore potrebbe crederci. Quindi, è evidente che il minore deve essere più tutelato». Pizzetti, infine, ritiene che questa regolamentazione ad oggi potrebbe già portare dei benefici a livello concreto, e sottolinea: «Lo scopo di tutta questa regolazione è quello di costruire il mercato unico digitale europeo, siccome ormai una grande parte delle transazioni – anche economiche – avvengono con modalità digitali. Servono regole che disciplinino questa transizione e che siano le stesse per tutti i suoi interlocutori», per far sì che il mercato unico non sia messo in crisi dalla possibilità che diversi produttori di beni e servizi utilizzino diversi sistemi di intelligenza artificiale più o meno competitivi tra loro.