L’Italia dice basta a ChatGpt, almeno per il momento. La decisione è stata presa dal Garante per la privacy che ha disposto, con effetto immediato, “la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI”, la società americana che ha sviluppato e che possiede la piattaforma.
Le accuse mosse contro OpenAI sono due: la raccolta illecita di dati personali e l’assenza di sistemi appositi per verificare l’età dei minori. Da una parte, infatti, il Garante privacy ha notato la “mancanza di un’informativa per tutti gli utenti e gli interessati i cui dati vengono raccolti da OpenAI”, ma soprattutto “l’assenza di una base giuridica” che giustifichi tale raccolta. Riguardo ai minori di 13 anni, invece, il Garante privacy ha detto che “l’assenza di filtri che verifichino l’età degli utenti espone i minori a risposte non idonee rispetto al loro grado di sviluppo”.
Oggi ChatGpt rappresenta uno dei software più noti d’intelligenza artificiale relazionale e il sistema è anche in grado di creare e di simulare delle vere conversazioni umane. Ma come si è arrivati, in Italia, alla sua chiusura? Tutto è partito lo scorso 20 marzo, quando l’applicazione aveva subito una perdita di dati (o data breach) relativi alle conversazioni degli utenti e alle informazioni sui pagamenti degli abbonati al servizio a pagamento. Da qui, il Garante privacy ha deciso di aprire un’istruttoria che porterà, nei prossimi giorni, tutti gli utenti italiani e chi si è registrato con una mail italiana a non poter più accedere al sistema.
Ma c’è ancora una cosa che OpenAI può fare per risolvere la situazione: attuare delle misure che vadano a colmare le richieste del Garante per la privacy. Quest’ultimo, infatti, ha stabilito che la società dovrà comunicare tali misure entro 20 giorni, pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo.
Per saperne di più, continua a leggere su IlSole24Ore.com.