È dall’inizio dell’anno corrente che si parla di elezioni: sia a livello nazionale che nel mondo. Il mese di giugno vedrà i cittadini andare alle urne per votare i rappresentati del Parlamento Europeo. Se da un lato si assistono a tali procedure democratiche, dall’altro le persone si scontrano con una realtà che avanza sempre di più: l’intelligenza artificiale.

Il potere di cui si sta investendo l’AI è sempre più forte ed evidente nella vita quotidiana: una sorta di strumento che “facilita” la vita della gente. D’altro avviso però l’emergere di Chatbot può avere delle conseguenze negative nel processo di disinformazione e diffusione di fake news, soprattutto se si parla di elezioni.

C’è una nuova consapevolezza nell’aria europea, tanto è vero che si parla di AI-Act. Non è ancora in vigore, manca il via libera da parte del Consiglio, ma è stato approvato in prima lettura dallo stesso Parlamento Europeo. «Già nel corso dell’iter legislativo sono venute ad emersione una serie di posizioni divergenti», spiega Noemi Miniscalco, assegnista di ricerca nell’università degli studi di Modena e Reggio Emilia, e continua «nel testo finale è stato prediletto un approccio basato sul rischio, che può dirsi apprezzabile; al contempo però ampio margine è lasciato ai legislatori nazionali e questo porterà presumibilmente, anche in tal settore, ad una diversificazione delle scelte operate dai vari Stati». Il vero problema è quello che potrebbe causare l’intelligenza artificiale generativa nella produzione di contenuti che non sono veritieri e impatta anche la diffusione di informazioni che avvengono tramite servizi digitali terzi.
Tenendo come base di partenza il Digital service Act, che definisce gli obblighi che devono osservare i servizi con più di 45 milioni di utenti attivi nell’UE e i rischi legati ai processi elettorali, l’Europa si sta muovendo da tempo per contrastare la disinformazione.

Già nel 2018 l’Unione Europea aveva individuato un piano d’azione per contrastare la disinformazione attraverso l’istituzione dell’Osservatorio Europeo dei Media Digitali, operativo dal 2022. «L’obbiettivo è quello di garantire la trasparenza della pubblicità politica e di permettere la collaborazione tra le varie organizzazioni, coordinando attività congiunte a livello europeo anche nel corso dei processi elettorali» commenta la professoressa. Anche la raccomandazione 2023/2829 ha spinto verso regole relative ai processi elettorali inclusivi e al rafforzamento nello svolgimento delle elezioni del Parlamento Europeo. Recentemente la Commissione Europea ha proposto delle linee guida proprio sui motori di ricerca e le piattaforme on-line per mitigare i rischi in vista delle elezioni del 6-9 giugno 2024.

«Attualmente il livello di sviluppo delle di queste tecnologie è tale per cui ancora un occhio umano riesce ad accorgersi che la foto o che il contenuto audio non sono reali, ma il loro sviluppo sta avanzando a un ritmo costante che prima non era nemmeno immaginabile,» nota Miniscalco. In una prospettiva futura la professoressa pensa che ci sarà bisogno di misure in grado di contrastare i fenomeni di disinformazione by design e by default, quindi sin dalla fase di progettazione dei sistemi stessi. «Sarà difficilmente distinguibile il prodotto di un’intelligenza artificiale rispetto a quello di un’intelligenza umana e pertanto, tanto nella fase di sviluppo dei sistemi di AI quanto di uso di essi,  occorrerà apportare misure di garanzia: anzitutto l’educazione dell’utente, ma pure l’implementazione di  team di ricercatori e professionisti capaci di rilevare le fake news, la chiara e trasparente riconducibilità dei contenuti prodotti ai sistemi di AI, anche attraverso “etichette”, nonché lo sviluppo di tecnologie in grado di rilevare la disinformazione, considerato che i prodotti dell’innovazione sono uno strumento e, in quanto tali, essi possono essere impiegati pure al fine di ridurre i rischi che dallo sviluppo attuale possono derivare, a garanzia, in ultima istanza, dei diritti e delle libertà delle persone».

L’inquinamento delle informazioni attraverso i Chatbot crea delle consapevolezze errate o conferma delle idee sbagliate. «Si costruiscono così delle ecochambers: convogliano informazioni che avvalorano una mia ipotetica convinzione» dice il professore e avvocato Giovanni Comandè della Scuola Superiore Sant’Anna e fondatore di SmartLex (smartlex.eu).

«Le fake news creano un rumore di fondo per cui su internet si vedono più o meno sempre le stesse cose e inconsapevolmente ci convinciamo che ci sia qualcosa di vero sotto».

I bot possono anche far circolare contenuti multimediali o scritti nei quali mescolano realtà e finzione. «Giocano sul verosimile rendendo ancora più difficile l’interpretazione e il chiarimento dei dati di fatto» afferma il professore. Il mescolamento tra il vero e il falso è più difficile da individuare ed è proprio lì che si insinuano le fake news. Al fine di reperire informazioni corrette, Comandè suggerisce di fare un fact-checking quantomeno indiretto e di andare quindi a reperire le informazioni da fonti affidabili e ad essere noi in primis più consapevoli mettendo in discussione ciò che ci circonda e ponendoci delle domande. «La disinformazione rafforza i messaggi che sentiamo anche se non ascoltiamo e questo diventa estremamente pericoloso» spiega Comandè e aggiunge «si crea un effetto cascata se io vengo investito da una fake e la giro a persone che mi ritengono affidabile».

La stessa fake news potrebbe potenzialmente diventare un’etichetta ideologica per qualificare o dequalificare un avversario. È calzante l’esempio di Nicola Strizzolo sociologo e docente dei processi culturali e comunicativi dell’Università di Teramo. «Se io chiedessi a ChatGpt “mi fai una fake news”, la risposta sarebbe “no”», ma provoca e continua «se io chiedo allo stesso bot di farmi un articolo di giornale con elementi che gli do io, la risposta sarebbe affermativa». Le notizie false possono essere create se la fonte non è veritiera o verificata. Infatti, Strizzolo aggiunge che «se si accetta sempre di più una forma di tecnicismo non umanizzato sempre più difficile sarà l’intervento umano e questo è qualcosa che avviene». La prima cosa da fare è sempre un’operazione di fact-checking, un controllo che avviene sempre in misura minore soprattutto in tempi che corrono come quelli odierni, dove la velocità è essenziale. Con questo assunto non si vuole dire che i Chatbot sono per natura inaffidabili, ma c’è una probabilità per cui porrebbero anche esserlo.

I rischi che possono derivare dalla manipolazione delle informazioni nel dibattito politico potrebbe portare a un euroscetticismo. «Porta sempre meno le persone ad andare a votare» commenta il professore. «Se andiamo a vedere quali sono le dimensioni del capitale sociale legato alla fiducia», ovvero l’insieme delle reti che ci uniscono in società e che ci fanno entrare in relazione l’uno con l’altra che fa si che ci scambiamo risorse. Effettivamente la partecipazione delle persone va in parallelo con la lettura dei giornali. «Laddove cade la partecipazione, cade anche l’incentivo ad andare a votare», conclude il sociologo.

Ci può essere una fiducia che l’utente dà alle risposte fornite da ChatGpt. Il bot è investito da una tale credibilità anche perché le persone tendono a simpatizzare con questi nuovi mezzi quando utilizzano elementi comunicativi umani: dalla voce, al volto fino alla corporeità.