«Se offrite un po’ di trasparenza e i giornalisti sanno cosa stanno guardando, possono interpretare quello che state generando per loro e usarlo come strumento di supporto alla creatività». Con queste parole Nick Diakopoulos, professore di comunicazione e informatica alla Northwestern University, ha introdotto il panel Generative Ai in the newsroom, un workshop dedicato all’intelligenza artificiale utilizzata nelle redazioni. Le parole di Diakopoulos, inoltre, suggeriscono agli sviluppatori di rendere accessibili questi software, perché conoscere può rassicurare.

Come funzionano nel concreto le intelligenze artificiali generative, come GPT3, che permettono la creazione di immagini e testi?

Le intelligenze artificiali, come GPT3, sono create in tre step: la scrittura, è forse la prima fase in cui si sperimentano diversi modi di comunicare al modello e si inseriscono dei suggerimenti per cercare di far fare al modello ciò che si vuole. La progettazione è il livello successivo in cui si ha una qualche nozione di intento o di comprensione di come controllare deliberatamente ciò che si pensa che il modello debba fare e modellare i risultati. Infine, l’ingegnerizzazione è il livello in cui si ha una conoscenza tecnica o una comprensione più approfondita del sistema e si possono sviluppare strategie più sofisticate, come il concatenamento dei prompt.

Che cosa si intende per concatenamento dei prompt?

Un prompt è uno strumento in cui noi possiamo inserire delle richieste. Per concatenamento dei prompt si intende un modello per cui tutto quello che inserisco in un prompt va a finire in quello successivo cosicché l’intelligenza artificiale ricorda quello che si è inserito e lo usa per imparare e migliorare la risposta. Inoltre, quando si entra nello step dell’ingegnerizzazione, c’è la possibilità di effettuare una messa a punto con centinaia di esempi per adattare il modello all’esempio che si ha in quel momento. Alcune di queste capacità sono più analitiche, come la classificazione o l’assegnazione di punteggi o l’estrazione di dati o il riconoscimento di modelli nei documenti, mentre altre capacità sono più generative.

Andando oltre il funzionamento dell’intelligenza artificiale, qual è, ora, il ruolo delle big tech nell’IA?

Gran parte dello sviluppo tecnico sta avvenendo nelle big tech in termini di sviluppo di modelli, formazione e implementazione di modelli. E vediamo che le organizzazioni giornalistiche agiscono più come utenti della tecnologia, incorporandola nei flussi di lavoro e nei flussi di produzione delle notizie e così via. In realtà, stanno facendo quello che fanno le aziende tecnologiche, ovvero promuovere la tecnologia e metterla a disposizione di altre organizzazioni.

Quali sono i confini tra responsabilità umana e responsabilità dell’algoritmo nella costruzione dell’intelligenza artificiale?

Penso che sia sempre necessario tenere a mente la responsabilità umana. C’è sempre una persona dietro la tecnologia che deve essere responsabile dell’impatto della tecnologia nel mondo. Quindi penso che, in particolare come giornalisti che indagano su questa tecnologia, dobbiate sempre cercare le persone che sono responsabili di quella tecnologia e l’idea di responsabilità algoritmica o di responsabilità dell’IA è proprio quella di  indagare la tecnologia attraverso questa lente, guardando alla rete di persone e trovando quelle che ne sono effettivamente responsabili. 

Quali sono gli scenari futuri che possiamo immaginare sull’AI?

Ci sono tanti potenziali scenari futuri. Penso ad un progetto a cui sto lavorando con un collega dell’Università di Amsterdam: stiamo cercando di convincere le persone a scrivere questi scenari futuri per immaginare quale potrebbe essere il futuro dell’IA generativa ed esplorarlo da diverse prospettive. Sia che si costruisca o meno la tecnologia, sia che si utilizzi la tecnologia o che si sia solo un cittadino che subisce l’impatto della tecnologia.