Se da un lato proseguono incessanti gli studi per rendere l’intelligenza artificiale sempre più performante e impeccabile, di pari passo cresce la curiosità di sapere quale sarà il suo rapporto rispetto a quegli aspetti che sono ontologicamente e innegabilmente distintivi del genere umana. In altri termini, ciò che connota e rende unica la nostra specie: i sentimenti, le emozioni, la psiche.

Per questo aumentano sempre più gli esperimenti che cercano di sondare il terreno. Da ultimo, il tentativo di sottoporre a ChatGpt il famoso test di Rorschach, sviluppato nel 1921 dall’omonimo psichiatra svizzero come sistema valido non a misurare la personalità, al contrario di quanto si potrebbe pensare, bensì a identificare il pensiero disordinato di alcune categorie di persone, come gli schizofrenici. Il metodo consiste nel sottoporre al paziente alcune tavole, su cui sono raffigurate delle macchie di inchiostro simmetriche, dalla forma ambigua e liberamente interpretabili, per poi chiedergli che cosa riesca a vedervi. Il test si basa sulla pareidolia, ossia la tendenza umana ad attribuire un significato a cose che non ne hanno e, sebbene oggi sia ritenuto da molti psicologi come obsoleto e poco credibile, in alcune zone è tuttora utilizzato anche dai tribunali. Alcuni specialisti ritengono infatti che l’interpretazione personale sia un vero e proprio processo di creazione di un significato a partire dalla propria esperienza personale e che quindi sia una proiezione dei propri desideri, paure, credenze.

Proprio per questo è singolare e curioso chiedere a un algoritmo di AI, che non possiede esperienze personali ed emozioni da cui attingere, cosa riesca a scorgere in una figura imperscrutabile.

In realtà, la risposta dell’AI si è rivelata piuttosto letterale e, del resto, prevedibile, se si considerano i dati di addestramento su cui si basa la sua conoscenza: «Questa immagine è una macchia di inchiostro di Rorschach, spesso utilizzata nelle valutazioni psicologiche per esplorare la percezione e l’interpretazione. È stata progettata per essere ambigua, in modo che ogni persona possa vedere qualcosa di diverso a seconda delle proprie esperienze, emozioni e immaginazione». E ha aggiunto, senza ulteriori domande: «Per me assomiglia a qualcosa di simmetrico, forse due animali o figure che si fronteggiano, o un’unica entità con le ali spiegate. Il bello di queste macchie di inchiostro è che invitano a interpretazioni individuali!». Poi, nuovamente sollecitata a dire più precisamente cosa ci vedesse, ChatGpt ha notato una somiglianza più specifica: «forse o un pipistrello o una falena».

Secondo gli studiosi, comunque, la risposta della chat altro non sarebbe se non, appunto, un tentativo di fornire le informazioni che la stessa ha del test o di rispecchiare la cultura visiva collettiva, con cui la stessa è addestrata. Un’attività più simile a un’analisi di dati online piuttosto che a un pensiero: «Se la risposta di un’intelligenza artificiale assomiglia a quella di un essere umano, non è perché vede la stessa cosa, ma perché i suoi dati di addestramento rispecchiano la nostra cultura visiva collettiva» è stata l’osservazione della psicologa londinese Barbara Santini, che spesso utilizza il test con i suoi pazienti. Del resto, ChatGpt riesce anche a comprendere e descrivere emozioni, pur non provandole, perché ha la capacità di pescare abilmente dal set di dati a sua disposizione: ciò le permette di apparire simile a un essere pensante, ma continua a non esserlo. Peraltro, è sufficiente riproporre nuovamente la stessa tavola all’AI per constatarlo: la seconda volta, la lettura fornita dalla chatbot cambia, contrariamente a quanto avverrebbe con un essere umano. Lo evidenzia Chandril Ghosh, docente di psicologia presso l’Università di Kent, nel Regno Unito, specializzato in salute mentale, IA e trattamento: «Un essere umano di solito si attiene alla risposta precedente perché le esperienze personali e le emozioni influenzano le sue risposte – spiega Ghosh.- Al contrario, ChatGPT genera risposte basate sul suo set di dati».
Dunque, per quanto si ricerchi di rendere questi strumenti antropomorfizzati e colloquiali per favorirne l’utilizzo, comunque bisogna tenere in considerazione che il loro funzionamento non è pensante, ma dettato dai dati con cui sono stati addestrati. Una prova lampante di ciò emerge da un esperimento condotto dal MediaLab del Massachusetts Institute of Technology di Cambridge. I ricercatori hanno mostrato le tavole di Rorschach a un algoritmo di intelligenza artificiale addestrato unicamente con immagini di morti cruente, provenienti da un gruppo Reddit dedicato a questo, e l’AI ha fornito risposte che riflettevano la sua “educazione”. Dove la maggioranza degli uomini, e dunque gli altri modelli di intelligenza artificiale, vedono un gruppo di volatili su un ramo, questo algoritmo ha affermato di scorgere un uomo fulminato.

Da questo, si può dedurre quanto siano fondamentali i dati di addestramento, posto che i chatbot non sanno nulla a livello innato, ma possono solo apprendere.

Allo stesso tempo, se da un lato comunque si deve riconoscere la grande abilità delle AI a individuare gli schemi, dall’altro lato, il fatto che le stesse possano dare risposte diverse dinnanzi a una stessa immagine ambigua, ci ricorda che queste difettano di un aspetto essenziale e unico della mente umana: le emozioni e l’attribuzione di significati inconsci. Lo osserva la psicologa londinese Ieva Kubiliiute: «Non c’era soggettività in ciò che il sistema di intelligenza artificiale diceva quando gli venivano presentate le macchie d’inchiostro: non può capire il significato simbolico o la risonanza emotiva che un essere umano potrebbe associare a una particolare immagine». E questo, forse, ci dice molto più sulla mente umana piuttosto che sull’intelligenza artificiale: «La psiche umana è piena di conflitti interni, come la tensione tra desideri e morale o tra paure e ambizioni – afferma il professor Ghosh -. Al contrario, l’intelligenza artificiale funziona sulla base di una logica chiara e non si scontra con i dilemmi interiori essenziali per il pensiero e il processo decisionale umano».

Per saperne di più: https://www.bbc.com/future/article/20250224-what-happens-when-you-give-an-ai-a-rorschach-inkblot-test