Nessun vivente potrà mai abitare uno spazio digitale. Una frase come questa si dovrebbe trovare come monito, promemoria o banner ogni volta che ci si connette a Internet. Il motivo? La necessità di ricordarci che siamo umani e viviamo in un mondo di artefatti tecnologici che diventano ambiente per sperimentare nuove forme di vita, nuove forme di intelligenza e di rapporto, ma che afferiscono sempre alla sfera dell’esistenza umana. Cercare di capire come stia cambiando la nostra condizione antropologica, in particolare rispetto allo sviluppo dell’intelligenza artificiale, è una sfida impegnativa che coinvolge la ridefinizione dello spazio di interazione, delle modalità di conoscenza, di apprendimento, di condivisione e la nostra coscienza del rapporto che abbiamo con queste forme di mediazione del reale, che oggi sono diventate il reale stesso.
Ecologia mediatica
Per parlare di media è meglio utilizzare il concetto di ecosistema più che di infrastruttura. In un ecosistema tutti gli elementi hanno un equilibrio. «É un equilibrio mai statico, sempre dinamico, in evoluzione» afferma Paolo Granata, professore associato al St. Michael’s College dell’università di Toronto. Infatti, in un ecosistema la cosa più importante è l’interazione fra le varie forme mediatiche e la trasformazione che porta a un’ibridazione tra media consolidati (radio, televisione, giornali, libri) e nuove modalità interattive. Muta così la nostra epistemologia, cioè il modo in cui conosciamo. «Quello che va sotto l’etichetta di intelligenza artificiale non è che una diversa interfaccia della conoscenza che ci permette di esperire il mondo in maniera nuova e aumentare le nostre possibilità. Ora è il momento di esplorare le implicazioni epistemologiche delle tecnologie emergenti». Grazie alla malleabilità di queste applicazioni, noi non ci limitiamo a utilizzare, ma possiamo programmarle usando il linguaggio naturale e questa è un’innovazione enorme.
Elena Esposito, professoressa ordinaria di sociologia all’università di Bielefeld e di Bologna, specializzata nello studio dei processi comunicativi, sottolinea che «noi tutti siamo non solo consumatori dati, ma anche produttori di dati». Si tratta di una connessione indissolubile tra ambiente mediatico e contesto sociale dove l’influenza è biunivoca. Il sistema che si sta costituendo è conversazionale, basato sempre di più sul contenuto informazionale.
Secondo Adriano Pessina – professore ordinario di bioetica presso l’università Cattolica del Sacro Cuore di Milano – l’elemento problematico che emerge dalla presenza di questa sterminata quantità di informazioni è la verificabilità. «Il sapere umano – sostiene Pessina – è dato dal fatto che tu puoi verificare nell’esperienza quello che hai messo in campo, ma di fronte a queste tecnologie noi stiamo derogando a questo passaggio». Per il filosofo si tratta di «un’espropriazione dell’autonomia ermeneutica» in virtù dei principi fondanti della nostra società: rapidità e risultato, comodità ed efficienza . Tutto questo è riconducibile a un nuovo modo di essere dell’uomo nel mondo: l’essere altrove: «La nostra vita è sospesa su ciò che non c’è, quello che ci interessa non è intorno a noi, ma piuttosto ciò che c’è in rete, questo è diventato un modello per l’esistenza».
All’interno dell’ambiente mediatico in cui viviamo, il soggetto è diventato l’insieme delle informazioni che trasmette. Si può così prescindere dalla propria fisicità, dalla propria spazialità e dal proprio vissuto fino a, continua Pessina, «diventare un avatar e poter comunicare con gli altri senza esserci in presenza, essendo, appunto, altrove». È la possibilità di un’esperienza disincarnata, prettamente intellettuale, in un ambiente artefatto, ma reale. Essendo un ambiente, non si può più scegliere se stare dentro o fuori, si può solo cercare di orientarsi al suo interno. Il che significa imparare a rapportarsi con intelligenze artificiali.
Quale intelligenza?
Di intelligenza artificiale si parlava già da anni, ma l’interesse pubblico si è incentrato sul tema dopo il rilascio, nel novembre 2022, di Chat GPT. Per Paolo Granata ci troviamo di fronte a «un’intelligenza diversa che può fare tante cose che sappiamo fare, ma anche molte altre che non sappiamo fare. É una forma di intelligenza non umana, un’altra struttura di comprensione del mondo, diversa da quella che abbiamo noi e questo si traduce in un piccolo shock cognitivo» . Inoltre, «ci siamo resi conto che non c’è bisogno di essere intelligenti alla maniera umana. Affinché queste macchine completino dei compiti, non hanno bisogno di essere intelligenti, possono svolgere anche senza una comprensione del mondo e del linguaggio come la nostra».
Contestualmente l’abilità di manipolazione del linguaggio certifica l’intelligenza del sistema e attribuisce il potere di dare risposte esatte e veritiere. Secondo Pessina, «si tratta di un’emulazione di intelligenza che si basa sulla velocità. Non siamo in grado di ricostruire i processi e di verificare l’esattezza e in questo senso proviamo quasi un senso di vergogna di fronte alle capacità di queste macchine, che ci viene da definire come intelligenti». Esposito invece non ha dubbi sul fatto che ; «in assenza di comprensione e di conoscenze non si dà alcuna forma di intelligenza. Questa è un’idea molto diffusa in ambito scientifico». Il problema risiede nel «cercare di riprodurre con una macchina qualcosa che nessuno sa definire. In assenza di una definizione condivisa di intelligenza, come è possibile applicarla a uno strumento?»; . L’intelligenza è multiforme e di vari tipi: logico-matematica, linguistica, emotiva, sociale, spaziale, musicale, naturale e corporea. Niente di tutto questo appartiene ai programmi che ricadono sotto il nome di “intelligenza artificiale”.
Elena Esposito continua:«Quello che la macchina sa fare, e che merita la nostra ammirazione, è aver imparato a utilizzare i materiali disponibili per realizzare un contributo comunicativo, cosa che per noi è possibile solo grazie all’intelligenza. Il punto è che non sono state progettate delle macchine intelligenti, né in grado di diventarlo. ; Le macchine hanno imparato a comunicare con noi, che è tutt’altra cosa» . La problematicità del concetto di intelligenza, per Esposito, emerge anche da quello che, attualmente, è il test che misura l’intelligenza delle macchine: il test di Turing. L’esperimento si basa sul gioco dell’imitazione e parte dal presupposto che se, all’interno di una comunicazione, l’interazione della macchina è indistinguibile da quella di un essere umano, allora essa può essere definita intelligente. Secondo Esposito però si tratta di un’associazione indebita: «il test di Turing misura la capacità di rendersi conto che l’interazione sta avvenendo con una macchina e non con un umano. Il focus quindi non è l’intelligenza, ma piuttosto l’abilità comunicativa».
Animali semantici
La comunicazione con le macchine è una combinazione sintattica che per noi ha valore semantico ed è questo il passaggio interessante che attiva una dimensione fiduciaria. Il linguaggio va inteso in un’accezione diversa da quella che l’ha sempre caratterizzata anche perché si è introdotto un nuovo partner comunicativo. «Per la prima volta nella storia ci siamo resi conto che abbiamo la possibilità di conversare con un’entità non umana. Abbiamo esternalizzato il linguaggio, cioè il sistema operativo dell’essere umano» afferma Paolo Granata. I modelli di intelligenza artificiale generativi sono delle interfacce che si basano sul dialogo. Questo stimola l’interlocutore a fare domande, «ci invita a interagire con un corpus di informazioni in maniera proattiva».
Per Elena Esposito il punto centrale della questione sta nel fatto che «nella comunicazione non si hanno semplicemente delle risposte preimpostate, ma variano a seconda di come il partner si relaziona con noi. Questa è l’innovazione più spettacolare». Ma il linguaggio di per sé nei suoi sviluppi ha sempre modificato radicalmente la condizione umana. «Il linguaggio ci ha aiutato a elaborare un pensiero simbolico, la scrittura ci ha aiutato a elaborare un pensiero più astratto e sequenziale, il libro ha incentivato un pensiero più individualista e riflessivo» sottolinea Granata, riprendendo la lezione di McLuhan. E così via tutti i media della comunicazione hanno alterato il modo in cui utilizziamo le facoltà cognitive e sensoriali. A questo però è seguita la perdita del monopolio di una delle prerogative che si ritenevano specifiche dell’umano. Oltre all’abilità linguistica, per Granata, all’intelligenza artificiale oggi va attribuita anche la creatività.
Pessina è più scettico rispetto alle potenzialità creative dell’intelligenza artificiale: «Noi stiamo confondendo ideazione con creazione, innovazione e capacità combinatoria. La creatività richiede tempo, noia, maturazione, per svilupparla serve più indipendenza dalla tecnologia, la creatività non è riproducibile». L’attenzione per la creatività, che è connessa allo sviluppo della personalità e alla formazione dell’identità, è al centro anche del processo pedagogico. Proprio trattando di questo argomento Adriano Pessina conia il concetto di «autodidattismo universale» che consiste nella possibilità di apprendere qualsiasi cosa senza una mediazione relazionale.
Comunicare e insegnare
«Già la digitalizzazione consentiva di reperire in modo flessibile e personalizzato un’infinità di dati rappresentati in una lista, per esempio mediante Google, attraverso dei link che permettono di entrare in contatto con fonti di informazione, come stare di fronte a un super iper catalogo di una super biblioteca. Alla fine ci si trova ad avere una comunicazione in cui il partner è anonimo, ma, per quanto anonimo, è un altro essere umano», sostiene Esposito. Ora invece le nuove AI sono dei partner comunicativi anonimi, impersonali eppure è come se fossero dotati di una certa individualità che influisce sul nostro modo di comunicare modificandolo . «Per esempio, per imparare a comunicare con modelli linguistici generativi dobbiamo metterci nella prospettiva del prompt engineering». Cioè dobbiamo imparare a scegliere le parole, i comandi, le domande che permettono alla macchina di selezionare esattamente il dominio di riferimento di dati su cui si sta interrogando. Questo implica la necessità di relazionarsi in modo diverso con le macchine, rivoluzionando la prospettiva di protagonismo umano all’interno dell’interazione, che incide anche sulle modalità di apprendimento in senso lato.
Per Paolo Granata gli studenti oggi sono dei learning designer perché attivamente, e in un modo radicalmente nuovo, possono determinare e scegliere le coordinate in cui sviluppare la propria formazione. «L’AI ci dimostra che il processo è più importante del risultato, così come il contesto è più importante del testo più importante del contenuto. Da ciò consegue la possibilità di tirare fuori delle nuove potenzialità, per esempio, lavorando sulla capacità di collegare campi di conoscenza differenti, elaborare un pensiero olistico più relazionale che farà emergere delle qualità che magari ancora non sappiamo di possedere». Le nuove frontiere dell’apprendimento implicano la delega di alcune funzioni alla macchina. Si pongono così degli interrogativi etici che riguardano il limite della responsabilità del docente quando si innestano modelli linguistici automatici nel processo. Ma in realtà, «come si possono usare libri, fonti, materiali di vario tipo, anche in questo caso si possono scegliere dei modelli linguistici addestrati su certi contenuti e sviluppati secondo alcuni criteri. Da un punto di vista etico è fondamentale interrogarsi proprio su questi».
La presenza di un docente ha sempre implicato una selezione, e per certi versi anche una discriminazione, dei materiali che si ritengono idonei all’utilizzo. Ogni professore crea un percorso didattico che non è mai scevro da pregiudizi e dalla personale visione della materia. «Oggi c’è la possibilità, e all’interno di un mio corso lo abbiamo anche fatto, – continua Granata – di realizzare un chatbot che gli studenti possono utilizzare come una sorta di tutor. É un programma allenato solo su certi materiali e pensato con finalità didattica quindi sa fare esempi, riproporre gli argomenti in versioni multimediali, sa interrogare, fare dei test personali, stimolare lo studente sui punti in cui si trova più in difficoltà». Il requisito fondamentale resta sempre il clima di fiducia reciproca, che, in questo caso, viene riposta nella tecnologia.
Pessina sposta la riflessione sugli sviluppi a livello antropologico di questo cambio di rotta nella didattica e afferma che: «se quello che conta è avere i risultati in fretta e avere delle informazioni, allora dobbiamo puntare tutto su questi modelli che ci dicono che non c’è più bisogno della mediazione delle relazioni personali». Affidando il sistema culturale e dell’istruzione a una struttura tecnologica elaborata da terzi però «stiamo perdendo il controllo sulla validità e veridicità di quanto verrà insegnato e trasmesso». E il punto su cui Pessina insiste non è in alcun modo tecnofobico, ma piuttosto legato a una progressiva perdita di autonomia ermeneutica e di consapevolezza del funzionamento e dell’attendibilità dei prodotti che utilizziamo. Ed è giusto parlare non solo di strumenti, termine neutro, ma di prodotti in quanto «i programmatori sono quelli che vendono un prodotto che per noi rimane ignoto, ma che assume un’autorità». L’origine di questa autorità sta nella potenza di impatto della tecnica, nella sua capacità di generare meraviglia instaurando così una relazione di fiducia pressoché completa nelle capacità dell’intelligenza artificiale.
Delegare e ricordare
La questione della fiducia si lega a doppio filo con il concetto di delega tecnologica. Paolo Granata affronta questo tema con entusiasmo: «Nella storia dell’umanità, ogni volta che abbiamo delegato a un mezzo esterno delle facoltà umane, il nostro modo di pensare e di agire si sono trasformati perché abbiamo delegato altrove qualcosa che facevamo noi l’abbiamo trovato nuove vie, abbiamo elevato quello che è la capacità cognitiva riflessiva» . Per Granata si tratta della possibilità di liberazione da incombenze irrilevanti e compiti superflui. Questo «cambia il modo in cui concepiamo il mondo, il modo in cui pensiamo, in cui impariamo e anche come ricordiamo. Quando mettiamo dentro a questi modelli linguistici così tanta conoscenza ci affidiamo a una sorta di memoria collettiva dell’intera umanità», afferma. Si tratta di uno strumento non controllato dagli utenti e su cui insiste una pressione economica sottovalutata. La delega tecnologica all’intelligenza artificiale in questo senso è una potenzialità tutta da sfruttare e da scoprire. Non mancano i rischi, che è più facile adombrare che concettualizzare.
Per Pessina uno di questi è il mito del multitasking che descrive così: «l’uomo è l’unico vivente che può fare una cosa sola alla volta senza preoccuparsi di controllare l’ambiente, questa è una regressione animale che allarga le possibilità, ma nuoce alla profondità» . Da questo discende il tema dell’autocoscienza e della comprensione di sé che richiede un tempo che non è quello della rete. Così come la fiducia, la confidenza e l’intimità di un rapporto personale non hanno niente a che vedere con il concetto di trasparenza. «Nella rete – sostiene Pessina – tutto deve essere visibile, esposto, ma le relazioni non si sviluppano solo in modo intellettuale e secondo delle funzioni di utilità. C’è una dimensione di incarnazione che ci stiamo perdendo, il nostro essere perennemente altrove incide sul nostro qui e ora e sul nostro sentire esistenziale ed emotivo». La progressiva disincarnazione relazionale, che ha subìto un’accelerazione per via delle restrizioni sanitarie legate alla pandemia di COVID-19, ha trasformato i rapporti in connessioni.
«Le connessioni – continua Pessina – sono molto più gratificanti delle relazioni perché sono immediate, eteree, libere dal peso del corpo. Si riduce così l’imprevedibilità dell’altro e del reale» grazie alla protezione di uno schermo. Il tasso di imprevedibilità rasenta quasi lo zero se si interagisce con un chatbot, senza che questo comporti una perdita di originalità o contenuto informativo nella conversazione. Pessina sostiene che questo stato di cose, per quanto risponda a un’esigenza naturale di semplificazione, costituisca «l’anticamera dell’alienazione perché implica una costante insoddisfazione del reale. Queste tecnologie sono incorporate nella psiche delle persone, non sono più solo degli strumenti, ma dei pezzi del nostro vissuto».