Un’invasione di propaganda e falsità che minaccia di trasformare i canali informativi in strumenti di disinformazione. È questo l’allarme lanciato dall’imprenditore miliardario Elon Musk, preoccupato dei rischi connessi all’uso sempre crescente dell’intelligenza artificiale. Alla sua voce si sono sommate quelle di circa un migliaio di imprenditori e ricercatori che hanno dato vita a una lettera corale e aperta pubblicata dall’organizzazione no profit Future of Life Institute. A sottoscriverla, tra gli altri, sono stati anche il co-fondatore di Apple Steve Wozniak e i fondatori rispettivamente di Pinterest, Skype e delle start up di intelligenza artificiale Stability AI e Character.ai.
Al suo interno si evidenziano “rischi profondi per la società e l’umanità”, per far fronte ai quali i firmatari sollecitano una moratoria o una sospensione di almeno sei mesi allo sviluppo dei sistemi più potenti di Chat GPT-4. Un lasso di tempo necessario a instaurare una collaborazione fra “tutti i laboratori e gli esperti indipendenti” al fine di “sviluppare e implementare una serie di protocolli di sicurezza condivisi per la progettazione dell’intelligenza artificiale”.
Sebbene la notorietà di molte delle firme che hanno aderito alla missiva abbia contribuito ad incrementarne la diffusione e la persuasione dei lettori, rimane tuttavia aperto l’interrogativo circa la reale fondatezza del pericolo annunciato al suo interno. Sul contenuto dell’appello in molti convengono sulla necessità di fare delle opportune distinzioni. Da un lato evidenzia il rischio, legittimo e concreto, di una difficoltà sempre maggiore per il pubblico di cadere vittima della disinformazione e di distinguere ciò che è vero da ciò che è falso nei testi, nelle foto e nei video, data la mancanza di un quadro normativo che regoli l’utilizzo di questi strumenti.
Dall’altro è pur vero che gran parte della lettera si sofferma su un altro tipo di dubbio, legato al pericolo potenziale di uno sviluppo di un’intelligenza non umana capace, in futuro, di superare la nostra. Una prospettiva definita da alcuni come “scenario Terminator”, in riferimento al celeberrimo film di fantascienza con Arnold Schwarzenegger, che secondo gli esperti poggia su timori e paure irrazionali: non saranno, infatti, gli algoritmi di deep learning a condurci a queste forme superiori di intelligenza artificiale, chiamate “menti digitali” nella lettera, poiché gli algoritmi non hanno alcuna consapevolezza delle azioni che compiono.
L’appello rischia quindi di alimentare fantasie nerd ed escapiste della setta dei considetti “lungotermisti”: i seguaci di estrema destra dell’omonima corrente di pensiero nata nella Silicon Valley e legata proprio al think tank Future of Life Istitute, che ha raccolto immense quantità di denaro e che si sta insinuando nelle più importanti istituzioni del mondo, comprese le Nazioni Unite. Il lungotermismo porta alle estreme conseguenze l’attenzione verso gli effetti negativi che le nostre azioni potrebbero avere sul lungo termine, ma, così facendo, finisce per assumere toni apocalittici e millenaristi.
Per saperne di più, continua a leggere su Wired.it.