Finora, Facebook ha esternalizzato il processo di verifica delle notizie che circolano sulla piattaforma, affidandolo a testate giornalistiche e società specializzate. Alcuni studiosi dell’Mit hanno però avanzato l’ipotesi che anche un gruppo di persone comuni potrebbe svolgere il compito di  fact-checker in modo efficace.

Lo studio (realizzato da Jennifer Allen, Antonio A. Arechar, Gordon Pennycook e David G. Rand in collaborazione con il team della Community Review di Facebook e finanziato dalla Hewlett Foundation) parte da due presupposti: in primo luogo, chi si occupa di fact-checking come professione non può tenere il passo con la grande quantità di disinformazione prodotta ogni giorno; in secondo luogo, è un pensiero condiviso da molti che i fact-checker siano di parte.

La soluzione proposta è l’utilizzo del «giudizio del popolo», trasformando gruppi di persone comuni e di diversi orientamenti politici in fact-checker laici. Per dimostrare che questa strada sia percorribile, sono stati fatti analizzare 207 articoli, prima da 3 fact-checker professionisti e poi da 1.128 americani iscritti alla Amazon Mechanical Turk- il servizio di crowdsourcing di Amazon Web Services che si occupa di coordinare le intelligenze umane che i computer non possono ancora eguagliare. Questi ultimi hanno tratto le loro conclusioni limotandosi a leggere i titoli e i lead degli articoli. Ne è emerso che: le valutazioni del gruppo di laici corrisponde, nella maggior parte dei casi, alle valutazioni medie dei professionisti; che fattori come le capacità riflessive, le conoscenze politiche e un orientamento politico democratico tra i non professionisti sono collegati ad una concordanza con le valutazioni dei professionisti.

Il fatto che il team di verifica delle news su Facebook non riesca a coprire tutti gli articoli che circolano sulla piattaforma è rilevante. A tal proposito, la testata The Hill ha intervistato le sei società di fact-checking che lavorano per Facebook U.S. Nel 2019, Lead Stories ha contato tra i 60 e i 70 contenuti verificati al mese mentre PolitiFact  si è fermata 50 al mese. Check Your Fact  ne ha certificate 49 al mese mentre Factcheck.org e  Science Feedback  ne hanno controllate rispettivamente 20 e 8 nello stesso periodo di tempo. L’Associated Press non ha voluto fornire informazioni dettagliate, ma da quanto si evince dalla pagina web, i suoi tre fact-checker hanno verificato otto contenuti a testa negli ultimi due mesi, per un totale di 12 contenuti in media al mese.

Nel complesso si contano circa 200 contenuti analizzati mensilmente: un numero insufficiente per una piattaforma che ospita più di 2 miliardi di utenti e che produce un numero di post e di condivisioni assai più alto. Star dietro a questa massa di contenuti è impossibile. E questo crea ulteriori problemi: in assenza di un alert, un contenuto falso non verificato viene accettato implicitamente come vero. Inoltre, contenuti segnalati come falsi non vengono ritenuti tali a causa della mancanza di fiducia nei confronti dei fact-checker.

Il lavoro di pochi laici può eguagliare quello dei professionisti. Tuttavia, il crowdsourcing non può sostituire il lavoro dei fact-checker, ma costituirebbe solo un tassello all’interno del’immenso puzzle della lotta contro le fake-news.

Per approfondire, continua a leggere su Niemanlab