Arginare la diffusione di violenza, terrorismo, odio, razzismo e pornografia rappresenta la nuova sfida dei social network. Facebook ci sta provando attraverso un centinaio di manuali etici per i propri addetti, scoperti dal Guardian.

Recentemente alcuni fatti tragici hanno portato il gigante dei social a una riflessione riguardo al proprio ruolo, che per molti è quello di un editore a tutti gli effetti. Che cosa, dunque, si può pubblicare su Facebook e che cosa, invece, no? Ecco alcuni esempi.

  • I video di morti violente non devono sempre essere eliminati perché possono contribuire a creare la consapevolezza di problemi come la malattia mentale;
  • Le foto di abusi su animali possono essere condivise, a meno che non siano troppo sconvolgenti;
  • È consentito pubblicare immagini di nudo artistico ma non immagini che mostrino l’attività sessuale;
  • I video di aborti sono consentiti, a patto che non ci siano immagini di nudo.

Il problema, però, non si esaurisce in un semplice elenco di che cosa va bene e cosa no. Se Facebook non ammette una frase tipo “Qualcuno spari a Trump”, non ha nessun problema ad ammettere commenti che indichino quale sia il modo migliore per fare male a qualcuno. La differenza sta tutta nell’importanza della persona e nel sottile confine tra insulto di frustrazione e reale minaccia. Si tratta, quindi, di un legittimo controllo dei contenuti pubblicati o ha ragione chi sottolinea che Facebook abbia il potere di decidere arbitrariamente cosa vada bene o cosa no, esercitando un vero e proprio potere di censura?

Un ulteriore lato del problema è rappresentato dalla posizione dei gatekeepers, coloro che decidono cosa è lecito diffondere e cosa invece va censurato: uno di loro spiega al Guardian che il tempo a disposizione per valutare la liceità del contenuto è di soli 10 secondi a post.

 

⇒ Per saperne di più continua a leggere sul Guardian