RUBRICA - Web&Social

Regole, filtri, censure: chi decide cosa va online?

Il video della strage di Christchurch, in Nuova Zelanda, è stato visto in diretta, durante l’attacco, da meno di 200 persone. Facebook ha rimosso il video originale subito dopo la richiesta della polizia neozelandese, ma nel frattempo il video aveva raggiunto 4.000 visualizzazioni ed era stato scaricato e ripubblicato, sia in versione originale sia attraverso copie filmate su altri schermi o modificate in vari modi, rendendone difficile l’individuazione. Facebook dichiara di avere cancellato 300.000 copie già online e bloccato oltre un milione di upload ulteriori.

Questi numeri ci danno un’idea di quanto sia difficile limitare o bloccare la diffusione di contenuti violenti, razzisti, o addirittura criminali: la velocità di diffusione garantita dai mezzi digitali offre le stesse opportunità a chi ha buone o cattive intenzioni.
Lo stesso Mark Zuckerberg ha dichiarato che la responsabilità del controllo dei contenuti non può più rimanere in capo alle aziende, ma sono necessarie linee guida definite dai legislatori non più a livello di singolo paese ma armonizzandole su scala mondiale.

I filtri sui contenuti Data l’enorme quantità di post pubblicati su Facebook, il primo controllo è affidato agli algoritmi, che però non sono infallibili; quel che supera i filtri automatici arriva sulle nostre bacheche, dove chi ritiene che un post non è ammissibile ha facoltà di segnalarlo a Facebook.

I post segnalati, in tempi più o meno rapidi in base al numero di segnalazioni, arrivano davanti agli occhi di persone in carne e ossa che giudicano se il contenuto violi o no i community standard di Facebook.

Qui si apre una questione enorme, perché la linea di confine fra il lecito e l’illecito varia in base al contesto socioculturale di appartenenza, tanto che Facebook da tempo sta ragionando su regole che possano adattarsi alle diverse comunità locali.
Anche i valutatori umani possono sbagliare: considerando che ogni mese vengono esaminati circa 100 milioni di contenuti, un margine d’errore dell’1% significa fare un milione di errori, sia lasciando online contenuti che sarebbe meglio bloccare, sia censurando espressioni lecite di fatti e opinioni.

La dura vita dei “filtri umani” di Facebook  Sono oltre trentamila, di cui la metà alle dirette dipendenze di Facebook, le persone che per lavoro esaminano e valutano i contenuti a fronte delle segnalazioni degli utenti o delle richieste di revisione di chi si è visto bloccare un post. Il lavoro di queste persone è durissimo: esposti quotidianamente a contenuti violenti, volgari, offensivi, il loro livello di stress è tanto alto che, nonostante abbiano diritto al supporto psicologico, molti di loro ricorrono ad alcol e psicofarmaci per reggere lo stress.
Anche il contatto continuo con fake news e teorie complottiste mette a dura prova la loro razionalità, e la correttezza dei loro giudizi non è certo aiutata dalla necessità di smistare un gran numero di post in tempi sempre più stretti.
La rivista americana The Verge ha pubblicato un’inchiesta su questi lavoratori nascosti, la riassume in italiano Il Post. http://bit.ly/FiltriUmani

Nessun commento

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *