Un giornalista investigativo, arruolato sotto copertura tra i moderatori di Facebook nel Regno Unito, ha rivelato il trattamento di favore di cui godono pagine dedite alla diffusione di fake news, contenuti violenti e messaggi razzisti. Tra queste anche pagine che fanno riferimento a frange di estrema destra, “soggette a un trattamento speciale, analogo a quello riservato a pagine appartenenti a enti statali o testate giornalistiche”, alle quali è consentito di “superare la soglia di rimozione”.

La storia è stata raccontata in un documentario dal titolo “Dentro Facebook: i segreti del social network”, trasmesso nei giorni scorsi su Channel 4. In seguito alla trasmissione Facebook ha chiarito che “questi problemi sono stati immediatamente risolti” e che “i contenuti violenti o problematici non avvantaggiano il social network dal punto di vista commerciale, perché chi fa pubblicità sulla piattaforma non vuole vedere il proprio marchio associato a questo tipo di materiale”. “Alle pagine di estrema destra è consentito di superare le soglie di cancellazione”.

La società che modera i contenuti

Cpl Resources ha sede a Dublino e, dal 2010, è una delle società esterne a Facebook a cui il social network affida la moderazione dei propri contenuti. Sebbene l’incarico di queste società sia di visionare e moderare i contenuti che a milioni vengono caricati ogni giorno sul social network, l’addestramento che ha ricevuto il giornalista infiltrato evidenzia come il lavoro in realtà si risolva in una sostanziale tolleranza verso molti contenuti che violano le regole di Facebook. “Se censuri troppo, le persone perdono interesse nella piattaforma, alla fine della giornata tutto si riduce a fare soldi”: così uno dei moderatori della Cpl Resources spiega il meccanismo alla base del processo di revisione di immagini e video.

Nel documentario si vede il giornalista sotto copertura mentre è intento ad analizzare un video dove due studentesse di una scuola si picchiano. Le due ragazze sono perfettamente identificabili e il video ha raccolto più di mille condivisioni. Ma secondo le istruzioni impartite al moderatore, se il video contiene un avviso in cui si condanna la violenza e si invita chi lo vede a non visitare il luogo in cui è stato girato, questo può essere lasciato online ed eventualmente segnato come “contenuto sensibile”. “Svegliarsi il giorno dopo e scoprire che letteralmente tutto il mondo sta guardando [il video, ndr] dev’essere stato terribile. È stato devastante per lei, umiliante” - commenta la madre di una delle ragazze -. Quelli sono i figli di qualcuno che combattono in un parco. Non è uno degli intrattenimenti di Facebook”.

Ignorare i minori di 13 anni

Al finto moderatore viene anche chiesto di ignorare gli utenti che sembrano avere meno di 13 anni, età minima per avere un account sul social network secondo quanto stabilito dalla Legge per la protezione dei bambini online entrata in vigore negli Stati Uniti nel 1998. Uno degli addestratori infatti spiega al giornalista: “Abbiamo bisogno di un’ammissione [da parte dell’utente] del fatto che la persona non sia sufficientemente grande. Diversamente facciamo semplicemente finta di essere ciechi e di non sapere che aspetto abbia uno sotto i tredici anni”. Contenuti “scudati” Secondo le regole di Facebook, se su una pagina vengono segnalati cinque o più contenuti che violano gli standard del social network, questa deve essere rimossa. A meno che non sia una pagina popolare.

Come avviene la moderazione dei contenuti

In questo caso si attiva una seconda fase di verifica, riservata normalmente a pagine governative o testate giornalistiche, dove l’analisi dei contenuti viene effettuata direttamente dall’azienda, saltando il lavoro di revisione di società terze. Tra queste rientra anche quella dell’ex leader della English Defence League, Tommy Robinson, esponente di estrema destra e dichiaratamente xenofobo, che gode del sostegno di oltre 900 mila seguaci sul social network. Un moderatore spiega al giornalista anche che le pagine relative al gruppo di estrema destra Britain First sono state lasciate online nonostante le numerose segnalazioni perché “hanno moltissimi follower e quindi generano un grande ritorno economico per Facebook”.

La pagina Britain First è stata alla fine rimossa a marzo del 2018 dopo l’arresto della leader Jayda Fransen. Nel documentario il capo delle Politiche pubbliche di Facebook, il liberale democratico Richard Allan, contesta che le regole siano basate su considerazioni di natura economica: “Se il contenuto sta effettivamente violando le regole deve essere rimosso. Ma voglio essere chiaro: questa non è una discussione sul denaro - continua Allan -, il tema è politico. Le persone discutono di problemi molto delicati su Facebook, inclusi problemi come l'immigrazione.

E quel dibattito politico può essere del tutto legittimo. Penso che avere dei revisori in più su questo argomento quando il dibattito si sta svolgendo sia assolutamente sensato e penso che la gente si aspetterebbe da noi prudenza e cautela prima di eliminare le loro affermazioni politiche”.

Dispatches reveals the racist meme that Facebook moderators used as an example of acceptable content to leave on their platform.



Facebook have removed the content since Channel 4’s revelations.

Warning: distressing content. pic.twitter.com/riVka6LcPS — Channel 4 Dispatches (@C4Dispatches) July 17, 2018

In seguito alla trasmissione televisiva, Facebook ha replicato con un post sul suo blog e con una lettera indirizzata alla Firecrest Films, casa di produzione del documentario, replicando che i materiali di addestramento per i moderatori verranno aggiornati.

Il social network “assicura che chiunque si sia comportato in una maniera che non rispecchia i valori di Facebook non lavora più per la moderazione dei contenuti della piattaforma”. “Prendiamo molto seriamente questi errori e siamo grati al giornalista che li ha portati alla nostra attenzione.

La risposta di Facebook

Abbiamo svolto delle indagini per capire esattamente cosa sia successo, così da poter prevenire che questi problemi si ripetano”, scrive Monika Bickert, vice presidente del dipartimento delle politiche globali dell’azienda. “Per esempio, abbiamo immediatamente richiesto che gli addestratori di base a Dublino ripetessero le sessioni di training, e ci stiamo preparando a fare lo stesso globalmente. Abbiamo anche revisionato le domande sulle policy e sui problemi evidenziati dal reporter, correggendo quelli che abbiamo riscontrato”.

“È stato detto che chiudere un occhio sui contenuti cattivi sia nel nostro interesse commerciale. Questo non è vero. Creare un ambiente sicuro dove persone da tutto il mondo possono condividere ed essere connesse è il nocciolo del successo di lungo termine di Facebook. Se i nostri servizi non fosse sicuri, le persone non condividerebbero e smetterebbero di usarli. Né chi pubblica le sue pubblicità vorrebbe vedere i propri marchi associati a contenuti disturbanti o problematici”.

Se avete correzioni, suggerimenti o commenti scrivete a dir@agi.it