La sottile linea tra ciò che è lecito rimanga pubblico sulle bacheche degli utenti e cosa invece è necessario rimuovere. Un'operazione complessa, ma soprattutto misteriosa: non si sa come funziona l'amministrazione dei contenuti segnalati e poi passati al vaglio del gruppo di moderatori. Come si decide cosa lasciare pubblico e cosa è bene cancellare. Il Guardian rivela per la prima volta come funziona questo processo, le regole segrete e le linee guida che il social network ha creato per la regolamentazione di ciò che appare ai suoi utenti. Sono più di cento i manuali interni destinati all'addestramento del gruppo di moderatori, che il quotidiano britannico è riuscito a visionare e di cui ha raccontato il contenuto. I temi sono tantissimi: dalla violenza all'odio, dal terrorismo alla pornografia, dal razzismo all'autolesionismo. Ci sono persino capitoli riguardanti la pratica di truccare le gare e le partite oppure che analizzano il cannibalismo. I cosiddetti «Facebook Files» rivelano anche che non tutto è sotto controllo e il controllo a volte si trasforma in censura a volte in totale anarchia.

Un sistema di controllo che non sempre funziona Due miliardi sono gli scritti a Facebook, una piattaforma social di proporzioni mastodontiche, cresciuta in pochissimi anni — è stata fondata da Mark Zuckerberg nel 2004 — e che continua a ospitare nuovi abitanti, che qui riversano pillole delle loro vite private, ma non solo. Si sono trasferite qui anche correnti politiche, ideologiche e religiose. Ma anche incitamento all'odio, immagini macabre, riferimenti sessuali e violenti. Tutte le sfaccettature dei comportamenti umani riversate in una Rete globale e «socializzate», mostrate quindi davanti agli occhi di chiunque. Una fonte del quotidiano sostiene che «Facebook non è in grado di controllare i suoi contenuti, è cresciuto troppo in fretta, raggiungendo dimensioni enormi». Esiste un team dedicato, un esercito il cui obiettivo è difendere la pubblica decenza sulla piattaforma. Ma il loro operato è spesso — soprattutto negli ultimi mesi — sommerso di polemiche. Una foto storica che ritrae una bambina vietnamita che corre nuda piangendo dopo essere stata investita dal napalm (la famosa «Napalm Girl») viene rimossa perché giudicata non appropriata e strumento di incitamento al maltrattamento minorile. Mentre interi gruppi che pubblicano — e condividono — immagini pedopornografiche rimangono liberi di operare sul social, come ha rivelato la Bbc.

Decidere in meno di 10 secondi Difficile per esempio reagire in casi come il cosiddetto «revenge porn» (cioè le persone lasciate da proprio partner che si vendicano postando immagini intime e personali per danneggiare l’ex): in molte situazioni occorre decidere se l’immagine è appropriata in meno di 10 secondi, vista la mole di lavoro per i moderatori. Le regole riguardando i contenuti a sfondo sessuale sono considerate le più complesse e confuse. Ma i problemi sono tanti. Per esempio, in un documento è segnalato che sono circa 6,5 milioni i profili falsi (ovvero non legati a una persona reale) scoperti ogni settimana. E poi le linee guide, in alcuni casi davvero controverse. Il Guardian ne cita alcune.

Regole controverse Ecco alcune delle regole del decalogo di Facebook, le linee guida introdotte dal social network nel 2016 per cercare di far fronte alle polemiche sul metodo di amministrazione dei contenuti pubblicati

- Un'affermazione come «Qualcuno spari a Trump» dev'essere cancellata perché un capo di stato rientra in una delle categorie di persone considerate sensibili. Ma è permesso dire «Fottiti e muori» oppure «Rompi il collo a quella, e assicurati di premere più che puoi sulla gola» perché non considerate minacce reali.

- I video di morti violente non sempre devono essere cancellate perché possono aiutare a creare consapevolezza di temi come i disturbi mentali.

- Alcune foto di abusi (non sessuali) sui bambini o di bullismo non sempre devono essere cancellate a meno che non ci siano elementi sadici o celebrativi.

- I video sugli aborti sono permessi, a meno che non mostrino nudità.

- Facebook ammette il livestreaming anche se mostra tentativi di autolesionismo perché «non vuole censurare o punire le persone in sofferenza»

- Chiunque abbia più di centomila follower rientra nella categoria di personaggio pubblico e perde ogni diritto alla privacy sul suo account.