Quanti «amici» avete su Facebook? Cento? Duecento? Duemila? E di questi, a quanti avete mai visto pubblicare contenuti violenti o ai limiti del porno, o più generalmente cose che si definirebbero molto offensive? La risposta, l’unica possibile, è “nessuno”, e c’è un motivo che la rende tale. Questo motivo prende la forma di un sistema meticoloso e organizzato su scala mondiale, e si basa sul lavoro quotidiano di decine di migliaia di persone, molto spesso molto giovani e di provenienza asiatica, che a una domanda generica sul loro inquadramento professionale probabilmente risponderebbero di essere “content moderator”.

Parlando di Facebook, Twitter, YouTube e gli altri servizi più celebri e riconoscibili del web, di solito ci riferiamo alla loro dimensione visibile; d’altronde sono quelli che hanno generato e finora sostenuto con profitto il boom dell’economia dei contenuti. E che altri contenuti potrebbero mai esistere, al di fuori dei milioni di video, status e meme di ogni tipo condivisi ogni giorno su un qualunque social network? The Moderators, un breve documentario pubblicato pochi giorni fa su Field of Vision, piattaforma video fondata dalla documentarista premio Oscar Laura Poitras (Citizenfour, My Country My Country), in questo senso illumina la faccia nascosta della Luna, scoprendo un mondo di persone che, nel corso di turni lavorativi di otto-nove ore al giorno, etichettano e riportano immagini di uccisioni, filmati pedopornografici, dick pics, prove audiovisive di decapitazioni e incidenti autostradali mortali, per cancellarne ogni traccia dai server delle società clienti. Spesso si tratta del loro primo lavoro.

Un disclaimer che apre il doc prodotto dal regista Ciaran Cassidy e da Adrian Chen, nome pregiato del giornalismo d’inchiesta americano di questi anni, mette le mani avanti: «Il film contiene materiale esplicito che alcuni spettatori potrebbero trovare traumatizzante». In realtà, nella prima scena si vede soltanto un ragazzo che scorre una presentazione PowerPoint proiettata alle sue spalle sul muro anonimo di un ufficio, e parla con calma mentre dietro di lui scorrono a ritmo continuo fotografie di donne più o meno svestite, cadaveri, uccisioni ed erezioni. Sembra tranquillo, e alla classe di prossimi moderatori a cui sta illustrando il mestiere a un certo punto dice, ostentando una sicurezza che sa di monito, di non venire mai troppo «colpito» sul personale dai contenuti che passa in rassegna: «È solo un’immagine», d’altronde, prova a spiegare. Di immagini da “flaggare” i suoi colleghi ne vedono molte: l’ufficio indiano che compongono, ad esempio, ne setaccia un milione al giorno per conto di grandi nomi del tech americano, e ogni impiegato deve mantenere una media di duemila contenuti controllati ogni ora, per qualche centinaio di dollari americani al mese.

Secondo i dati raccolti da The Moderators, a livello globale la professione del moderatore di contenuti impiega più di 150 mila persone, «più del doppio dei dipendenti di Google, e quasi 9 volte quelli di Facebook». Nel fortunato e discusso articolo scritto da Adrian Chen su Wired di cui il documentario è una sorta di spin-off, tuttavia, appare chiaro che i grandi della Silicon Valley trattano questa attività come fosse polvere da nascondere sotto al tappeto: Sarah Roberts, studiosa dei media alla University of Western Ontario, ha raccontato a Chen che «se non c’è una campagna esplicita finalizzata a occultare, di certo ne esiste una tacita». Un aspetto interessante è che questo avviene non tanto – o meglio, non soltanto – per questioni di immagine, ma anche e soprattutto per non intaccare la prospettiva culturale da cui quest’epoca guarda a internet e alla tecnologia come a qualcosa di autonomo, che esiste al di là (e a prescindere) dall’umano.

I ragazzi del sudest asiatico che controllano l’innocua limpidezza dei nostri feed, tuttavia, sono persone, e spesso ciò che fanno durante il giorno cambia le loro vite per sempre. «Dal momento in cui vedi la prima immagine, diventi un altro», ha detto Wired Jane Stevenson, che ha un passato da responsabile del dipartimento della salute professionale della National Crime Squad, l’Fbi britannico. Negli anni passati nei servizi – i primi del Duemila, quelli della prima ondata di contrasto alla pedopornografia online – Stevenson ha visto i suoi investigatori pagare un duro prezzo psicologico per le loro attività nelle indagini. Cosa significa dover guardare nel baratro più profondo del male per otto ore al giorno? Qualche specialista accosta le conseguenze ai disturbi post traumatici da stress, ma gli studi più specifici nel campo sono soltanto agli inizi, ed è difficile rendere giustizia alla complessità delle emozioni provate da un moderator. Rob, un ex impiegato di YouTube, dopo i primi mesi di lavoro è diventato chiuso e introverso; Henry Soto, impiegato a Seattle dal reparto sicurezza online di Microsoft, ha sviluppato stress, insonnia, ansia, allucinazioni uditive, finché passare del tempo con suo figlio è diventato uno sforzo, perché la sua vicinanza richiamava ricordi traumatici. Ad altri moderatori, l’iperesposizione alla pornografia causa mancanza di desiderio sessuale coi partner, o viceversa una propensione a fare sesso impossibile da saziare.

Queste storie stanno iniziando a passare dagli uffici di grandi società di outsourcing alle aule dei tribunali: alla fine dell’anno scorso Soto e un suo ex collega dei tempi di Microsoft hanno citato in giudizio la corporation di Bill Gates per le conseguenze che ha avuto sulla loro salute mentale, accusandola di non averli preparati a dovere a ciò che stavano per affrontare. La società ha risposto in un comunicato che «considera seriamente la sua responsabilità di rimuovere e riportare materiale che documenta abusi sessuali su minori condiviso sui suoi servizi, così come la salute e le capacità di recupero degli impiegati che svolgono questo lavoro importante». Nonostante gli algoritmi costantemente aggiornati e sempre meno fallibili, il mito dell’intelligenza artificiale e dell’automazione dipende ancora largamente da persone in carne e ossa. Per usare le parole pronunciate in un inglese stentato da uno degli specialisti intervistati da The Moderators, «humans are needed, that I’m sure».

Nelle immagini, scene da The Moderators