Il vero scandalo nelle linee guida sulla moderazione dei contenuti su Facebook ottenute e pubblicate dal Guardian è che sia stato il Guardian a doverle pubblicare. Non che Facebook prenda delle posizioni morali su come trattare violenze e abusi sulla sua piattaforma - il dettaglio con cui lo fa, piuttosto, testimonia che si tratta di questioni che la piattaforma considera attentamente - ma che gli utenti e il mondo debbanoa giornalisti, e non divulgati spontaneamente dall’azienda.È lo stesso dibattito da anni: è giusto sia il social network di Mark Zuckerberg, che gestisce le vite pubbliche e private di due miliardi di persone nel globo, a decidere a suoe quali no? E soprattutto, è lecito lo scarsissimo grado di trasparenza sui metodi, i criteri con cui quelle decisioni vengono prese, e i processi attraverso cui Facebook tenta di implementarle?Già nel 2012 Adrian Chen, su Gizmodo, aveva rivelato dettagli ancora oggi attuali delle politiche di moderazione, tramite il materiale fornito da un ex moderatore; pagine che Chen definiva "una mappa del terreno morale" su cui si muove Facebook, proprio come quelle di cui si discute oggi.Sempre Chen fornisce quella che resta tuttora la più valida motivazione all’opacità di Facebook: "La. Se gli utenti sapessero esattamente quali criteri vengono adottati per giudicare i loro contenuti, potrebbero costringere Facebook a rispettarli". Così invece possono sparire materiali tratti da inchieste giornalistiche foto di rilevanza storica , o capolavori dell’arte che contengono nudità senza bene capire per quale ragione. Il mondo "open and connected", aperto e connesso, di cui Zuckerberg si fregia a ogni occasione sembra insomma allergico all’apertura, quando riguardi Facebook stesso.Le slide tratte dai manuali di cui è entrato in possesso il Guardian, poi,- dalle molestie sugli animali al livestream di autolesionismo , passando per la liceità di mutilazioni e morti violente . E certo, alcune posizioni sono estremamente controverse : l’idea che certi contenuti di bullismo e abusi di natura non sessuale su bambini siano consentiti a meno che non contengano "sadismo" o intenti "celebrativi", per esempio.Ma il limite tra l’utilità di certi contenuti controversi per suscitare consapevolezza e la loro disutilità nel promuovere violenza e odio è labile e complesso, varia a seconda delle circostanze e delle norme sociali condivise a diverse latitudini. Pensare che un social network debba stendere un manuale della perfetta gestione etica del male in tutto il mondo, implementarlo in via istantanea e senza fallo, e che ci si debba indignare se non ci riesce è folle. Sono gli esseri umani, del resto, a faticare a comprendere le infinite sfaccettature morali dell’esistenza, nella vita di tutti i giorni. E se la soluzione dovesse essere una moralità di Stato imposta a tutti i social network, il risultato sarebbe di certo peggiore: conformismo, paternalismo, censura.Insomma, meglio il tentativo sofisticato dei manuali di autoregolamentazione di Facebook, che l’utopia boldriniana di trovare una sorta di algoritmo - umano o computerizzato - che identifichi immediatamente ogni istanza del maligno e lo rimuova, possibilmente ancora prima che venga condiviso. Semplicemente, non c’è. Gli esseri umani sono fallibili, hanno concezioni differenti della distinzione tra accettabile e inaccettabile, enoi stessi affoghiamo spesso nei dibattiti su quello iato, e sarà prevedibilmente così finché esisteranno le democrazie liberali.Facebook non deve quindi essere messo in croce per provare a risolvere in maniera complessa questioni complesse. Deve invece essere seriamente: rendere trasparenti davvero le sue decisioni, come vengono prese e da chi; imparare a rispondere agli utenti che chiedono conto di quelle decisioni di rimozione o restrizione dei loro contenuti, senza abbandonarli a un limbo di (non) risposte automatiche, o a nessuna risposta. E deve, da un lato, e in grado di reggere l’enorme costo psicologico, dall’altro, di essere sottoposte per ore e ore ogni giorno a mutilazioni, decapitazioni, violenze, abusi e minacce di ogni genere.Ciò che si deve chiedere a Facebook è che i suoi moderatori non siano soggetti dotati spesso di circa "dieci secondi", come rivela il Guardian, per compiere scelte così delicate. Che siano in grado di riconoscere e valutare le sofisticazioni etiche - perché non coinvolgere sistematicamente filosofi morali tra i team che mettono in pratica le linee guida? Facebook dice che fa ricorso a esperti: come esattamente? Che ruolo e potere decisionale hanno?Quali? In quali condizioni e regimi di lavoro operano? Si serve ancora, come nel 2012, di aziende che impiegano squadre di filippini, messicani e indiani pagati un dollaro l’ora - che possono diventare fino a quattro con le commissioni?E se i contenuti sono milioni, miliardi, e il personale non basta, cosa impedisce a un’azienda che macina un miliardo di dollari di profitti ogni mese di aggiungerne agli attuali 4,5 mila non tremila, come annunciato di recente, ma 30 mila?Fermo il rispetto delle leggi vigenti, che non è in discussione, la conclusione che si può trarre dalle rivelazioni del Guardian è chiara:, più rapido ed efficiente, o immaginare sia benefico il dettargli una morale dall’alto. È tempo invece di chiedere; pretendere strumenti agili ed efficaci per costringere l’azienda a rispettarli; e, nel caso ci facessero proprio orrore, abbandonarla in un click.