Facebook invited me to an event today where the company aimed to tout its commitment to fighting fake news and misinformation.



I asked them why InfoWars is still allowed on the platform.



I didn't get a good answer.https://t.co/WwLgqa6vQ4 — Oliver Darcy (@oliverdarcy) 12 luglio 2018

BANNARE dai social le fake news? È una cosa che non si fa, dice Facebook. “Vediamo pagine che rilanciano quello che loro considerano opinioni o analisi, ma che altri chiamano fake news – twitta la compagnia – Crediamo che cancellare queste pagine potrebbe essere contrario ai principi base della libertà d’espressione”. A scatenare la discussione è stato un giornalista della Cnn,. Mercoledì scorso Facebook ha invitato la stampa a un evento negli uffici di Manhattan, per ribadire il proprio impegno contro fake news e disinformazione. Il programma prevedeva una breve presentazione promozionale dei propri sforzi, cocktail di gamberi e una conferenza stampa con John Hegeman, capo del news feed di Facebook, e la product specialist Sara Su.Quando ai giornalisti è stata data la parola, Darcy è stato abbastanza diretto. “Ma se siete così impegnati nella lotta alle fake news – ha chiesto – perché la pagina InfoWars è ancora presente sul social?”. InfoWars è il sito cospirazionista di Alex Jones, che rilancia bufale e teorie del complotto e che su Fb ha una pagina seguita da oltre 900mila utenti. Pochi giorni fa, ad esempio, annunciava una nuova guerra civile negli Stati Uniti, pianificata dai Democratici. Secondo Facebook, però, InfoWars non ha violato le regole di condotta del social network.“Facebook è stato creato come posto in cui persone diverse potessero aver voce. Ed editori diversi hanno punti di vista diversi” ha detto Hegeman alla Cnn. “Sappiamo che c’è una tonnellata di roba problematica, come teorie del complotto o dichiarazioni fuorvianti, e questo infastidisce anche me – ha aggiunto Sara Su – Ma dobbiamo trovare un modo di definire la questione e capire in che modo possa riguardare la nostra policy”.

We see Pages on both the left and the right pumping out what they consider opinion or analysis – but others call fake news. We believe banning these Pages would be contrary to the basic principles of free speech. — Facebook (@facebook) 12 luglio 2018

The harder question is do you ban Pages (or people) that spread conspiracy theories or misinfo? We believe the better approach is to demote fake news posts, and the Pages that spread them. These guys are allowed YouTube and Twitter accounts too – we imagine for the same reason. — Facebook (@facebook) 12 luglio 2018

Facebook, insomma, cancella post razzisti, sessisti o che incitano alla violenza – pur rischiando di prendere a volte qualche cantonata – ma non quelli falsi. Troppo complicato per la società di Menlo Park assumersi la responsabilità di distinguere tra verità e fake news. Si continuerà a fare fact checking, come annunciato lo scorso giugno e si premieranno quelle fonti giudicate affidabili dagli utenti.“C’erano due possibilità – ha spiegato nelle scorse ore Facebook su Twitter, dove il botta e risposta con Darcy e altri utenti è andato avanti per un po’ – Bannare una pagina che diffonde notizie smontate dai fact checker o “declassarle”, così da renderle visibili a pochissime persone. Abbiamo scelto la seconda strada”. Il social network, quindi, penalizza quei post che sono stati segnalati dagli utenti e classificati come falsi dai fact checker, in modo che non compaiano nella sezione notizie. O compaiano a pochissimi utenti con un abbattimento delle visualizzazioni future dell’80 per cento, secondo le stime dello stesso Facebook.Una posizione che il cronista della Cnn su Twitter ha definito poco chiara: “Se Facebook pensa che un contenuto non sia buono, non sarebbe meglio che non lo vedesse nessuno?”. La compagnia per difendere le proprie posizioni ha tirato anche in ballo i competitor. Le pagine chiamate in causa “hanno a quanto pare anche account Youtube e Twitter, immaginiamo per le stesse ragioni”.Lo scorso anno Facebook aveva testato l’etichetta Disputed Flags, una sorta di marchio che avrebbe dovuto indicare i contenuti dubbi. Esperimento fallito e rimosso, perché per la società c’era il rischio che quel bollino rosso si rivelasse controproducente. È l’effetto del confirmation bias, il pregiudizio di conferma: il debunking è destinato a fallire - spiegava tre anni una ricerca di Walter Quattrociocchi e del Laboratorio di scienza sociale computazionale dell’Imt di Lucca – perché si tende a cercare e scegliere contenuti che confermino le proprie idee.