Facebook ha rimosso 3,2 miliardi di profili 'fake' e milioni di post riguardanti i minori. Sono alcuni dati che emergono dal Transparency Report che viene pubblicato periodicamente dalla società di Mark Zuckerberg e da' conto delle azioni messe in campo in alcune aree sensibili.

Per la prima volta nel rapporto viene inserita una sezione relativa ai contenuti di suicidio e autolesionismo e anche i dati su Instagram, vista la crescente popolarità della piattaforma. Rispetto allo scorso anno, raddoppia il numero degli account falsi rilevati su Facebook quando ne furono rimossi 1,55 miliardi. Secondo la società di Menlo Park, inoltre, sono stati rilevati in modo proattivo - cioè con la tecnologia e prima ancora prima che venissero segnalati dagli utenti - contenuti vicini ad organizzazioni terroristiche per il 98,5% delle volte su Facebook e per il 92,2% su Instagram. Riguardo questa categoria, i dati raccolti nel report riguardano l'applicazione della normativa per questi contenuti di tutte le organizzazioni terroristiche (non solo Al Qaeda, Isis e affiliati).

Sono stati rimossi sul social in blu oltre 11,6 milioni di contenuti che riguardano nudità e sfruttamento sessuale dei bambini, su Instagram 754mila. Inoltre, nel terzo trimestre 2019 Facebook ha rimosso circa 2,5 milioni di post che incoraggiavano il suicidio e all'autolesionismo. E 845mila su Instagram, che di recente ha annunciato una stretta sui post con questo genere di contenuti a seguito del suicidio, in Inghilterra, di una 14enne che secondo la sua famiglia prima del tragico gesto aveva visto sull'app post di autolesionismo.

Infine, sono stati eliminati circa 4,4 milioni di contenuti riguardanti la vendita di droga e 2,3 milioni relativi alla vendita di armi; su Instagram, nelle stesse categorie, 1,5 milioni e 58.600 contenuti. "Continueremo a perfezionare i procedimenti che utilizziamo per misurare le nostre azioni e creare un sistema solido per garantire che le metriche fornite siano accurate", sottolinea Facebook.

