Negli ultimi giorni YouTube ha eliminato dal proprio sito oltre 400 canali e decine di milioni di commenti, in seguito alla segnalazione di attività sospette legate all’utilizzo e alla condivisione di video con minorenni. La cancellazione del materiale è avvenuta in seguito alle proteste di diversi utenti, alcuni youtuber (quelli che fanno i video per YouTube) e di alcuni grandi marchi, che hanno sospeso la pubblicazione dei loro annunci pubblicitari sul sito in attesa di chiarire la situazione. Tra gli inserzionisti che hanno sospeso gli investimenti in pubblicità ci sono Nestlé, Disney ed Epic Games, la società che produce il videogioco di grande successo Fortnite.

YouTube aveva già avuto problemi con le attività di alcuni account e i video di minorenni in passato, ma il tema è tornato di attualità a metà febbraio in seguito alla pubblicazione di un video di Matt Watson, un ex youtuber, che ha mostrato come YouTube sia utilizzato per lasciare segnalazioni e commenti per lo meno sospetti nei video in cui compaiono i minori. Creando un nuovo account fasullo, Watson ha dimostrato come iniziando con la visione di un comune video si possa finire – seguendo i suggerimenti di YouTube in base ai contenuti già visti – a vedere video di bambini che svolgono diverse attività, come per esempio ginnastica o ballo.

I video in questione di per sé non sono pornografici o espliciti: spesso sono riprese dei propri figli fatte dai genitori o durante eventi scolastici. Watson ha però notato la presenza di commenti che suggeriscono a quale secondo mettere in pausa un video, in modo da vedere meglio i bambini, e in alcuni casi le loro parti intime. Altri commenti contengono indicazioni su come trovare video più espliciti con minorenni su alcuni siti, oppure suggerimenti su come usare YouTube per trovare altri contenuti con minori.

In seguito alla segnalazione di Watson e a prove simili condotte da alcuni siti di tecnologia, YouTube ha provveduto a rimuovere oltre 400 canali, centinaia di video e decine di milioni di commenti. La società, che è controllata da Alphabet (la grande holding che ha la proprietà di Google), ha inoltre annunciato di avere segnalato alle autorità i commenti sospetti e di avere provveduto a ripulire le sezioni commenti. In un breve comunicato, un portavoce di YouTube ha ricordato che: “Qualsiasi contenuto – compresi i commenti – che metta in pericolo i minori è un abominio, e abbiamo regole chiare per vietare tutto questo su YouTube. C’è ancora del lavoro da fare, e continuiamo a migliorare e identificare gli abusi più rapidamente”.

UPDATE: @YouTube @YTCreators left a comment and provided an update on what they’ve done to combat horrible people on the site in the last 48 hours. TLDR: Disabled comments on tens of millions of videos. Terminated over 400 channels. Reported illegal comments to law enforcement. pic.twitter.com/zFHFfkX9FD — Philip DeFranco (@PhillyD) February 21, 2019

Epic Games ha interrotto la pubblicazione dei propri video promozionali, che compaiono prima dei video veri e propri di YouTube, fino a quando non sarà fatta chiarezza. La società che produce Fortnite ha un grande interesse nel far conoscere i propri prodotti agli adolescenti, tra i suoi clienti più importanti, ma naturalmente non è disposta a vedere la propria immagine associata a video con minori, per lo meno controversi per come vengono strumentalizzati nei commenti. Altre due grandi multinazionali, Disney e Nestlé, hanno fatto altrettanto considerato che i loro annunci pubblicitari sono spesso mostrati nei video che riguardano minorenni e adolescenti. L’interruzione degli annunci sarà temporanea, ma costerà comunque svariati milioni di dollari a YouTube in mancata pubblicità.

YouTube aveva già avuto problemi con i video che riguardano i minorenni nel 2017, in quel caso per contenuti di minorenni molto connotati sessualmente. All’epoca la società aveva risposto introducendo alcune nuove regole, compresa la possibilità di bloccare la sezione commenti dei video per evitare la presenza di messaggi inappropriati e riconducibili ad attività di pedofilia.

Come ha fatto notare Watson, in realtà quello dei commenti è solo una parte del problema. L’altra, già segnalata in passato, è legata a come funzionano gli algoritmi di YouTube per consigliare nuovi video da vedere al termine di quello che si sta guardando. Il sistema è pensato per suggerire video sulla base dei propri gusti e delle precedenti attività, in modo da fare aumentare la permanenza sul sito, e quindi la visualizzazione di un maggior numero di pubblicità. Il sistema è stato più volte criticato perché spesso consiglia video di scarsa qualità, che suggeriscono comportamenti pericolosi o inappropriati, come quelli con i minorenni indicati da Watson.

Il problema è che il sistema inizia da subito a consigliare nuovi contenuti, non appena ci si iscrive e si vedono i primi video. Nella fase iniziale, l’algoritmo non è ancora “tarato” sui propri gusti e questo rende più probabile che consigli contenuti inadeguati, e in molti casi non adatti e controversi. Dal momento dell’iscrizione, e seguendo i video consigliati, si poteva arrivare in pochi click a contenuti con minorenni come quelli segnalati da Watson e da altri utenti negli ultimi giorni.

Dal 2017, YouTube ha sostenuto di avere fatto progressi bloccando automaticamente la sezione commenti sotto i video con minori, che avrebbero potuto portare ad attività sospette. Il sistema non ha però funzionato a dovere, e in molti casi si trovano video a rischio con la sezione dei commenti aperta. Alcuni utenti possono quindi lasciare segnalazioni di video simili, indicazioni sui secondi sui quali scattare screenshot compromettenti o con i bambini in particolari posizioni. I video non sono di per sé a contenuto pedopornografico e non sono mai espliciti (i filtri di YouTube per eliminarli subito dopo il caricamento funzionano bene), ma vengono strumentalizzati da alcuni utenti per scopi diversi da quelli più innocenti con cui erano stati caricati.

In molti negli ultimi giorni si sono chiesti perché YouTube abbia finora tollerato il caricamento di video con minori che potrebbero rivelarsi controversi, o incentivare attività di pedofilia sul sito. Le linee guida della società chiariscono che alcuni video con minori potrebbero essere rimossi, nel caso di attività sospette, ma non è chiaro perché ne consenta comunque il caricamento. Fino alla recente cancellazione di oltre 400 canali, YouTube non era intervenuto in modo sufficientemente incisivo sul problema.