Come Facebook anche YouTube, la nota piattaforma deputata alla condivisione di video, tra una novità funzionale e l’altra, finisce sempre più spesso coinvolta in pesanti polemiche per il modo in cui gestisce i propri contenuti, spesso proposti con algoritmi insondabili, e per come si occupa dei video “tossici” (cospirazioni, incitamento all’odio, etc).

Il sempre puntuale periodico economico Bloomberg, non nuovo agli scoop, ha pubblicato un articolo, basato sulle confessioni di 20 (anche) ex dipendenti della piattaforma googleiana nel quale viene evidenziato l’approccio della stessa ai video controversi, tossici, cospirazionisti, e borderline. A quanto pare, presa dall’obiettivo di raggiungere il miliardo di ore visualizzate al giorno (ottenuto nell’Ottobre del 2016) la CEO Susan Wojcicki avrebbe cassato diverse proposte dei suoi dipendenti, volte a contenere il problema.

In particolare, è noto che i video estremisti (es. per violenza, tesi religiose, sanitarie, e scientifiche) generano molte visite e coinvolgimento (come esperimento, si notò che una macro-categoria dedicata ai contenuti dell’estrema destra reggeva bene la concorrenza dei più blasonati canali dedicati allo sport, al gaming, ed alla musica). Alcuni dipendenti, allora, proposero di mettere in quarantena i contenuti più borderline, mantenendoli online, ma sottraendoli ai suggerimenti: all’epoca, l’idea venne bocciata. Addirittura, si consigliò – dal punto di vista legale, ma mai in forma scritta – che i dipendenti di YouTube non cercassero certi contenuti, né li segnalassero, per non lasciare prove, in termini di responsabilità legale, del fatto che la piattaforma fosse al corrente di questo problema.

Va detto che, a onor del vero, almeno dal 2017, le cose stanno cambiando parzialmente. YouTube, nel caso dei video discutibili, ha tolto la monetizzazione affidata alle pubblicità delle inserzioni, riducendo – però – la bontà del provvedimento nel momento in cui ha legato la remunerazione dei creators in base all’engagement ed alle visualizzazioni dei video, quasi sempre altissimi nel caso dei video cospirazionisti (es. quelli di InfoWars, quelli sui vaccini responsabili dell’autismo, del sale che genererebbe il cancro, delle finte stragi con attori di comodo, etc).

Sempre YouTube, poi, ha aumentato a 10 mila i moderatori dei contenuti, cancellato diversi canali ed account (es. nel caso della pedopornografia), rimosso dalle raccomandazioni i video delle sfide pericolose e quelli sui no-vax, e predisposto delle targhette contestualizzati dotate di link a fonti affidabili (tra cui Wikipedia).

Al problema in questione, quindi in via di attenuazione col passare del tempo, se n’è aggiunto – però – un altro, segnalato sulle pagine di assistenza di Google, e su Reddit, rappresentato da un curioso bug che affliggerebbe sia YouTube Music Premium che YouTube premium: nello specifico, gli utenti paganti di questi due servizi non verrebbero riconosciuti come tali, e – di conseguenza – le rispettive app mostrerebbero le pubblicità, e non riuscirebbero a scaricare i contenuti o a riprodurli in background. Mountain View, dettasi a conoscenza del problema, sulla cui soluzione sta lavorando, ha consigliato come temporary strategy di disconnettere i propri dispositivi wireless e Bluetooth.

Infine, una novità che rende palese come YouTube Music sia candidata a raccogliere l’eredità di Play Music. Diversi artisti hanno ricevuto, proprio su quest’ultima app, una notifica con la quale si spiega che, visto l’avvicendamento delle due app in corso, chiuderà – a partire dal 30 Aprile (quando non saranno più visibili gli album e i brani uploadati) – il Google Play Artist Hub, che veniva usato per caricare le proprie musiche, valutarne le statistiche, ed ottenere delle remunerazioni da Google. Il progetto non è comunque defunto, visto che – su internet – è riscontrabile l’invito, dal momento che il vecchio hub non accetterà più candidature, ad inoltrare la propria al nuovo “YouTube for Artists”.