La tendencia a la radicalización progresiva en los contenidos que consumen los usuarios de YouTube ha sido un tema recurrente en investigaciones periodísticas y de organizaciones especializadas en los últimos años. Un estudio presentado esta semana en la Conferencia tecnológica FAT, que reúne esta semana en Barcelona a expertos mundiales en la equidad y transparencia de los algoritmos, ha podido probar que "los usuarios migran constantemente de contenido más moderado a más extremo" y que buena parte de los miembros que integran las comunidades de extrema derecha en la plataforma comenzó viendo vídeos sobre temáticas similares, pero de contenido mucho menos radical.

"Hemos encontrado fuertes evidencias de radicalización entre los usuarios de YouTube, y que el sistema de recomendación de contenidos permite a los canales de extrema derecha ser descubiertos, incluso en un escenario sin personalización" del algoritmo, aseveran en el estudio los investigadores, procedentes de la Escuela Politécnica de Lausana (Suiza), de la Universidad de Minas Gerais (Brasil) y de la Universidad de Harvard (EEUU).

La investigación se han basado en el análisis de 330.925 vídeos de 349 canales de YouTube, así como de los más de dos millones de vídeos y diez millones de canales que recomendó el algoritmo de la plataforma a partir del visionado de los primeros. Para seguir el rastro de los usuarios y comprobar la evolución de los contenidos que consumían, los autores ha analizado sus comentarios en estos vídeos, más de 72 millones en total.

Los comentarios y vídeos analizados pertenecían a tres comunidades "tradicionalmente asociadas a la radicalización": la Intellectual Dark Web, que comenta temas controvertidos como por ejemplo la relación entre raza y coeficiente intelectual, aunque sin apoyar necesariamente ideas extremistas o racistas; la alt-lite, un concepto surgido en EEUU en 2017 para nombrar una nueva corriente en la derecha caracterizada por rechazar el conservadurismo moderado tradicional pero también ideas de extrema derecha como el supremacismo blanco; y por último la alt-right o extrema derecha, comunidad cuyos vídeos difunden abiertamente ideas racistas, machistas o negacionistas con el cambio climático.

Lo que han encontrado los investigadores es que es fácil que los vídeos de las dos primeras comunidades, más moderadas, sean promocionados por la plataforma en una búsqueda sencilla de contenidos. No así los que se pueden clasificar como de extrema derecha, que no aparecen en esas búsquedas superficiales. Sin embargo, a partir del estudio de los comentarios en los vídeos de la Intellectual Dark Web y de la alt-lite, los investigadores encontraron hasta un 26% de los usuarios que habían comentado esos vídeos aparecían "al cabo de los años" comentando en vídeos etiquetados como de extrema derecha por efecto de las recomendaciones.

El estudio muestra que esta tendencia se ha ido acelerando desde 2016, cuando apareció en escena Donald Trump. Los mayores saltos de las comunidades más moderadas hacia la extrema derecha se producen precisamente a partir de esa fecha. Por ejemplo, hasta un 12% de los usuarios que empezaron a comentar vídeos moderados en 2017 fue expuesto a contenidos de extrema derecha por la plataforma en los siguientes 18 meses. Esta cifra equivale a 60.000 personas.

Para comparar el trasvase de usuarios entre las comunidades de la Intellectual Dark Web y la alt-lite con la extrema derecha con el que que se produce desde otro tipo de canales, los investigadores han analizado también cuántos consumidores de vídeos de noticias terminan apareciendo como comentaristas de los contenidos radicales. En este caso el porcentaje se mueve en torno al 1%.

Aunque todo apunta a que el algoritmo de YouTube guía a los usuarios de la plataforma a contenidos cada vez más extremos, los investigadores aclaran que no tienen pruebas de ello. Entre otras cosas, porque no han introducido la variable de la personalización en la recomendación de contenidos. "Aunque argumentamos que existe una fuerte evidencia de la existencia de espirales de radicalización en YouTube, nuestro trabajo proporciona poca información sobre por qué existen esas espirales. Elucidar esas causas", explican los investigadores, "será importante para comprender mejor los procesos de radicalización y el impacto de las redes sociales en nuestras vidas".

"Por lo que sabemos, esta es la primera auditoría cuantitativa a gran escala de la radicalización de usuarios en YouTube", defienden.

YouTube critica el estudio

"Estamos totalmente en desacuerdo con la metodología, los datos y, lo que es más importante, con las conclusiones que se han extraído de esta nueva investigación", ha explicado un portavoz de YouTube en un comunicado remitido a eldiario.es. "Si bien aceptamos la investigación externa, este estudio no refleja los cambios que se han producido como resultado de nuestra política del discurso del odio y las actualizaciones de las recomendaciones", recogen.

Respecto a la metodología, los investigadores defienden que rastrear los comentarios de los usuarios es un buen método de análisis, debido a que los vídeos de las tres comunidades analizadas tienen un alto grado de engagement. En el caso de la extrema derecha es particularmente alto, ya que uno de cada cinco usuarios que ven un vídeo con este tipo de contenido lo comenta. Además estas aportaciones son abrumadoramente positivas: de los 900 comentarios seleccionados aleatoriamente para analizar esta cuestión (300 en cada comunidad), "solo 5 podían interpretarse como críticos con el vídeo al que estaban asociados", señala el estudio.

"En los últimos años, hemos invertido mucho en políticas, recursos y productos necesarios para proteger a la comunidad de YouTube", responden desde la empresa, propiedad de Google: "Cambiamos nuestros algoritmos de búsqueda para garantizar que el contenido más fidedigno apareciese y se etiquetase de forma destacada en los resultados y recomendaciones de las búsquedas, y comenzamos a reducir las recomendaciones de contenido y vídeos de carácter dudoso que podrían desinformar a los usuarios de forma perjudicial". Aseguran que gracias a este cambio se ha reducido un 50% las recomendaciones de este tipo de contenido extremista por parte de su algoritmo.