Segunda parte (aquí la primera) de un análisis sobre la propagación de informaciones falsas potenciada por los algoritmos

Hay tres razones por las que las noticias basura se difunden tan rápidamente en las redes sociales, de acuerdo con Samantha Bradshaw y Philip N. Howard. La razón número uno son los algoritmos que ayudan a procesar, catalogar, seleccionar y priorizar cantidades masivas de información, pero que también permiten la personalización del contenido de forma que se crean “burbujas de filtro” que limitan los flujos de información y el intercambio transparente de ideas y perpetúan los sesgos. Básicamente, debido a estas burbujas, terminamos hablando con nuestras correligionarias acerca de los asuntos en los que ya estamos de acuerdo.

La mayor parte del filtrado de información que tiene lugar en las redes sociales no es producto de la elección consciente de los y las usuarias humanas, sino de cálculos algorítmicos de aprendizaje automático. Un sistema de aprendizaje automático es un conjunto de algoritmos que toman torrentes de datos en un extremo y escupe inferencias, correlaciones, recomendaciones y, a veces, decisiones en el otro extremo. Se trata del machine learning o el uso de técnicas estadísticas para “aprender” de forma que, basándose en datos, los algoritmos mejoran progresivamente en el cumplimiento de una tarea sin haber sido programados específicamente para ello. Esta tecnología ya es ubicua: todas las interacciones que tenemos con Facebook, Google, Amazon y otras plataformas están habilitadas por sistemas de aprendizaje automático. Estos fragmentos de código toman decisiones al personalizar el contenido y adaptar los resultados de búsqueda para reflejar nuestros intereses individuales, comportamientos pasados e incluso la ubicación geográfica.

Bradshaw y Howard dicen que la curación del contenido algorítmico tiene consecuencias importantes en la forma en que se nos ofrecen noticias online. En el periodismo convencional, periodistas humanas seleccionaban las fuentes de información, verificaban los datos y elaboraban las noticias, y sus editores (en su mayoría hombres) decidían si publicarlas o no, una función que se ha llamado en inglés gatekeeping (papel de “portero”). Los públicos decidían a qué medio acudir para informarse, pero en su mayor parte desconocían qué noticias habían sido excluidas. Ahora son los algoritmos los que determinan qué información se disemina a qué personas.

La popularidad de una noticia, el grado en que esta provoca indignación, los sesgos de confirmación y el nivel de implicación de las personas con los contenidos son cada vez más importantes para impulsar su propagación. Si se conjugan estos factores, los contenidos se vuelven virales a enorme velocidad y escala, independientemente de si son veraces o no. “Aunque Internet ha brindado más oportunidades para acceder a información, los algoritmos dificultan que encontremos información desde puntos de vista críticos o diversos”, concluyen Bradshaw y Howard.

Presentes en las redes más comunes

Numerosos estudios indican que los sesgos algorítmicos están presentes en todas las plataformas. Un ejemplo: un algoritmo de inteligencia artificial aprendió a asociar a las mujeres con imágenes de cocinas basándose en decenas de miles de fotografías de internet porque hay más mujeres que aparecen fotografiadas en cocinas en la web. No es esto solo lo más grave. Al “aprender”, el algoritmo multiplicó el sesgo presente en el conjunto de datos en los que se basó inicialmente, amplificando --no simplemente replicando— la asociación sesgada. Este trabajo de la Universidad de Virginia es uno de varios estudios que recientemente muestran que los sistemas de inteligencia artificial pueden incorporar, e incluso multiplicar, sesgos si su diseño o los datos en los que se basan no se piensan y corrigen cuidadosamente.

El segundo factor según Bradshaw y Howard es la publicidad. El modelo de negocio de las plataformas se basa en la recopilación de datos de uso y su venta a las empresas que quieren comprender mejor cómo consumimos, al tiempo que ofrecen a estas empresas la capacidad de crear y enviar mensajes personalizados a esos mismos públicos. Es por esto que las cuentas de redes sociales son “gratuitas”. Digo “gratuitas” entre comillas porque pagamos en realidad de tres formas diferentes: con nuestros datos, con nuestra atención y con nuestro dinero (e.g. a los proveedores de servicios de comunicación móvil).

Este modelo contribuye a la difusión de noticias basura de dos maneras, según Bradshaw y Howard: Primero, a través de la incentivación de contenido viral, lo que ha dado lugar a los clickbaits (literalmente “clic-cebo”) o contenido diseñado para atraer la atención, a menudo estimulando la indignación, la curiosidad o ambos, para alentar a hacer clic en un enlace a una página web. Los aspectos económicos de clickbait ayudan a explicar por qué contenidos diseñados para provocar respuestas emocionales aumentan la probabilidad, la intensidad y la duración de la implicación de usuarios y usuarias con el contenido. Es decir, los clickbaits juegan con los prejuicios de las personas y su indignación.

Segundo, a través del empoderando de algunos agentes (como por ejemplo intereses extranjeros en la última campaña electoral en los Estados Unidos) que hacen de los y las votantes objetivos potenciales con poca transparencia y nula responsabilidad.

El tercer y último factor según Bradshaw y Howard es la exposición: este sistema nos ofrece una selección cada vez más sesgada y reducida de la realidad. Mientras que los algoritmos y los anuncios filtran información, los y las usuarias también seleccionan lo que quieren ver o descartar y ahí indicen los fenómenos cognitivos.

Diversos estudios demuestran que es más probable que compartamos con nuestras redes información con la que estamos de acuerdo, reforzando cada vez más la polarización de las creencias. A su vez, este filtrado influye en cómo los algoritmos funcionan. Como consecuencia de ello, no se nos expone a una selección representativa, equilibrada o precisa de la realidad.