En la novela La posibilidad de una isla, de Michell Houellebecq, clones humanos libres de emoción humana viven en soledad comunicados por el correo electrónico en el lenguaje minimalista propio de un robot poeta. En Wall-E, película de Disney, los humanos son cuerpos atrofiados apoltronados en una silla ergonométrica, los ojos perdidos en la pantalla, las manos llenas de comida chatarra provista automáticamente por una supercomputadora omnisciente y complaciente. En las películas futuristas es común que aparezcan de la nada hologramas que nos llaman por nuestro nombre para ofrecernos servicios y productos. En el presente consumista, poco falta para que el dash button de Amazon renueve el pedido de bienes de uso recurrente -detergente, pañales, café- sin que nos enteremos ("¿acaso no hay ningún valor en descubrir que a veces nos faltan cosas?", se preguntaba Ian Crouch en TheNew Yorker, horrorizado por el video promocional de los botones de Amazon).

Cada una de estas historias podría ser una ilustración in extremis del lado B del big data y la publicidad a la carta: el efecto silo de un algoritmo que hace y elige por nosotros sobre la base de nuestras elecciones pasadas, llevándonos de la mano a la cómoda monotonía de la repetición.

Y este efecto no sólo se aplica al consumo. Ya en 2001 Cass Susstein advertía que la capacidad de Internet de filtrar lo que uno ve de acuerdo con las preferencias del usuario, aun sin que éste lo pida o sepa, reducía la diversidad cultural. En una columna más reciente titulada "Cómo Facebook nos hace más tontos" advertía sobre el sesgo de confirmación que surge cuando las redes filtran la interacción de gente que piensa distinto.

Precisamente con esta anécdota abre la charla TED de Eli Pariser sobre su libro sobre la burbuja del filtro (filter bubble): la búsqueda personalizada mediante un algoritmo que mapea las preferencias del usuario sobre la base de su huella digital filtra fuentes de información con puntos de vista distintos de los del usuario, creando burbujas culturales. Pariser cuenta que al googlear "BP" pueden aparecer noticias corporativas de British Petroleum o información sobre el desastre de Deepwater Horizon (yo probé y me apareció lo primero, ¿preocupante?). Y que, siendo demócrata, después de un tiempo los comentarios de sus amigos republicanos dejaron de ser visibles en su muro.

Susstein, citando un trabajo reciente de Michaela Del Vicario, agrega un elemento adicional: el mencionado sesgo de confirmación puede hacer de las redes sociales una "cámara de eco virtual". ¿Cómo es esto? Por ejemplo, un troll introduce información falsa sobre un político; lectores opuestos ideológicamente y dispuestos a creer chequean en las redes la veracidad de la denuncia... sólo para encontrar los comentarios (filtrados) de lectores opuestos ideológicamente y dispuestos a creer.

Así las cosas, el data mining social podría volverse el negativo de la disrupción social: nos ofrece más de lo mismo, comprimiendo la variedad, obturando la sorpresa y el descubrimiento, haciendo de cada grupo una isla cada vez más personal y pequeña.

¿Las redes sociales nos harán más tontos, como dice Susstein? No necesariamente. También podría darse el escenario inverso, uno en el que el usuario, advertido del fenómeno, aprenda a filtrar el filtro, a rebelarse improvisando sus consumos y sus búsquedas mediante un algoritmo de randomización virtual.

Todo comienza y termina con un algoritmo.