Un reciente reportaje de CIPER informó que Sosafe, la aplicación de seguridad ciudadana que usan 27 municipios metropolitanos, es controlada por Instagis. Esta última trabaja para campañas políticas –y para grandes empresas– perfilando a los ciudadanos según su nivel socioeconómico, creencias religiosas, formación educacional y preferencias políticas. Lo hace cruzando bases de datos públicas (como la Casen, el padrón del Servel y el Censo) con información que las personas publican en redes sociales. Ahora, con Sosafe, podría agregar un elemento más a su conocimiento de los chilenos: nuestros miedos.

La investigación de CIPER (“Alguien te mira: así funciona el gigante de las campañas políticas que controla Sosafe”) explicó cómo Instagis afina los mensajes que envían los candidatos tras conocer en detalle las características y preferencias de los votantes. La empresa fue clave para la victoria electoral de varios candidatos de Chile Vamos y del Presidente Sebastián Piñera en 2016 y 2017.

En entrevista con CIPER, Juan Pablo Luna, politólogo, académico de la Escuela de Gobierno y del Instituto de Ciencia Política de la Universidad Católica e investigador asociado del Instituto Milenio Fundamentos de los Datos (IMFD), explica que uno de los riesgos que acarrea el trabajo de empresas como Instagis (o como Cambridge Analytica) es que “permite que, en lugar de armar un programa que apunte al ‘chileno promedio’, uno pueda hacer campañas diferentes para distintos segmentos particulares, sin que esos grupos necesariamente tengan un ‘mínimo común denominador’. Movilizas segmentadamente y luego tratas de maximizar tus votos en cada uno de esos segmentos, sin que estos tengan mucho que ver entre sí”. Con esto, dice Luna, se devela un riesgo:

– El problema tiene que ver con los efectos de esa micro segmentación, sobre todo en sociedades tan desiguales como la chilena. Para mí, el desafío fundamental para preservar la democracia, o mejorar su calidad, es que con estas tecnologías de micro segmentación la gente, en vez de ser movilizada por programas más bien generales, ideologías un poco más abarcativas, o incluso intercambios clientelares más tradicionales, la ciudadanía puede ser movilizada en función de sus peores reflejos y sus temores más básicos. Este tipo de movilización aumenta además la probabilidad de radicalización en torno a preferencias puntuales y específicas, que hacen muy difícil después gobernar y dar legitimidad a la política y a los actores fundamentales del proceso democrático en su formato tradicional. Hoy, sobre todo para los políticos sin estructura partidaria, es más fácil ganar una elección que gobernar. Con esto, la opinión pública se fragmenta, ya no hay opinión pública. Lo que hay es esta atomización de opiniones que los candidatos pueden movilizar el día de la elección, pero que después no pueden representar. Ese es el riesgo fundamental desde el punto de vista del régimen democrático. A lo que además se suman cuestiones fundamentales respecto al uso de datos y la privacidad.

Lo más asombroso del fenómeno es, para el politólogo, que las personas están cediendo sus datos gratuita y constantemente, revelando sus preferencias a las aplicaciones.

Luna explica que cada vez que prendemos el teléfono, que hacemos click, o seleccionamos uno u otro botón en la pantalla, estamos generando información. Datos que pueden ser usados de maneras muy distintas: para vendernos algún producto, para conectarnos con ciertas personas, para diseñar políticas públicas. Y también, agrega, para manipularnos. “Muchas veces estos datos son útiles para nosotros: Waze, por ejemplo, lo usamos casi todos los que andamos en auto para intentar eludir el taco, pero al mismo tiempo estamos generando y entregando muchísima información sobre por dónde nos movemos, cuáles son nuestros patrones de comportamiento en días de semana, en fines de semana; a dónde vamos, e indirectamente qué hacemos y qué estamos consumiendo… Entonces, yo diría que lo primero es tener en cuenta que cada acción que realizamos en el mundo digital deja una huella que, analizada en conjunto con otras mediante las poderosas herramientas computacionales hoy disponibles, puede ser utilizada en formas que violan nuestra intimidad y que eventualmente sirven para manipularnos, como consumidores y como ciudadanos”.

Pero ¿cómo construyen el perfil de los ciudadanos y para qué lo usan?

LA ARQUITECTURA DEL PANÓPTICO

Las empresas que manejan grandes volúmenes de datos lo hacen triangulando fuentes diferentes y armando lo que Luna llama una “arquitectura integrada”. Esos modelos luego alimentan sofisticados sistemas de machine learning o deep learning, que permiten, mediante un proceso de inducción de patrones latentes en los datos, “micro-segmentar distintos públicos en función de actitudes y comportamientos. Dicha segmentación se utiliza luego para generar y ofrecer a los candidatos un menú diversificado de mensajes, muchos pre-testados, que funcionan para polarizar, movilizar, o incluso desmovilizar a los distintos tipos de votantes que componen un distrito, una circunscripción, o un electorado nacional”, explica el académico.

– ¿Cómo funciona la arquitectura integrada?

– Se basa en la capacidad de integrar y analizar con modelos complejos (capaces de representar y simplificar los espacios multidimensionales que genera la intersección de cientos y miles de datos disponibles para cada individuo) los datos que cada uno de nosotros generamos en nuestra interacción con el mundo digital. Además, esos modelos también integran usualmente datos registrales (no generados por nuestra huella digital) sobre nuestras características individuales, comportamiento y entorno físico y social que están disponibles en bases de datos que generan el Estado y los privados. Por ejemplo, por ley el Servel debe publicar los domicilios electorales asociados al RUT de cada uno de los inscritos para votar, así como el sexo de la persona y su mesa de votación. Ese RUT también está asociado a las bases de datos que generan las casas comerciales, las que registran, por ejemplo, nuestro historial de consumo. El RUT también está asociado al SBIF, el que registra nuestro historial financiero. También a tu historial en Fonasa o en Isapres, y a tu historial de compras en farmacias. Y así ad infinitum. La dirección de tu casa, que por ley debe publicar el Servel, se puede georreferenciar y cruzar con información censal, de la encuesta Casen, o de Sosafe, respecto de cuáles son las características que tiene la cuadra en la que vives, cuáles son sus necesidades y los problemas que ha tenido. Con la misma tecnología de georreferenciación uno puede ver qué es lo que está posteando la gente de ese sector en Facebook, Instagram o Twitter. También se cuenta con la información respecto al historial de votación de tu mesa electoral y sus características específicas en comparación con la comuna, el distrito, etc. Todo eso se puede integrar y analizar con algoritmos muy potentes, capaces de extraer patrones empíricos complejos de ese conjunto enorme de datos. Y esos patrones son luego utilizados como información relevante para movilizar a segmentos distintos del electorado, en función de sus características específicas.

– Y empresas como Instagis o Cambridge Analytica hacen ese filtro y luego entregan a los candidatos los mensajes particulares para los segmentos definidos.

– Exacto. En perspectiva histórica, esto lo hacían los activistas locales de los partidos: los concejales, a veces los diputados, los líderes barriales. En la medida en que estos se han debilitado, más allá de que todavía están presentes, los partidos tienen menos información respecto del territorio. Estas empresas funcionan proveyendo esa información, pero en base a herramientas tecnológicas muy potentes. Hoy, eso se ha sofisticado de tal manera, y es tanta la información que tenemos, que se puede hacer una segmentación muy fina. Estas empresas también realizan pequeñas encuestas telefónicas en algunos segmentos respecto de preocupaciones, temas, candidatos. Y también alimentan la base de datos con estudios y encuestas súper dirigidas, para probar mensajes o candidatos y cuán efectivos son en un público determinado. Vía Facebook o Instagram, simplemente registrando una tarjeta de crédito, y a muy bajo costo, tu puedes hoy postear avisos o mensajes altamente segmentados en términos de características personales, gustos y preferencias y sector geográfico muy bien delimitado. Esta tecnología puede utilizarse para “probar” mensajes y para distribuir aquellos más efectivos a públicos similares a aquel en que fue testado primero.

En un contexto como el de Chile, la información sobre los temores de las personas en materia de seguridad pública constituye un insumo crucial para las campañas. Eso hace que la sociedad entre Instagis y Sosafe encienda una luz roja sobre el posible uso de datos relacionados con los reportes que hacen los usuarios de la aplicación de seguridad. Una actividad para la que actualmente no hay una norma que ponga límites y reglas.

Juan Pablo Luna explica que la seguridad pública, por ejemplo, es una de las preocupaciones predominantes en ciertos sectores sociales. No obstante, “con la tecnología actualmente disponible ya no importa tanto cuán central es un tema en términos generales, porque lo que estas empresas hacen en función de lo que la micro-segmentación les permite, es identificar para los candidatos segmentos bien específicos del electorado para los cuales ese tema sí es muy relevante. Y a otros grupos los movilizarás mediante otros reflejos o temores. Por ejemplo, en una zona en que el desempleo haya crecido y en que se registre una presencia elevada de inmigrantes, los candidatos podrían recurrir a movilizar la xenofobia. Y a quienes posean un perfil ideológico o actitudinal de tipo conservador (por ejemplo, a usuarios de redes sociales vinculados a redes de iglesias evangélicas o denominaciones conservadoras de la iglesia católica) podrás intentar movilizarlos mediante mensajes contrarios a la ‘ideología de género'».

Es decir, se pueden hacer programas de campaña a la carta, hechos especialmente para electores según lo que ellos mismos publican, compran, visitan e, incluso, intentan esconder en su huella digital. Luna explica que, mientras moviliza a unos con un mensaje, puede movilizar a otros con otro, sin que ninguno de esos públicos salga de su propia burbuja. «Este tipo de movilización opera en base al refuerzo cognitivo (cada uno escucha lo que quiere escuchar en función de sus posiciones previas) y tiende, por tanto, a radicalizar las posiciones de cada cual», precisa el académico.

– Todos estamos posteando cosas en redes sociales que, bien analizadas, muestran cuál es tu perfil ideológico, qué temas te preocupan, a quién te pareces y de quién te diferencias.

Por ejemplo, un reportaje de La Tercera investigó en 2017 cómo Instagis usó los datos de los ciudadanos y los utilizó en la exitosa campaña presidencial de Piñera de ese año. El comando contrató a Instagis para “identificar la adhesión política vía redes sociales -en especial Facebook-, a través de los comentarios de los usuarios y sus ‘me gusta’. Luego, se busca la localización de esa acotación y se dirige la campaña vía red social a esa persona. Esta vez, los posibles votantes se dividieron en tres: piñeristas, indecisos y perdidos”, señala el reportaje.

LOS DATOS YA NO SON NUESTROS

Todo esto, empresas como Instagis lo hacen sin ningún control externo sobre cómo y qué datos usan, y con qué otras instituciones pueden compartirlos o comercializarlos. En Chile no hay una ley que proteja adecuadamente la información de los ciudadanos. En otra entrevista con CIPER, el investigador Claudio Gutiérrez indicó que por este vacío legal los chilenos vivimos como en una “casa de vidrio” (vea “Quienes tienen hoy el poder, quieren controlar el mundo virtual”). Los que pueden mirar profundamente en esa casa son Estados y grandes empresas que tienen los computadores, programas y especialistas, capaces de construir enormes bases (el Big Data), con las pistas que dejamos en el mundo de los datos (nuestra huella digital).

Juan Pablo Luna considera que la legislación para proteger nuestra información personal llega tarde. Cita como ejemplo la ley de financiamiento de campañas que surgió de la comisión que encabezó Eduardo Engel. Recuerda que “después de la última elección, CIPER publicó una entrevista a Engel (véala aquí) donde él dice que la legislación parece haber tenido éxito, en parte porque hubo menos palomas (propaganda callejera) y más información circulando en Facebook y redes sociales, lo que a su juicio significaba que las campañas se habían vuelto más programáticas. Esta afirmación no tiene ningún sustento empírico. Nosotros (el equipo de Luna en el IMFD) estamos trabajando en una investigación en la que observamos campañas en cinco distritos y tenemos registrado lo que los candidatos postearon en Facebook, así como el tipo de propaganda y actividades que desplegaron en terreno. Si bien aún estamos procesando la información, así como intentando entender los efectos que la campaña online generó en comparación con la campaña tradicional, es claro que las campañas en Facebook son tan poco programáticas como lo eran las palomas. Y no solo replican lo mismo (de las palomas), sino que segmentan mucho más”.

Con esto, Luna grafica que invertir en una legislación nueva –aunque pueda ayudar a futuro- de todas maneras es un esfuerzo que está condenado a llegar tarde, ya que “la realidad se está moviendo súper rápido y parte del problema es que el Estado perdió el control. La soberanía estatal, no solo depende del monopolio del poder de coerción, sino también del monopolio respecto a información sobre las características y comportamientos de la ciudadanía. Hoy los Estados han perdido ese monopolio. Y sin él, ¿cómo haces un monitoreo si, por ejemplo, no sabes qué bases de datos tiene cada uno y cómo las están usando? Es muy difícil poner esto bajo control”.

En este proceso, asegura el investigador, se “juega la soberanía de los Estados”:

– En perspectiva histórica, los Estados son los que han tenido los datos sobre la población. Y la soberanía del Estado en materia estadística se desarrolla en parte en función del monopolio de esos datos. Los Estados democráticos garantizaban además la integridad y confidencialidad de esa información. Hoy la información más valiosa y más completa la tienen Google, Facebook, Twitter. No la tiene ni el Servel ni el Instituto Nacional de Estadísticas (INE). Entonces, ¿cómo controlas si no tienes la información que sí poseen quienes deben ser controlados? También se abre un espacio donde hay que tener en cuenta la integridad de esas bases de datos porque, aun si fuera legal tenerlas y usarlas (en parte porque cuando instalamos una nueva aplicación o firmamos un contrato con una casa comercial, un banco, o una farmacia, todos pasamos por alto los “términos y condiciones” y autorizamos su uso), pueden ser hackeadas y mal utilizadas. Y hoy no está claro todavía cómo garantizar la integridad de esos datos. Incluso, leyes como la que obliga al Servel a publicar nuestros datos electorales, justificadas en otros contextos históricos, hoy funcionan en contra del espíritu de garantizar la justicia electoral.

– ¿Y qué pueden hacer los usuarios para protegerse?

– No es para nada claro. Lo que hay hasta ahora son parches que llegan tarde. Esto es en parte lo mismo que pasa con la circulación de fake news (noticias falsas). Por un momento, la sociedad pensó que una forma de combatirlas eran los fact-checkers (el chequeo de datos): detectar las noticias falsas y denunciarlas, para desactivarlas. Pero según un artículo publicado en la revista Nature los seres humanos parecemos compartir mucho más rápido noticias falsas, que noticias sobre hechos reales. Entonces, el fact checker soluciona muy poco, porque aparentemente el morbo que obtenemos al compartir “cahuines” y noticias falsas sigue estando ahí. Y al mismo tiempo, hallazgos contemporáneos en neurociencia sugieren que aunque sepamos que una noticia es falsa, en alguna medida, su contenido sigue afectando nuestro comportamiento ulterior.

Frente a esto, lo principal que se puede hacer por ahora, explica Luna, es “concientizar a las personas respecto del valor que tienen sus datos y de cómo pueden ser movilizadas con ellos. Por ejemplo, tenemos que ser más conscientes que lo que aparece en nuestro muro de Facebook o en los avisos que nos impactan en Instagram o YouTube no es aleatorio, sino que es resultado de nuestra propia huella en redes sociales y la información que nosotros mismos hemos cedido gratuitamente a las aplicaciones”.

Es importante que las personas sepan que, más allá de la ley, deben tener conciencia sobre cómo nuestras interacciones con la tecnología son, según Luna, como “un búmeran”: “para las viejas generaciones había una distinción clara entre decir algo casualmente o dejarlo por escrito, porque se sabía que la palabra escrita tenía un peso y posibles consecuencias ulteriores del que carecía un comentario casual. Las nuevas generaciones y nosotros mismos, hemos dejado de hacer este tipo de distinciones. Y ahora, lo que escribimos hace años, tal vez en un mal momento, hoy es parte de nuestra huella digital. Y en un contexto diferente, puede ser utilizado en nuestra contra. Esto ya es usual, por ejemplo, en procesos de selección de personal en que se realiza un screening exhaustivo de la personalidad digital de quienes están postulando a un puesto”.

El “búmeran” también opera más sutilmente, a través de instrumentos que pueden ser usados para manipular nuestras opciones y nuestras opiniones, a través de mecanismos de refuerzo cognitivo que se alimentan de nuestros propios posts y patrón de comportaminento online del pasado. También en esto, dice Luna, se debe tener un cuidado extra con las nuevas generaciones, para que entiendan cómo se manipula la construcción de sus opiniones en un mundo donde lo virtual es cada vez más relevante en la vida cotidiana.

– Creo que hay que procurar mucha formación respecto de que aquello que pensamos que son nuestras opiniones, en realidad no son totalmente nuestras. Hoy hay quienes proponen sustituir a los políticos por algoritmos, sosteniendo que aquellos serían capaces de representar y traducir nuestras opiniones en política pública mucho más eficientemente (y sin corrupción) que los políticos de carne y hueso. Un problema fundamental para estas propuestas es ignorar el proceso a partir del cual los ciudadanos formulan sus preferencias, siendo que en la sociedad actual, dicho proceso está fuertemente impactado por nuestra exposición a mecanismos de segmentación y refuerzo cognitivo sumamente sofisticados. Entonces, parte de lo que tenemos que hacer es concientizar, sobre todo a las nuevas generaciones, sobre cómo se forman opiniones en esta nueva sociedad y sobre cómo lo que hacemos en redes sociales y nuestros datos generan procesos en los que creemos que pensamos algo, pero en realidad nos están “ayudando” a pensar eso. O están radicalizando una opinión que ya tenemos, con mecanismos de refuerzo que están integrados a los algoritmos de las redes sociales. Todas las experiencias que vamos conociendo, así como la investigación que estamos realizando en términos colectivos a nivel mundial, sirven para entender mejor la naturaleza del problema. También para calibrar los alcances que podría tener esta disrupción tecnológica. Es decir, en qué medida estas tecnologías sustituyen, complementan o simplemente terminan siendo marginales respecto a las formas tradicionales de hacer campaña. En caso que estas tendencias se consoliden, y todo apunta hacia allí, lamentablemente no parece haber un antídoto fácil. No hay bala de plata para esto. Lo que sí tenemos que hacer como país es tomar conciencia y generar una discusión pública sobre este tema y su relación con el proceso democrático, para proteger la integridad de este último, así como la privacidad e integridad de los datos personales.

Este artículo es parte del proyecto CIPER/Académico, una iniciativa de CIPER que busca ser un puente entre la academia y el debate público, cumpliendo con uno de los objetivos fundacionales que inspiran a nuestro medio.

CIPER/Académico es un espacio abierto a toda aquella investigación académica nacional e internacional que busca enriquecer la discusión sobre la realidad social y económica.

Hasta el momento, CIPER/Académico recibe aportes de tres centros de estudios: el Centro de Estudios de Conflicto y Cohesión Social (COES), el Centro de Estudios Interculturales e Indígenas (CIIR) y el Instituto Milenio Fundamentos de los Datos IMFD. Estos aportes no condicionan la libertad editorial de CIPER.