Lo que empezó como un pequeño reducto de voces críticas que remaban a contracorriente (mención especial a la matemática Cathy O'Neal, autora de Armas de destrucción matemática en 2016) se ha convertido poco a poco en una gran ola de protesta científica contra algunas prácticas de la industria de la Inteligencia Artificial. En especial, los científicos señalan a los sistemas de reconocimiento emocional, que evalúan a las personas en base a su personalidad, emociones o estado mental. A pesar de que uso cada vez está más extendido, "la evidencia científica sugiere que las afirmaciones que se hacen sobre su eficacia no se sostienen", denuncia el Instituto AI Now de la Universidad de Nueva York.

Los límites estadísticos de la vigilancia masiva: no sirve para detectar individuos sino criminalizar colectivos

Saber más

En su informe-resumen de 2019, este departamento de investigación especializado en Inteligencia Artificial pide a los gobiernos que impidan que el problema siga creciendo. "Los reguladores deberían prohibir el uso del reconocimiento emocional en procesos de decisión importantes que impacten en la vida de las personas y el acceso a oportunidades", afirma sobre una tecnología cada vez más habitual en los procesos de selección de personal, la concesión de bonos y ayudas sociales o el cálculo del precio de un seguro.

Hasta que llegue esa regulación, "las compañías de Inteligencia Artificial deberían dejar de implementarlo", añaden los 16 investigadores firmantes. Acusan a la industria de intentar aprovecharse del desconocimiento del público y de los políticos sobre lo que puede hacer y lo que no puede hacer esta tecnología para venderla como solución a multitud de problemas de toda índole. "Este año, los investigadores han descubierto que hay sistemas que cuentan con un amplio despliegue y que afirman poner en práctica teorías científicas comprobadas, pero que al final son poco más que especulaciones".

Entre estos ejemplos, señalan desde el uso de sistemas que analizan el movimiento de los ojos como detector de mentiras por parte de las policías de EEUU o Reino Unido; a una empresa de marketing que instala cámaras de reconocimiento facial en tiendas para evaluar si los clientes están sintiendo frustración, tristeza u otros sentimientos. "Hay poca o ninguna evidencia que todos estos sistemas de reconocimiento emocional tengan algún tipo de validez científica", avisan los científicos.

Procesos matemáticos vs. predecir el futuro

El informe-resumen de AI Now recoge el trabajo de decenas de investigadores de todo el mundo que han focalizado sus últimos estudios en este problema. Uno de los que mejor lo resume es Arvind Narayanan, profesor de Ciencias de la Computación en Princeton (EEUU): la Inteligencia Artificial no es una sola tecnología, sino un "paraguas" bajo el que se están metiendo muchas tecnologías relacionadas entre sí, pero diferentes. "Algunas de ellas han logrado un progreso genuino, notable y ampliamente divulgado", recalca. Otras, sin embargo, "no funcionan y no pueden funcionar".

Para ejemplificarlo, Narayaran separa las tecnologías bajo ese paraguas en tres grupos. En el primero encuadra los algoritmos que mejor funcionan, centrados en resolver problemas de "percepción", como el diagnóstico médico a partir de pruebas como radiografías, la identificación de patrones musicales, el reconocimiento de imágenes o el facial. "La razón fundamental para este progreso es que no hay incertidumbre o ambigüedad en estas tareas", señala: "Con suficientes datos y procesos de computación, la IA aprenderá los patrones que distinguen una cara de otra (y esto es exactamente lo que debería preocuparnos en este caso)".

En un segundo grupo, el profesor de Princeton encuadra la Inteligencia Artificial a la que se encargan juicios de valor. Estas decisiones pueden ser discernir si un correo electrónico es 'spam', si un contenido subido a Internet debe ser bloqueado por motivos de copyright, la detección del discurso de odio o la recomendación de contenidos. "La IA nunca será perfecta en estas tareas porque implican un juicio e incluso personas razonables pueden estar en desacuerdo sobre cuál es la decisión correcta. Parece que hemos decidido adoptar estos sistemas, por lo que ahora lo que debemos decidir es cómo gobernarlos mejor", expone.

Por último está la tecnología que se usa para predecir el comportamiento de las personas, que el investigador denomina como "aceite de serpiente", un concepto anglosajón que se utiliza para los productos que presumen de unos efectos sin ninguna evidencia científica. En esta categoría pone a los algoritmos que se usan para evaluar el riesgo de que una persona cometa un acto terrorista, si merece obtener una ayuda social, cómo se desempeñará en un trabajo concreto o qué probabilidades hay de que se convierta en delincuente reincidente. "Solucionar estos problemas es difícil porque no podemos predecir el futuro. Eso debería ser de sentido común. Pero parece que hemos decidido suspender el sentido común cuando una IA está involucrada", denuncia Narayaran.

"Las compañías explotan esta confusión y colocan la etiqueta 'IA' en lo que sea que estén vendiendo", avisa el investigador. ¿El problema? "El público y los políticos están cayendo en la trampa".

Algoritmos que deciden el futuro de las personas

Los problemas asociados al uso de la Inteligencia Artificial para predecir el comportamiento humano trascienden los que se achacan habitualmente a esta tecnología, como la opacidad de las decisiones que toman los algoritmos. En España, la fundación Civio ha llevado al Gobierno ante el Tribunal Supremo por su negativa a aclarar cómo funciona (hacer público el código fuente) del software que decide si una persona tiene derecho al bono social eléctrico o no. La fundación ha podido documentar que el programa niega la ayuda a personas que tienen derecho a ella "y lo hace sin dar explicaciones concretas para resolverlo y pese a haberlo comprobado".

"La IA es mejor que las personas en algunas tareas muy definidas y específicas, como puede ser detectar determinados tipos de cáncer en pruebas muy concretas, en gran parte porque no se cansa. Pero cuanto más abierta sea la tarea, peores serán sus resultados", explica a eldiario.es Javier Sánchez, investigador del Data Justice Lab de la Universidad de Cardiff. Entre esas tareas abiertas, el experto referencia que se pueden incluir practicamente todas las que cuantifican variables sociales de las personas, difíciles de medir en números.

Sánchez es coautor de uno de los últimos estudios que han puesto en duda la efectividad de la Inteligencia Artificial aplicada a la contratación de personal. Este tipo de herramientas presume de poder medir el desempeño laboral que tendrá cada candidato a partir de elementos como una vídeo-entrevista. El análisis del Data Justice Lab detectó que la información sobre cómo funcionan y en qué se basan para ofrecer unos resultados u otros "es vaga y abstracta, en el mejor de los casos".

"Las empresas que venden estos sistemas de Inteligencia Artificial aseguran que pueden extraer unas conclusiones de tu cara, de tu voz, de tus expresiones, pero que no se sabe muy bien cuáles son, ni cómo lo relacionan luego con el rendimiento de las personas", critica el investigador. "Al final lo que estamos haciendo es volver a la frenología, algo que se demostró como seudociencia hace 100 años. Ahora, de golpe, han surgido un montón de empresas que dicen que podemos extraer rasgos de la personalidad y del rendimiento de una persona analizando su cara".