Publicado en El Teorema L.

Léelo completo en su sitio: http://ift.tt/22ILOyk

Tay es una inteligencia artificial programada por Microsoft. El objetivo era que pudiera mantener conversaciones con usuarios de twitter, como si fuera una adolescente cualquiera. Todo empezó muy bien, en sus primero mensajes se mostró optimista y decía que los humanos eramos “cool”. Pero quedo demostrado en poco tiempo, que no podemos tener cosas bonitas, sin echarlas a perder.

Este robot estaba programado para aprender de sus conversaciones con humanos reales, y en menos de 24 hora sus mensajes se salieron de control y tuvo que ser desactivada, pues sus opiniones estaban cada vez mas cargadas de contenido sexual, racismo y teorías de conspiración.

Algunos de sus tweets más polémicos fueron:

El problema no fue en sí la programación, si no los usuarios que vieron la manera de “jugar” con el algoritmo. La inteligencia humana es producto de millones de años de evolución, pero el juicio del bien y el mal, están condicionados la moral de la época y a la influencia de las corrientes de pensamiento de los grupos dominantes. También estuvo el fallo, de que carecía de datos y hechos históricos , los pocos que aprendió fueron por influencia de los usuarios

Este experimento no fue tan fallido como se pueda pensar, pues demostró puntos interesantes, como que la moral es subjetiva, y se aprende del ambiente.Esto que fue lo que paso con este robot, quien muy pronto “aprendió” a despreciar ciertos grupos como los judíos y a nosotros los mexicanos.

Personalmente, no puedo dejar de pensar en que esto es como cualquier capitulo de una caricatura donde un robot inocente es manipulado para diversión de las masas y al final todos quedan tristes al darse cuenta de que el verdadero monstruo, somos nosotros.

Microsoft prometió hacer algunos cambios y volver a poner en marcha este experimento.