Hay un motivo fundamental por el que el camino hacia la creación de robots y vehículos autónomos (y nos referimos a los completamente autónomos) está dando tantos dolores de cabeza a los expertos: los robots vienen a ser 'idiot savants' capaces de hacer muy bien una única cosa, pero sólo esa, mientras que su inteligencia artificial desaparece a la hora de hacer frente al resto de situaciones. E incluso a la hora de realizar su tarea habitual fuera de sus condiciones de trabajo ideales.

Por desgracia, la tarea de un vehículo autónomo, que se desplaza por el mundo real y se ve forzado a interactuar con otros vehículos, con personas, y animales (por no mencionar las condiciones meteorológicas, etc) no puede ser más polifacética y más carente de "condiciones de trabajo ideales". Es decir, no podrán mostrar verdadera autonomía hasta que no cuenten con una capacidad mínima de conocimiento de su entorno. Nada exagerado: basta con la que tendría un bebé de unos pocos meses de edad.

Un bebé humano empieza a desarrollar, en torno a los dos meses de vida, modelos físicos mentales que les permiten prever cómo funcionan las cosas a su alrededor (cómo colocar sobre el suelo, por ejemplo, un objeto que no habíamos visto antes, de tal forma que mantenga una posición vertical); pocos meses más tarde son capaces de anticipar cómo caerá al cubo un material dependiendo de si es un fluido o un sólido (arena o una piedra).

"Incluso un niño de cinco meses podría entenderlo. ¡Que me traigan un niño de cinco meses!"

Hasta ahora hemos sido incapaces de replicar esos modelos físicos que poseemos de manera innata en las máquinas 'inteligentes' que creamos, explica Avideh Zakhor, profesor de Berkeley experto en visión artificial. Y esa es la clase de problema a la que deberemos dar solución si queremos dar nuevos pasos adelante en el desarrollo de máquinas autónomas.

Lograrlo no sólo permitirá a estos vehículos navegar por el mundo real, sino que incluso podría ahorrar potencia de cálculo, según afirma Lochlainn Wilson, director general de SE4, una compañía japonesa que diseña robots con la intención de que un día puedan operar en Marte: dada la latencia del envío de datos entre la Tierra y el planeta rojo, la realización de tareas complejas de forma autónoma cobra más importancia que nunca.

La solución adoptada por SE4 y otras compañías del sector pasa por entrenar a sus IAs con simulaciones recurriendo a lo más parecido que hemos sido capaces de crear hasta ahora a nuestros modelos innatos: los motores gráficos de videojuegos, o bien versiones más complejas de los mismos como Bullets Physics, una creación open source de un ingeniero de Google que pone especial empeño en reproducir aspectos de la física real, como la fricción.

Por supuesto, hay otro aspecto que debe evolucionar al mismo ritmo que la comprensión artificial de la física: la percepción del mundo físico a través de la visión por ordenador. Según Gary Marcus, co-fundador de la robótica empresa Robust.ai:

"No tendremos robots domésticos, por ejemplo, hasta las máquinas no puedan interpretar bien las escenas. Tendremos Roombas, pero no a 'Rosie la robot' [la chacha robótica de los Supersónicos]".

Vía | IEEE Spectrum & Axios

Imagen | Maxpixel