Siri, Cortana, Alexa y el asistente de Google hablan nuestro idioma. Pero no es su lengua materna. Como si compartieran aula con los 22 millones de alumnos que actualmente estudian español como idioma extranjero, según el Instituto Cervantes, a los asistentes digitales se le atragantan partes de esta asignatura. “A las máquinas les cuesta entender los acentos de las diferentes partes del país y las variedades del español en América, mientras que funcionan mejor en inglés porque esa es la lengua de la mayor parte de los ensayos, investigaciones y publicaciones científicas”, comenta Elena González-Blanco, directora general de Coverwallet en Europa y experta en inteligencia artificial (IA) y tecnología lingüística.

En su opinión, responder cuestiones que implican subjetividad y un conocimiento previo del contexto es uno de los principales escollos de la IA que reconoce, interpreta e imita la voz humana. “Un idioma no se aprende únicamente con clases de gramática, sino que además se requiere saber usarlo en determinados contextos y registros”, asegura.

Pero si a los robots se les aporta mucha información y casuística con baterías ingentes de preguntas y sus posibles respuestas, aunque no sean capaces de emular emocionalmente un contexto, sí tendrán información para al menos reproducir situaciones similares. “La cosa mejora a medida que la información contextual se suple con entrenamiento, pero para ello necesitamos una cantidad enorme de datos, sobre todo si existen distintos registros, dialectos y variedades lingüísticas”, apunta González-Blanco.

Sobresaliente en inglés y chino

Roberto Carreras, fundador y director de Voikers, compañía especializada en tecnología de voz, recuerda que, además del inglés, otro de los principales idiomas de la IA es el chino, debido a “su capacidad de penetración, la apuesta del Gobierno por el desarrollo de esta tecnología y el impacto en millones de habitantes”. No en vano, se trata del idioma más hablado en el planeta.

¿Pero qué ocurre con el español, la segunda lengua materna del mundo por número de hablantes? “Los conjuntos de datos en español usados para entrenar a la IA son todavía pequeños y cuando desarrollamos proyectos que requieren una cantidad ingente de información debemos tirar del inglés”, apunta Carreras.

Por eso, no es extraño que, según las cifras que maneja González-Blanco, el español aún represente menos del 30% del mercado mundial de las tecnologías PLN (Procesamiento del Lenguaje Natural), que según la consultora Credence Research crecerá a un ritmo anual cercano al 12% entre 2018 y 2026, año en el que alcanzará los 28.600 millones de dólares.

Así las cosas, González-Blanco asegura que nuestra lengua puede convertirse en uno de los “catalizadores” de la competitividad de España en el ámbito de la inteligencia artificial, ya que empresas de todos los sectores cuentan con muchísima información histórica en español con la que pueden entrenar a las máquinas. “El reto es usar correctamente esos datos con fines de investigación para crear y mejorar nuestros propios algoritmos y después comercializarlos en un mercado potencial con 580 millones de hispanohablantes”, puntualiza la experta, que vaticina un mayor éxito de aquellos proyectos “de nicho” específicamente destinados a cubrir una necesidad muy concreta, ya que la IA solo funciona bien cuando tiene una finalidad delimitada a partir de una información muy controlada.

Se trata de una opinión compartida por Carreras, que subraya los “grandes esfuerzos” que se están haciendo en la actualidad por destacar la importancia del español en el futuro de la IA. Como ejemplo, el director de Voikers saca a relucir el Plan de Impulso de las Tecnologías del Lenguaje, una iniciativa de la Secretaría de Estado para el Avance Digital: “Sin lugar a dudas, es una de las grandes apuestas de nuestro país por conectar el mundo universitario de la investigación en tecnologías del habla con el mundo corporativo, que adopta a velocidad de vértigo estas soluciones en procesos internos y externos”.

Según Carreras, todos los sectores de actividad podrán verse beneficiados por la implementación de las tecnologías de voz, que supone un nuevo contexto de relación entre las instituciones y sus comunidades, las empresas y sus clientes y las compañías y sus diferentes grupos de interés. En su opinión, las bondades de aplicar la IA a la voz ya son palpables en la salud, la banca, la automoción, los seguros, la educación, el turismo o la accesibilidad a la tecnología de colectivos como discapacitados, mayores y niños.

“Pero hay que estar preparados para lo que viene. En los próximos años veremos cómo los asistentes virtuales y los asistentes personales que emplean la voz como interfaz modificarán la forma que entendemos hasta hoy de construir marcas, de crear relaciones en un entorno conversacional, de generar experiencias y contenidos o de vender y atender a los clientes”, concluye Carreras.