En una nueva investigación realizada por Amazon, se completó el desarrollo de un sistema prototipo que servirá para aumentar la capacidad de Alexa, al momento de reconocer temas, en un 35%.

Si le preguntan a cualquier propietario de cualquier dispositivo que funciona gracias a la inteligencia artificial, de seguro les comentaran lo complicado que puede resultar que el orador inteligente los entienda. Mucho menos si de temas de conversaciones estamos hablando.

Por lo mismo, la compañía detrás del desarrollo de Alexa ha estado progresando para lograr ofrecerles a los usuarios experiencias de voz más contextuales, es decir, lograr enrutar con mayor precisión las solicitudes gracias al “modelado de temas”.

Según indica Behnam Hedayatnia – científico de Amazon, especializado en el habla – el sistema de la compañía utiliza dos fuentes adicionales de información para lograr determinar el tema de alguna expresión dada. Como lo menciona en la entrada en el blog de Amazon, estas serían las expresiones anteriores y su clasificación como un ‘acto de diálogo’.

Unión Europea aprueba cuota de contenidos a Netflix, Amazon y HBO

¿Cómo funciona el “modelado de temas”?

En resumen, el sistema de “modelación de temas” está comprendido por tres arquitecturas de inteligencia artificial diferentes. La primera es una red de promedios profundos (DAN), la segunda consiste en una variación en la red DAN que se encarga de aprender a predecir las palabras claves indicadas en los temas y la tercera es una red bidireccional de memoria a largo-corto plazo (LSTM).

Esta última red mencionada, la LSTM, resulta ser una categoría de red neuronal capaz de aprender dependencias a largo plazo, lo que permite que las redes neuronales acierten con mayor precisión las predicciones.

Los desarrolladores realizaron múltiples combinaciones hasta llegar a acertar con una que logrará mejorar las capacidades de la asistente inteligente de Amazon. Hedayatnia describió cada detalle de la investigación en la entrada del blog de la compañía.

Más en TekCrispy