Google Research, el equipo de investigación de inteligencia artificial de Google, es coautor de un estudio que describe un nuevo modelo de inteligencia artificial (IA) capaz de acceder a la memoria de entidades a través de un texto y responder preguntas en menor tiempo.

El estudio de Google Research titulado Entities as Experts: Sparse Memory Access with Entity Supervision (Entidades como expertos: escaso acceso a memoria con supervisión de entidad), es una poderosa tecnología que implementa el aprendizaje profundo en un nuevo modelo de red neuronal que puede devolver respuestas adecuadas en menor tiempo debido a que accede a los recuerdos de entidades identificados en un fragmento de texto.

Google explica que EaE (Entities as Experts) es un nuevo modelo de aprendizaje, pero en lugar de aprender de situaciones similares o recurrentes a través de un contexto, este puede aprender de los recuerdos que arrojan palabras claves (entidades) como personas, objetos, lugares planteados en una frase de texto.

Nos centramos en el problema de capturar el conocimiento declarativo en los parámetros aprendidos de un modelo de lenguaje. Presentamos un nuevo modelo: Entidades como Expertos (EAE): que pueden acceder a distintos recuerdos de las entidades mencionadas en una pieza de texto.

Los expertos señalan que las Google EaE, podrían ser capaces de superar a modelos de aprendizaje de vanguardia usando menos datos para procesar, explicando que podría ser capaz de resolver conflictos correspondientes a modelos de aprendizaje de lenguaje natural como el utilizado en el Google Translate.

El modelo EAE, presentado por los investigadores podría aprender a acceder a los recuerdos de estas entidades presentes en texto, lo que ayudaría a resolver problemas o interrogantes sin tener que entrenar a otra red neuronal que aprenda de las entidades (personas, objetos, lugares o elementos) presentes en la frase.

El modelo aprende el conocimiento directamente del texto, junto con otros parámetros del modelo (es decir, variables de configuración estimadas a partir de datos y requeridas por el modelo al hacer predicciones) y asocia memorias con entidades específicas o tipos de datos como títulos y expresiones numéricas.

¿Cómo obtiene la respuesta con menos información?

Los autores explican la funcionalidad de EAE tomando a Charles Darwin como ejemplo de búsqueda, al analizar el nombre por separado un modelo tradicional tomaría todas las posibilidades referentes al nombre en el texto, mientras que EAE “puede acceder a una representación dedicada de ‘Charles Darwin’, que es un recuerdo de todos los contextos en los que se ha mencionado anteriormente esta entidad.”

Y como consecuencia, podría acceder a otras menciones de Darwinf una vez recuperado ese recuerdo, de manera que EAE responderá de forma más eficiente.

Para comprobarlo, los investigadores entrenaron el modelo EAE con artículos de Wikipedia y a la API de Google Cloud Natural Language para un total de 32 millones de contextos combinados con más de 17 millones de menciones de entidades.

El sistema de TriviaQA, consiste en un sistema de compresión lectora y las preguntas se combinan con documentos, de acuerdo con los científicos: “De TriviaQA, el 77% de los ejemplos de capacitación se mantuvieron; los que no eran una entidad se descartaron”.

Expertos señalan que esta nueva tecnología podría implementarse a nivel empresarial para por ejemplo implementar una base de chatbots que manejan infinidad de información y responden preguntas acerca de una temática o funcionalidad.