Foto: Neuro Science News

A medida que los científicos e informáticos optimizan la tecnología de Inteligencia Artificial (IA) y aprendizaje automático, la capacidad de las máquinas para ejecutar tareas de gran complejidad está creciendo de manera acelerada.

Hasta ahora, la IA ha podido resolver problemas matemáticos difíciles, responder preguntas complejas e incluso analizar los resultados de un paciente con cáncer a partir de una radiografía. En el caso de los altavoces inteligentes, es impresionante su capacidad para realizar búsquedas web, aprender nuestros gustos y ordenar productos en línea.

Nuevo algoritmo de inteligencia artificial promete salvar a pacientes de lesión renal aguda

Cuando se trata de emociones humanas, los investigadores de IA no han tenido tanto éxito en sus proyectos. Sin embargo, un grupo de investigadores de la Universidad de California y la Universidad de Duke, en EE.UU., han logrado cruzar esta frontera, y hacer que una máquina diferencie entre una imagen de una persona triste y una persona feliz. Lo mejor de todo es que este proceso de identificación se lleva a cabo en algunos milisegundos.

Tor Wager, coautor de la investigación, afirmó a través de un comunicado de prensa que el aprendizaje automático actualmente se ha optimizado en gran medida para el reconocimiento de imágenes, por lo que su equipo se preguntó si era posible llevar este reconocimiento a las emociones.

Para responder esta pregunta, Philip Kragel, autor principal del estudio, usó una red neuronal existente llamada AlexNet, que permite a las máquinas identificar objetos. Asimismo, utilizó información de estudios anteriores sobre el reconocimiento de respuestas emocionales vinculadas a imágenes y, finalmente, reconfiguró su red para predecir cómo se siente una persona cuando observa cualquier imagen.

¿La inspiración para el nuevo apocalipsis de robots?

Kragel y su equipo presentaron EmoNet, una red neuronal entrenada con al menos 25,000 imágenes de todo tipo, desde fotografías eróticas hasta paisajes naturales. Los investigadores solicitaron a la IA que clasificara los resultados de su análisis en 20 categorías de emociones, incluyendo sorpresa, deseo sexual, asombro y horror.

Durante las pruebas, EmoNet logró identificar con éxito y de manera confiable hasta 11 tipos de emociones humanas diferentes a partir de fotografías. En el caso de las imágenes que reflejan deseo sexual, la IA tuvo una precisión del 95 por ciento, pero no tuvo la misma efectividad al identificar emociones más subjetivas como la sorpresa, el asombro y la confusión.

Esta herramienta permite agregar, eliminar y modificar objetos en fotografías con IA

Uno de los aspectos más impresionantes del estudio fue el resultado que arrojó EmoNet cuando se les sometió a colores simples para que identificara algún tipo de emoción. Por ejemplo, al exponerse a una pantalla negra, la IA reflejaba ansiedad, mientras que al color rojo lo identificó como antojo. Las mascotas pequeñas generaron diversión y las imágenes de personas juntas fueron identificadas como romance.

Los sistemas inteligentes de este tipo tienen diversas aplicaciones en el sector de la atención al público, incluyendo la asesoría médica en línea, los servicios de entretenimiento y algunos chatbots. Los expertos sugieren que la importancia del estudio radica en cómo la innovación de la IA parte de una imagen del cerebro humano, además de sugerir que los estímulos visuales, por muy breves que sean, pueden tener un impacto importante en nuestras emociones.

Referencia: Emotion schemas are embedded in the human visual system. Science Advances  24 Jul 2019: Vol. 5, no. 7, eaaw4358. DOI: 10.1126/sciadv.aaw4358

Más en TekCrispy