Los investigadores del Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés) han desarrollado un sistema que permite comprender la manera en que una red neuronal toma decisiones, ejecutando pasos de razonamiento similares a los de una persona para finalmente responder interrogantes sobre una serie de imágenes.

En el comunicado del MIT sobre la investigación, los expertos aseguran que nuestra manera de aprender sobre el mundo se desarrolla a través de la razón y, en este sentido, también se realiza mediante redes neuronales. Por ello, han creado esta red neuronal, llamada Transparencia por Red de Diseño (TbD-net), para representar a nivel visual el proceso de pensamiento de la Inteligencia Artificial (IA) mientras se encarga de resolver tareas.

De esta forma, los investigadores pueden tener una mejor interpretación del proceso de toma de decisiones de las máquinas con IA. Además, el equipo del Laboratorio Lincoln del MIT, encargado de desarrollar este sistema, asegura que su modelo de red neuronal tiene un mejor funcionamiento que las redes neuronales enfocadas en el razonamiento visual que existen en la actualidad.

El hecho de saber cómo una red neuronal llega a un resultado o conclusión siempre ha sido un desafío para el sector de IA, sobre todo por la complejidad que han adquirido estos sistemas con el paso de los años. Ahora, gracias  TbD-net, los investigadores se han planteado el objetivo de hacer que este proceso interno sea mucho más abierto y conocido, es decir, que el proceso de toma de decisiones de una máquina sea ‘transparente’ para interpretar mejor los resultados de las tareas específicas que esta ejecuta.

En el caso de los coches autónomos, un sistema de este tipo podría ayudar a comprender cómo una red neuronal diferencia entre una señal de tráfico y un peatón para luego tomar la decisión final de esquivarlo o frenar. De esta manera, se evitarían accidentes fatales como los que ya hemos visto con este tipo de transporte, y los ingenieros tendrían una mejor forma de corregir suposiciones incorrectas por parte de las máquinas.

Con respecto al funcionamiento de TbD-net, cuando se le pregunta sobre una imagen en específico, la herramienta descompone la interrogante en subtareas y asigna a cada una un módulo adecuado, al igual que los empleados de líneas de ensamblaje.

De esta forma, el sistema logra interpretar las preguntas del lenguaje humano y luego las divide en subtareas, para posteriormente interpretar las imágenes a través de diversas técnicas de IA. De momento, la tecnología continúa en desarrollo, y se esperan nuevos informes sobre su avance.

Más en TekCrispy