Un grupo de investigadores de Microsoft y el Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés) ha desarrollado un nuevo sistema que puede identificar situaciones en las que la Inteligencia Artificial (IA) ha ‘aprendido’ de ejemplos de entrenamiento que no coinciden con lo que ocurre en el mundo real, lo que puede causar errores catastróficos.

Según un comunicado publicado por el MIT, el modelo podría ser utilizado para mejorar la seguridad en sistemas de IA para coches y robots autónomos. En este sentido, Ramya Ramakrishnan, autor principal del estudio y miembro del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT, afirmó:

El modelo ayuda a los sistemas autónomos a saber mejor lo que no saben (…) Muchas veces, cuando se implementan estos sistemas, sus simulaciones entrenadas no coinciden con la configuración del mundo real y podrían cometer errores, como meterse en accidentes. La idea es usar a los humanos para cerrar esa brecha entre la simulación y el mundo real, de manera segura, para que podamos reducir algunos de esos errores.

Actualmente, los sistemas basados en IA que operan en los coches autónomos tienen la capacidad para realizar simulaciones virtuales que preparan el vehículo para casi cualquier situación en la carretera. Sin embargo, muchas veces el coche comete errores inesperados en la práctica porque se enfrenta a una situación que no debió enfrentar, lo que altera las acciones del coche.

El informe revela que los investigadores probaron su modelo con videojuegos, con un humano virtual que corregía el camino aprendido por otro personaje que se mostraba en la pantalla. Luego, incorporaron métodos tradicionales de aprendizaje para robots y coches autónomos con sugerencias humanas.

De esta forma, los expertos llegaron a la conclusión de que, al implementar su método en el mundo real, el coche o robot autónomo pueden actuar con más precaución ante determinadas situaciones.

Según Ramakrishnan, el próximo paso para el equipo de investigación es recopilar datos sobre las posibilidades de que la IA cometa un error en una situación donde recibe múltiples señales, como los factores que influyen en el hecho de darle paso a una ambulancia.

Escribir un comentario