Antes de que la IA pueda ser vista como el compañero fiel de los humanos en situaciones complejas, tales como cirugías o siquiera conducción, los investigadores deben superar un problema. Uno que dificulta la cooperación: a los humanos no les gusta ni confían en sus socios IA. Una nueva investigación apunta que la diversidad es el parámetro clave para hacer de la IA un mejor compañero de equipo.
¿Qué descubrieron los investigadores sobre la IA y la diversidad?
Los investigadores del Laboratorio Lincoln del MIT descubrieron que entrenar un modelo de IA con compañeros de equipo matemáticamente “diversos” mejora su capacidad para colaborar con otra IA. Y lo interesante de esto es que lo descubrieron a través del juego de cartas Hanabi.
Estos resultados le indican a los investigadores un camino prometedor. Camino que esperan pueda hacer que la IA funcione bien y sea vista como un buen colaborador para los humanos.
De acuerdo con Allen Ross, investigador del Grupo de Tecnología de Inteligencia Artificial del Laboratorio Lincoln: “El hecho de que todos convergiéramos en la misma idea, que si quieres cooperar, necesitas capacitarte en un entorno diverso, es emocionante. Y creo que realmente sienta las bases para el trabajo futuro en IA cooperativa”.
¿Cómo realizaron la investigación?

Antes de hablar sobre este proceso, debemos saber qué es Hanabi. El programa Hanabi desafía a los jugadores a trabajar juntos para apilar cartas en orden. Sin embargo, los jugadores solo pueden ver las cartas de sus compañeros de equipo y solo pueden darse algunas pistas entre sí sobre qué cartas tienen. Muchos investigadores están utilizando Hanabi para desarrollar una IA cooperativa, por tanto, Hanabi para ellos es un campo de pruebas.
Los investigadores del Laboratorio Lincoln probaron uno de los modelos de IA de Hanabi. Se sorprendieron al descubrir que a los humanos les disgustaba mucho jugar con este modelo de IA, pues lo consideraban un compañero confuso e impredecible. Según Allen: “La conclusión fue que nos falta algo acerca de las preferencias humanas, y aún no somos buenos para hacer modelos que puedan funcionar en el mundo real”.
Es así como lograron llevar a cabo lo siguiente
- El equipo se preguntó si la IA cooperativa necesita ser entrenada de manera diferente.
- Luego, se dieron cuenta de que la IA para ser un buen compañero de equipo, no solo debe preocuparse por maximizar la recompensa al colaborar con otros agentes de la IA. Esta también debe comprender y adaptarse a las fortalezas y preferencias de los demás. En otras palabras: necesita aprender de la diversidad y adaptarse a ella.
- Entonces, para poder entrenar a una IA diversa, a los investigadores se les ocurrió “Any-Play”. El sistema de Any-Play aumenta el proceso de entrenamiento de un agente de IA Hanabi al agregar otro objetivo. Sumado a ello, maximiza el puntaje del juego: la IA debe identificar correctamente el estilo de juego de su compañero de entrenamiento.
Este método de inducir diversidad no es nuevo en el campo de la IA, pero el equipo amplió el concepto a los juegos colaborativos, pues aprovechó estos comportamientos distintos como diversos estilos de juego.
Keanu Lucas, primer autor y Ph.D. de la Universidad Carnegie Mellon, comenta: “El agente de IA tiene que observar el comportamiento de sus socios para identificar la entrada secreta que recibieron. Y tiene que adaptarse a estas diversas formas de jugar para desempeñarse bien en el juego. La idea es que esto daría como resultado un agente de IA que es bueno en jugar con diferentes estilos de juego”.
¿Cuáles fueron los resultados de la investigación sobre la IA y la diversidad?
- Para evaluar si el enfoque mejoró la colaboración, los investigadores combinaron el modelo con más de 100 modelos de Hanabi, que nunca antes habían visto.Y que fueron entrenados por algoritmos separados, en millones de partidas de dos jugadores.
- Los emparejamientos de Any-Play superaron a todos los demás equipos. También obtuvo mejores resultados cuando se asoció con la versión original de sí mismo que no entrenó con Any-Play.
Los investigadores consideran que este juego cruzado entre algoritmos es el mejor predictor de cómo se desempeñaría la IA cooperativa en el mundo real con los humanos.
Según Allen: “Argumentamos que esas otras métricas pueden ser engañosas y aumentar artificialmente el rendimiento aparente de algunos algoritmos. En su lugar, queremos saber, ‘si simplemente incluye a un socio de la nada, sin conocimiento previo de cómo jugará , ¿qué tan bien puedes colaborar?’ Creemos que este tipo de evaluación es más realista cuando se evalúa la IA cooperativa con otra IA, cuando no se puede probar con humanos”.
Los investigadores quieren vincular las emociones humanas
Para recuperar la perspectiva humana en el proceso, los investigadores quieren tratar de correlacionar los sentimientos de una persona sobre una IA, y con el objetivo de utilizarlos luego para entrenar la IA. Creen que descubrir estas conexiones ayudará a acelerar los avances en el campo.
De acuerdo con Allen: “El desafío de desarrollar IA para que funcione mejor con humanos es que no podemos tener humanos en el circuito durante el entrenamiento diciéndole a la IA lo que les gusta y lo que no. Tomaría millones de horas y personalidades. Pero si pudiéramos encontrar algún tipo de proxy cuantificable para la preferencia humana, y tal vez la diversidad en el entrenamiento es uno de esos proxy, entonces tal vez hayamos encontrado una manera de superar este desafío”.
Esperamos que pronto la diversidad haga que la IA sea más confiable para los humanos. Y que así estos puedan verla como un verdadero compañero de equipo.