Científicos y personajes del sector tecnológico han defendido advertido, desde hace un tiempo, de los peligros de la inteligencia artificial. Nadie niega que gracias a esta es posible realizar avances sustanciales que permiten revolucionar en muchos aspectos, sin embargo la posibilidad de que esta tecnología termine volviéndose contra nosotros ya no parece algo sacado de ciencia ficción.

Ingenieros del laboratorio DeepMind de Google, han creado dos modelos experimentales para estudiar el comportamiento de las redes neuronales y dilucidar si son más propensas a cooperar o competir como motivación para lograr un objetivo. Las conclusiones del estudio, demuestran que el resultado depende de las condiciones a las que son sometidas.

Los modelos experimentales consistieron en dos juegos con mecánicas distintas. En el primero, dos inteligencias (punto rojo y azul) deberían competir por adquirir el mayor número de manzanas (puntos verdes). Para intensificar la dificultad del juego, la frecuencia con la que las manzanas aparecía variaba. Además de poder recolectar las manzanas, los ingenieros dotaron a las inteligencias de la capacidad de poder disparar a la otra para inmovilizar.

El resultado como hemos dicho depende de las circunstancias. Si las manzanas eran abundantes, las inteligencias no interactuaban ni se disparaban entre sí. En cambio, cuando las manzanas se hacían escasas las inteligencias se disparaban entre sí.

El segundo juego, consistía en inteligencias que actuaban como lobos (puntos rojos). Su objetivo consistía en la captura de sus presas (puntos azules) evitando los obstáculos grises. La recompensa en este caso, variaba en dependencia de la proximidad en la que los lobos atrapaban la presa entre sí.

En este caso, el resultado fue que las inteligencias comenzaron a trabajar en equipo para obtener mejor puntaje.

Los ingenieros de DeepMind también aprendieron que entre más complejas sean las redes neuronales, la curva de aprendizaje para cooperar y convertir se acentuaba, mientras que el aprendizaje era mas lento si las redes neuronales eran de menor capacidad.

Por otro lado, Google resalta que las inteligencias artificiales utilizadas en el experimento carecían de memoria a corto plazo y tampoco hacían injerencias sobre las intenciones del otro jugador, dos punto claves que facilitarían al momento de realizar un razonamiento más complejo.

Los experimentos son sin duda de suma importancia para entender cómo esta tecnología podría funcionar de ser aplicada en economía, gestión del tráfico en grandes ciudades, e incluso en robótica. Además, nos ayuda a prever cuán lejos podemos llegar y advertirnos que tipo de medidas se pueden tomar para neutralizar todo tipo de comportamiento en el que la inteligencia artificial intente competir con la humanidad.

Escribir un comentario