Aprender a caminar puede resultar una tarea difícil para los niños, con muchas caídas antes de hacer un recorrido contínuo y en pequeños pasos, así es el robot que está desarrollando un grupo de investigadores de Google, pues el autómata está aprendiendo a caminar por sí mismo.

Científicos de Google acuden al Aprendizaje Profundo por Refuerzo, para crear un robot de cuatro patas que aprende a caminar por sí solo. Al igual que ocurre con los niños cuando aprenden a caminar, este robot puede caer y levantarse varias veces mientras aprende a caminar a través de la Inteligencia artificial y el aprendizaje automático por refuerzo.

En este artículo, proponemos un algoritmo de RL profundo de muestra eficiente basado en RL de entropía máxima que requiere un ajuste mínimo por tarea y solo un número modesto de ensayos para aprender las políticas de redes neuronales.

Sin duda se trata de un avance importante en esta área de Aprendizaje Profundo, puesto que los algoritmos desarrollados hasta  ahora permitían que los robots aprendieran a caminar, pero necesitaban de la ayuda de un humano para levantarse tras una caida. Con este nuevo estudio esto ya no será necesario, pues el bot será capaz de levantarse solo, señala la fuente.

Deep reinforcement learning (Deep RL) aprendizaje por refuerzo profundo para mover un bot de cuatro patas

Esta técnica de inteligencia artificial utiliza principios de aprendizaje profundo y aprendizaje por refuerzo para optimizar algoritmos existentes, es decir crear algoritmos eficientes basados en IA. De esta forma crearon un sistema de locomoción autónomo que permite que el bot de cuatro patas aprenda a caminar por sí solo.

Meena, el chatbot de Google que llega para competir con Siri y Alexa

El bot de cuatro patas se desplaza hacia adelante, hacia atrás o hacia los lados según sea el caso.
Para mejorar el algoritmo, los científicos delimitaron el terreno que el robot podía explorar y lo hicieron entrenar en múltiples maniobras a la vez, si este llegava al borde del límite mientras caminaba hacia adelante, el robot cambiaría de dirección y comenzaría a aprender a caminar hacia atrás caminar hacia atrás.

El robot volcó 33 veces, cayó 16 veces y se levantó por sí mismo, de acuerdo con los desarrolladores, lo más difícil del algoritmo ocurrió en este momento cuando tenían que sustituir la participación del humano, que generalmente acude a ayudar a robot a levantarse.

“Creo que este trabajo es bastante emocionante”, dice Chelsea Finn, profesora asistente en Stanford, quien también está afiliada a Google pero no está involucrada en la investigación. “Eliminar a la persona del proceso es realmente difícil. Al permitir que los robots aprendan de manera más autónoma, los robots están más cerca de poder aprender en el mundo real en el que vivimos, en lugar de en un laboratorio “.

Una vez realizados los ajustes, los científicos dicen que el robot solo tomó dos horas aprender a caminar en un terreno plano, también intentó en un colchón y una superficie agrietada. Los resultados podrás verlos en el siguiente video.

Nuestro método puede adquirir una marcha estable desde cero directamente en el mundo real en aproximadamente dos horas, sin depender de ningún modelo o simulación, y la política resultante es robusta a variaciones moderadas en el entorno.

Más en TekCrispy