La sociedad actual está totalmente orientada hacia los entornos digitales. Ahora, desde que somos muy pequeños, nos vemos enfrentados con una gran cantidad de manifestaciones tecnológicas.

Un claro ejemplo de ello son los videojuegos que, en la actualidad, son capaces de atrapar tanto a grandes como a chicos. Al principio, estos fueron sencillos y poco elaborados.

Apple presentará una versión mejorada de Siri en el 2021

Sin embargo, esto cambió rápidamente con el paso del tiempo. Cada vez se volvieron más complejos, llenos de animaciones e infinidad de acciones que los personajes podían realizar.

Para hacer de ello algo de buena calidad, los desarrolladores han tenido que pasar una gran cantidad de horas trabajando en cada movimiento de los personajes. Ahora, gracias a una nueva investigación, podría existir un mecanismo que podría facilitar este proceso y ofrecer a los desarrolladores un atajo para no tener que invertir tanto tiempo en esta fase.

¿Por qué interesarse en el movimiento de los personajes?

Es más que claro que el movimiento es clave para hacer de una animación lo que es. Sin embargo, nuestro concepto de esta movilidad ha ido cambiando con el tiempo.

En un inicio, los movimientos notorios pero bruscos eran lo más comunes en lo dibujos animados –que eran en 2D. Asimismo, los videojuegos oscilaban entre espacios vagamente móviles e imágenes fijas con texto.

Usar IA de Microsoft podría mejorar considerablemente la economía en Brasil

Ahora, en la mayoría de los casos ambas disciplinas se decantan por el uso de gráficos en 3D y por un estilo de movimiento mucho más natural. Sin embargo, como lo hemos dicho, este, a pesar de ser el más llamativo, tiende a ser el más complejo de desarrollar.

Las conexiones neuronales fueron la clave

El nuevo sistema que fue desarrollado por científicos de la Universidad de Edimburgo se maneja a través de conexiones neuronales –similares a aquellas que tenemos en nuestro propio cerebro. Gracias a ellas, la inteligencia artificial tiene la posibilidad de realizar procesos de Deep Learning.

A través de ellos, los personajes animados en escena, pueden conseguir un nivel de interacción mucho mejor con su entorno. Es decir que, tendrán movimientos, reacciones y transiciones que se asemejarán en gran medida a las que se pueden presenciar en la realidad.

¿Cómo se le da vida a una animación?

Los científicos que se involucraron en este estudio, separaron el proceso de dar movimiento a una animación en 3D a dos pasos fundamentales: planeación y adaptación. El primero indica crear una base de datos que permita tener un registro de los movimientos posibles y el segundo se destaca por ofrecer la posibilidad de variar los primeros al adecuarlos a las características del entorno.

La herramienta que estos acaban de desarrollar, hace uso de sus conexiones neuronales justamente para llevar a cabo esta tarea. Sin embargo, a diferencia de otros programas, este sigue ofreciendo a sus usuario uno controles sencillos e intuitivos para realizar los movimientos. Ya que, muchos de los que ocurren en el proceso de adaptación, la computadora puede realizarlos por defecto.

Por si fuera poco, como se trata de un sistema que analiza su entorno virtual, aprende de él y reacciona a este, la verdadera base de datos del programa no es extensa. En realidad, esta solo guarda las interacciones de la fase de planeación y maneja en una especie de “archivo temporal” todas las variantes que surjan en la adaptación.

Google utilizará TensorFlow Hub para estudiar la biodiversidad

Pronto, los científicos darán a conocer su proyecto en la doceava ACM SIGGRAPH Conferencia y Exhibición de Gráficos de Computadora y Técnicas interactivas en Asia. Luego de ello, planean continuar desarrollando nuevos programas de interacción. Sin embargo, esta vez en la búsqueda de generar atajos para múltiples acciones simultáneas o para intervenciones entre dos o más individuos.

Referencia:

Neural State Machine for Character-Scene Interactions: https://sa2019.siggraph.org/

Más en TekCrispy