Google ha estado trabajando durante años en un “nuevo lenguaje de interacción”. Y, hace poco, finalmente ha mostrado los avances que ha hecho con este proyecto. Parte de la investigación podrá verse en una serie de videos que Google estará publicando bajo el nombre de “En el laboratorio con Google ATAP.” ATAP es un acrónimo que significa Tecnología y Proyectos Avanzados. Además, es la división más experimental , la compañía incluso la denomina como su “estudio de invención de hardware”. Ya el primer episodio se encuentra disponible y muestra los movimientos que detecta este nuevo lenguaje.
¿Qué está detrás de este nuevo lenguaje de interacción de Google?

Con este nuevo lenguaje se persigue la siguiente idea: lograr que las máquinas sean más perceptivas e intuitivas sobre nuestro deseo de querer o no interactuar con ellas. Y todo ello podrán lograrlo al saber interpretar nuestras señales no verbales. Como dice Lauren Bedal, diseñadora sénior de interacción de ATAP: “Los dispositivos que nos rodean deberían sentirse como un mejor amigo”.
Para lograr llevar a las máquinas a ese nivel de gracia social, ATAP ha estado estudiando nuestros movimientos. Con el fin de enseñarles a los dispositivos cómo detectar en qué momento deseamos interactuar con ellos. Así estos sabrán en qué momento deben estar en segundo plano y evitar bombardearnos con información.
El equipo de Google ha estado utilizando el sensor de radar Soli para detectar la proximidad, la dirección y los caminos de las personas. Luego ATAP reunió todos esos datos para determinar si alguien está mirando, pasando, acercándose o girando hacia el sensor.
Google después formalizó estos movimientos llamándolos Aproximación, Mirada, Giro y Pase. Y estos cuatro movimientos pueden utilizarse como comandos o reacciones que pueden realizarse ante pantallas o computadoras ambientales.
Todavía faltan muchos estudios para perfeccionar estos movimientos, y la mayoría de estos se basan en acciones que la compañía había implementado en otros productos. Los miembros de ATAP también han experimentado combinando algunas de estas acciones, tales como acercarse y mirar, pues esto les ayudará a acercarse más a un contexto real.
¿Qué es lo que Google debe hacer para que este lenguaje funcione?
Como toda gran idea, requiere de ajustes de detalles y seguimiento constante. Y, para que funcione perfectamente, los sensores y algoritmos de Google deben ser hábiles. Debido a que deben ser capaces de detectar cuándo alguien está realizando o no una acción específica. Si el nuevo lenguaje de interacción no es capaz de notar esas diferencias, en lugar de ser útil, solo se volverá frustrante.
El jefe de diseño de ATAP, Leonardo Giusti, dijo: “Ese es el mayor desafío que tenemos con estas señales”. También comentó que con dispositivos conectados es más fácil generar algoritmos complejos, cosa que es más difícil en un dispositivo móvil. Parte de los esfuerzos de ser precisos reside en lo siguiente: lograr recolectar la mayor cantidad de acciones correctas e incorrectas para entrenar a sistemas de aprendizaje automático.
El equipo reconoce que todavía falta mucho camino por recorrer y que deben seguir experimentando. De hecho, a la hora de pensar en este nuevo lenguaje de interacción, no cuesta imaginarlo encontrando su camino dentro de las muchas cosas que hace Google. Recordemos que la compañía siempre ha estado hablando sobre su deseo de un mundo de “informática ambiental” , donde imagina varios sensores y dispositivos integrados en las muchas superficies que nos rodean.
Pero para llegar a ese mundo todavía falta perfeccionar cómo hacer que las máquinas sepan cuándo es momento de ayudar y cuándo de mantenerse lejos. Ese es el desafío al que el equipo de ATAP deberá enfrentarse.