TekCrispyTekCrispy
  • Ciencia
    • Historia
    • Perfiles
  • Tecnología
    • Software
    • Móviles
    • Herramientas Web
    • Redes Sociales
  • Cultura Digital
    • Cine y TV
    • Videojuegos
  • Análisis
Selección del Editor

Perros de caza en pinturas rupestres del VII a.C. ¿La evidencia más antigua de domesticación?

May 24, 2022

AI Responsibility Lab tiene un plan para que la IA se use de forma ética en el futuro

May 24, 2022

Matices de la violencia doméstica: ¿Qué se considera maltrato y qué no?

May 24, 2022

Google Lens llega a Chrome: podrás buscar usando imágenes de páginas web

May 24, 2022
Facebook Twitter Instagram TikTok Telegrama
TekCrispyTekCrispy
  • Ciencia

    Perros de caza en pinturas rupestres del VII a.C. ¿La evidencia más antigua de domesticación?

    May 24, 2022

    Matices de la violencia doméstica: ¿Qué se considera maltrato y qué no?

    May 24, 2022

    ¿Las madres de gemelos son más fértiles que el resto?

    May 24, 2022

    ¿Las escuelas deberían hacer más por la salud mental de sus estudiantes?

    May 24, 2022

    ¿Por qué los bebés no deberían tomar leche de vaca en su primer año de vida?

    May 24, 2022
  • Tecnología

    AI Responsibility Lab tiene un plan para que la IA se use de forma ética en el futuro

    May 24, 2022

    Google Lens llega a Chrome: podrás buscar usando imágenes de páginas web

    May 24, 2022

    ¿Cómo poner controles parentales en el smartphone de tu hijo?

    May 24, 2022

    Cuello tecnológico: ¿qué le están haciendo los smartphones a nuestro cuerpo?

    May 24, 2022

    Las historias de “amigos cercanos” de Instagram no son tan privadas como crees

    May 24, 2022
  • Cultura Digital

    “The Mandalorian” y “Avatar 2”: la tecnología en el cine que solo busca conmovernos

    May 15, 2022

    ¿Cómo ganar vistas en YouTube en 2022?

    May 6, 2022

    Netflix implementa un impuesto de culpabilidad para quienes comparten contraseñas

    Mar 17, 2022

    Declarando, la gestoría 100% online que está revolucionando el sector

    Mar 11, 2022

    Científicos cuentan cómo los juegos de carreras desarrollan a los niños

    Mar 1, 2022
Facebook Twitter Instagram TikTok
TekCrispyTekCrispy
Nuevas Tecnologías

Google está trabajando en un nuevo lenguaje de interacción

Por Joxarelis MendozaMar 1, 20224 minutos de lectura
Google
Compartir
Facebook Twitter Email Telegrama WhatsApp

Google ha estado trabajando durante años en un “nuevo lenguaje de interacción”. Y, hace poco, finalmente ha mostrado los avances que ha hecho con este proyecto. Parte de la investigación podrá verse en una serie de videos que Google estará publicando bajo el nombre de “En el laboratorio con Google ATAP.”  ATAP  es un acrónimo que significa Tecnología y Proyectos Avanzados. Además, es la división más experimental , la compañía incluso la denomina como su “estudio de invención de hardware”. Ya el primer episodio se encuentra disponible y muestra los movimientos que detecta este nuevo lenguaje. 

¿Qué está detrás de este nuevo lenguaje de interacción de Google?

Nuevo lenguaje de interacción de Google
Nuevo lenguaje de interacción. Vía: Google

Con este nuevo lenguaje se persigue la siguiente idea: lograr que las máquinas sean más perceptivas e intuitivas sobre nuestro deseo de querer o no interactuar con ellas. Y todo ello podrán lograrlo al saber interpretar nuestras señales no verbales. Como dice Lauren Bedal, diseñadora sénior de interacción de ATAP: “Los dispositivos que nos rodean deberían sentirse como un mejor amigo”. 

Para lograr llevar a las máquinas a ese nivel de gracia social, ATAP ha estado estudiando nuestros movimientos. Con el fin de enseñarles a los dispositivos cómo detectar en qué momento deseamos interactuar con ellos. Así estos sabrán en qué momento deben estar en segundo plano y evitar bombardearnos con información.  

El equipo de Google ha estado utilizando el sensor de radar Soli para detectar la proximidad, la dirección y los caminos de las personas. Luego ATAP reunió todos esos datos para determinar si alguien está mirando, pasando, acercándose o girando hacia el sensor. 

Google después formalizó estos movimientos llamándolos Aproximación, Mirada, Giro y Pase. Y estos cuatro movimientos pueden utilizarse como comandos o reacciones que pueden realizarse ante pantallas o computadoras ambientales. 

Todavía faltan muchos estudios para perfeccionar estos movimientos, y la mayoría de estos se basan en acciones que la compañía había implementado en otros productos. Los miembros de ATAP también han experimentado combinando algunas de estas acciones, tales como acercarse y mirar, pues esto les ayudará a acercarse más a un contexto real. 

¿Qué es lo que Google debe hacer para que este lenguaje funcione? 

En el laboratorio con Google ATAP

Como toda gran idea, requiere de ajustes de detalles y seguimiento constante. Y, para que funcione perfectamente, los sensores y algoritmos de Google deben ser hábiles. Debido a que deben ser capaces de detectar cuándo alguien está realizando o no una acción específica. Si el nuevo lenguaje de interacción no es capaz de notar esas diferencias, en lugar de ser útil, solo se volverá frustrante. 

El jefe de diseño de ATAP, Leonardo Giusti, dijo: “Ese es el mayor desafío que tenemos con estas señales”. También comentó que con dispositivos conectados es más fácil generar algoritmos complejos, cosa que es más difícil en un dispositivo móvil. Parte de los esfuerzos de ser precisos reside en lo siguiente: lograr recolectar la mayor cantidad de acciones correctas e incorrectas para entrenar a sistemas de aprendizaje automático. 

El equipo reconoce que todavía falta mucho camino por recorrer y que deben seguir experimentando. De hecho, a la hora de pensar en este nuevo lenguaje de interacción, no cuesta imaginarlo encontrando su camino dentro de las muchas cosas que hace Google. Recordemos que la compañía siempre ha estado hablando sobre su deseo de un mundo de “informática ambiental” , donde imagina varios sensores y dispositivos integrados en las muchas superficies que nos rodean. 

Pero para llegar a ese mundo todavía falta perfeccionar cómo hacer que las máquinas sepan cuándo es momento de ayudar y cuándo de mantenerse lejos. Ese es el desafío al que el equipo de ATAP deberá enfrentarse. 

Google Google ATAP informática ambiental Lenguaje de interacción sensor de radar soli

Artículos Relacionados

Android 13 tendrá soporte nativo para pantallas braille

El lenguaje para googlear importa cuando buscas información de personajes controvertidos

Google está rehaciendo sus servicios de búsquedas y mapas para acercarse a la generación TikTok

Añadir un comentario

Dejar una respuesta Cancelar respuesta

Selección del Editor

¿La búsqueda de evidencia de vida en Marte no debe detenerse?

May 23, 2022

Incrustaciones de piedras preciosas en los dientes de los mayas revelan algo más que ostentación

May 23, 2022

¿Qué es el carbono azul y por qué debería tener una hoja de ruta?

May 20, 2022

Insomnio en la mediana edad podría acarrear problemas cognitivos en la vejez

May 20, 2022
Síguenos en las redes
  • Facebook
  • Twitter
  • Instagram
  • TikTok
Facebook Twitter Instagram LinkedIn TikTok
  • Publicidad
  • Contacto
  • Política de Privacidad
  • Acerca de TekCrispy
© 2022 CRISPYMEDIA LLC. DERECHOS RESERVADOS.

Escriba arriba y pulse Enter para buscar. Pulse Esc para cancelar.