Digital Trends

Cuando los usuarios de FaceTime de Apple observan la pantalla para ver al usuario con el que hablan, muchas veces notan que no hacen contacto visual y, en vez de ello, miran hacia abajo, cuando la cámara en realidad se ubica por encima de la pantalla. La última versión beta de iOS 13 brinda un cambio radical a este pequeño inconveniente, de la mano de FaceTime Attention Correction.

Básicamente, esta característica ajusta la imagen en tiempo real para hacer que los ojos del usuario luzcan como si estuviese viendo a la cámara en vez de la pantalla. Una gran cantidad de usuarios ha comenzado a compartir cómo funciona la nueva herramienta a través de sus cuentas de Twitter.

Ideal para entrevistas

FaceTime Attention Correction es una función ideal para las personas que constantemente realizan entrevistas a través de FaceTime. Constantemente, estas conversaciones en línea no son del todo agradables cuando las personas ven a la pantalla en vez de la cámara. Por ello, la pequeña configuración podría mejorar sustancialmente la experiencia de la videollamada.

Filtran imágenes del modo oscuro del iOS 13 a días de su presentación

Para lograr este efecto, la función utiliza ARKit, una plataforma que permite a los desarrolladores crear experiencias de realidad aumentada “más dinámicas” dentro de las apps, aprovechando la potencia de hardware de los dispositivos de Apple.

Teniendo en cuenta los comentarios de los usuarios de Reddit, la función únicamente parece estar disponible para los usuarios del iPhone X, iPhone Max X y el iPhone XR. Debido a que está habilitada para estos dispositivos, no queda claro si la función está restringida a modelos de iPhone con una cámara TrueDepth o funcionará con todos los dispositivos basados en iOS. De momento, Apple no ha emitido un comunicado oficial sobre la característica, pero esperamos que todos los usuarios que utilizan FaceTime puedan disfrutarla en algún momento.

Más en TekCrispy