(A Todo Momento – CNET En Español) – Después de sentarme en el Teatro Steve Jobs para el evento de Apple del 12 de septiembre y conocer al iPHone X y su nueva tecnología, me quedé pensando en ese conjunto de cámaras al frente. Se llama TrueDepth y consiste de un paquete de sensores que pueden detectar caras o músculos en movimiento; puede ver objetos 3D y permitir una realidad aumentada más avanzada.
Y yo puedo ver que todo eso va mucho más allá de un simple teléfono.
Una pantalla más grande es genial y un mejor diseño es más que bienvenido; pero si hay algo que realmente hace que el iPhone X se destaque del montón es esa tecnología TrueDepth. Y es que se trata del primer intento serio de Apple de hacer un tipo de cámara mucho más avanzada; algo así como lo que hemos visto con la tecnología Tango de Google, RealSense de Intel o Microsoft Kinect.
Puedo ver que esta tecnología se utilizará en un montón de formas distintas, desde para la realidad mixta como para los auriculares de realidad virtual o los tableros de los coches inteligentes.
Equipos para la realidad mixta necesitarán cámaras como éstas. Pienso en las HoloLens, un equipo de realidad mixta con un conjunto especial de cámaras y sensores para rastrear y reconocer el entorno lo suficientemente bien como para ubicar objetos virtuales de manera realista. O bien otros auriculares emergentes y experimentales como el Meta y Avegant. La mezcla de objetos virtuales y reales en el espacio cotidiano, de forma realista, como Magic Leap prometió pero aún no ha entregado.
¿Podrían los sensores más avanzados como TrueDepth empezar a allanar el camino para aplicaciones de gama alta? Es difícil conocer la gama de TrueDepth, pero es un comienzo. O, tal vez TrueDepth podría usarse en el interior de futuros auriculares y usar la monitorización de rostro para controlar la entrada y el movimiento de los ojos.
Biometría en todas partes. Face ID es una tecnología básicamente de manos libres. Tal vez eso dejará espacio para utilizarla para abrir o cerrar puertas o controlar el tablero de nuestros coches. Tal vez incluso un día nos sirva para controlar nuestro Apple Watch. Me parece que es una tecnología que puede ser flexible para usarse en un montón de sitios. Tal vez nos dirigimos a un futuro del tipo Minority Report donde tendremos que escanear nuestras caras para todo.
Robots, drones, vehículos y dispositivos de localización. TrueDepth está destinado a fotos, Face ID y truquillos de AR ahora mismo. Pero, ¿qué ocurre si se emplea para ayudar a los robots a navegar o permitir que un vehículo vea mejor un garaje de estacionamiento?; Las cámaras y las tecnologías SLAM (localización simultánea y mapeo) son las que permiten a robots como Kuri encontrar su camino o ayudar a una unidad de vehículo autónomo. TrueDepth podría ser de corto alcance, tal vez, pero qué pasaría si los sensores del futuro pueden escanear intervalos más largos y ayudar evitando obstáculos?
(Vía CNET En Español)