No products in the cart.

Apple ya tenía planeado este producto desde hace años

visor vr apple

La retórica de Apple respecto a sus avances tecnológicos es, como poco, especial y diferenciada. Y en lo que respecta a sus gafas de realidad mixtas, que se espera se presenten en la WWDC, ha estado dándonos pistas sobre sus intenciones desde el año 2017. Todo ello, por supuesto, sin mencionar nada en absoluto de un producto de creación propia. Así que en este post vamos a ver la evolución de cómo la compañía ha ido introduciendo tecnologías para construir los cimientos de este nuevo producto.

Una síntesis que puede tener todo el sentido del mundo

Aunque no es un resumen oficial por parte de la compañía, si que es una mirada en retrospectiva que han llevado a cabo desde ella medio 9to5Mac. Desde la implementación de ARKit, hasta los Animojis, pasando por los sensores LiDAR de los iPad, e incluso, diferentes aplicaciones que ya empezaban a abrazar la realidad aumentada. Y es que este viaje de pistas empieza en 2017, cuando la empresa ya empezó a implementar las primeras versiones de ARKit.

Aunque es importante remarcar que una cosa es la tecnología, y otra es el producto en sí. Pues todo lo que fueron presentando sobre este tema, iba enfocado «en un principio sólo al iPhone y al iPad». Pequeños cambios sutiles, a priori, como la detección facial para desbloqueo de FaceID, la incorporación de un sensor LiDAR en las cámaras del iPhone, o disponer de una herramienta de mapeado de caras, para jugar con la tecnología creando emoticonos animados.

Animoji

La implementación de ARKit, para empezar, supuso la apertura de un nuevo modo de crear y trabajar. La posibilidad de juntar la realidad tangible, con los contenidos de la pantalla brindó la oportunidad de poder crear nuevos tipos de aplicaciones, no sólo para llevar a cabo tareas profesionales. Sino también, para juegos que han hecho uso de estas tecnologías que, hasta el momento, no eran concebibles.

sensor lidar iphone

La incorporación de nuevos sensores en nos iPhone y iPad también supusieron una nueva manera de interactuar con los dispositivos. Pero lo que en un principio parecía un cambio aditivo, ha sido una elemento para cambiar el ecosistema de productos y de la propia concepción de estos. Sensores LiDAR en las cámaras del iPad y del iPhone, para reconocimiento de espacios, profundidades y medidas. Que el propio dispositivo sabe qué el loo que tienen delante, y cómo puede calcular la posición de los elementos que les rodean.

O el soporte del procesador Neural Engine, para poder procesar de forma mucho más rápida y eficiente todo lo que tiene que ver con esa realidad mixta. Pequeñas piezas de un puzzle, que al final habrán servido para mejorar lo que ya tenían. Pero también, para crear algo nuevo a partir de las mejoras que han podido llevar a cabo durante todos estos años.

Y lo más curioso de todo, es que todo nos lo han ido enseñando. La tecnología en sí misma se nos ha sido mostrada. No obstante, ante la inminente WWDC, y unas esperadísimas gafas de realidad mixta, quizás esto indica que se han guardado muchos ases bajo la manga, y no han dado a conocer la verdadera «trastienda».

La entrada Apple ya tenía planeado este producto desde hace años se publicó primero en La Manzana Mordida.

Top
Support
Buy on Amazon