Los teléfonos móviles han pasado a cumplir un papel muy importante en nuestro día a día: para comunicarnos, jugar, hacer fotografías, oír música, ver vídeos, series o películas, gestionar nuestra productividad, nuestro trabajo, nuestra vida… La tecnología nos atrapa.
Pero los móviles han tocado techo y parece que el margen de mejora es cada vez más lento. Ahora entramos en una nueva década donde otras tecnologías darán paso a la reinvención de nuestra interacción con la tecnología. Y una de ellas, una de las principales, será la realidad aumentada.
Tecnología de Realidad Aumentada: evolución
A través del uso de varias tecnologías como la visión computarizada que permite interpretar la realidad y crear una “dimensión espejo” virtual, conseguimos la magia que une ambos mundos. Imaginen que miramos a través de una lente o dispositivo que usa realidad aumentada y vemos una mesa. El sistema detectará un plano horizontal y creará una geometría 3D sobre la misma que se adaptará en tiempo real y que moverá al moverse esa lente o dispositivo en el espacio real.
El truco tras la realidad aumentada es tan “simple” como modificar en tiempo real los elementos 3D generados para que parezcan integrados en nuestra realidad tangible.
De esta forma, creará una malla alrededor de la realidad, invisible, sobre la que colocar elementos 3D que sí veremos. Cuando nos movamos, el sistema sabrá cómo lo hacemos y modificará en tiempo real la posición y distancia de dicho jarrón virtual con respecto a nuestro visor. De esa forma, nos parecerá que el elemento forma parte de la realidad: que realmente hay una lámpara ahí cuando está generado en tiempo real y solo existe en el mundo virtual. Incluso la lámpara generará una luz que modificará la luz real del entorno vista desde el dispositivo.
En los últimos años, juegos como Pokemon Go, lanzado en 2016, pusieron de moda esta tecnología y la trajeron de nuevo a primera línea de actualidad. Y un año después, Apple nos sorprendió a todos cuando con iOS 11 lanzó la primera versión de ARKit, una nueva API creada desde 0 y que permitía trabajar e integrar entornos de realidad de una forma mucho más sencilla y simple que como había sido hasta ese momento.
¿Cómo funciona la Realidad Aumentada de Apple con ARKit?
ARKit, la librería de realidad aumentada de Apple, funciona de la siguiente forma: la cámara crea un flujo de vídeo en tiempo real que vemos en nuestro dispositivo. Dicho flujo, pasa antes de ser mostrado por un motor de visión computarizada que interpreta qué se ve en ese flujo de vídeo (el intérprete de escenas) y cada fotograma es enviado al motor 3D para que “pinte” cualquier cosa encima, basado en datos de posicionamiento del propio dispositivo. Una vez pintado, se muestra en nuestro dispositivo.
ARKit refresca la imagen 60 veces por segundo. Pintando en tiempo real cada elemento 3D en pantalla superpuesto a la imagen que captura a través de la cámara.
Cuando movemos el dispositivo, el giroscopio y los acelerómetros del mismo informan del desplazamiento que sufre y su rotación. Si lo rotamos sobre su propio eje nos dará un desplazamiento angular en el eje t, si nos movemos en vertical u horizontal, varían los ejes x e y, si nos movemos adelante o atrás se mueve el eje z.
La fusión de ambos mundos, virtual y real, depende de los puntos de función o feature points. Puntos que el sistema es capaz de posicionar en el mundo real desde el mundo virtual, a través de la citada interpretación de la escena y el uso de la visión computarizada.
Una nueva década tecnológica
El primer paso de Apple, es la realidad aumentada básica: la proyección de interfaces simples de usuario sobre la realidad convencional, con el objeto de tocarlas o interactuar con ellas. Eso serían las rumoreadas Apple Glass en su primera versión al público. Apple las presentará este año, y dará unos meses a los desarrolladores para preparar su software o crear nuevo para explotarlas antes de su lanzamiento al público.
Según los rumores, las Apple Glass no tendrían cámara y sí un sensor LiDAR. Lo que veríamos este próximo año 2021 serían las Apple Glass con interfaces delante de nuestros ojos, que nos permitirían cosas muy interesantes.
Con estas Apple Glass podríamos obtener información en todo momento sobre el lugar donde estamos, a dónde miramos a través del reconocimiento de objetos 3D, hablar en videollamada de forma directa, guiarnos por museos o centros comerciales, por la calle, mientras conducimos… en primera instancia sería un mundo de paneles 2D frente a nuestros ojos para interactuar con ellos o que nos muestren información enriquecida del mundo que nos rodea.
Cercanos a la segunda mitad de la década (2024 en adelante) llegarían las lentes de realidad mixta. Lentes o cascos algo más voluminosos que podrían mezclar realidad con objetos 3D y donde podríamos tener mundos completos delante de nuestros ojos con los que poder interactuar. Algo similar a unas Magic Leap One o una Hololens 2.
¡Esta nueva década sí que promete!