7.102 oyentes
The Information ha sido el medio que esta vez ha filtrado detalles muy interesantes y exactos sobre cómo será el próximo visor de AR/VR (realidad extendida) de Apple.
Pantallas, características, forma de carga, algunas funciones del sistema, parte de la información de cómo se desarrollará con ellas.
Os contamos todos y cada uno de estos detalles y los analizamos, para hacernos una mejor idea de cómo serán las próximas Apple Reality Pro.
Convierte en un Maestro del Desarrollo iOS con el Swift Mastery Program 2025. Encuentra toda la información pulsando aquí.
Suscríbete a nuestro canal de Youtube: Apple Coding en YouTube
Descubre nuestro canal de Twitch: Apple Coding en Twitch.
Descubre nuestras ofertas para oyentes:
---------------
Consigue las camisetas oficiales de Apple Coding con los logos de Swift y Apple Coding así como todo tipo de merchadising como tazas o fundas.
Transcripción
Hola y bienvenidos a un nuevo episodio de Apple Coding Daily. Y feliz 2023. Empezamos el primer Apple Coding Daily de 2023 hablando de una enorme filtración que ha habido sobre las futuras lentes, el futuro casco de realidad aumentada y virtual de Apple. El futuro, si queremos llamarlo así, que parece ser que podría llamarse así, Apple Reality Pro.
El casco que permitiría tener un nuevo entorno, un nuevo dispositivo, algo completamente nuevo, con un nuevo sistema operativo y que sería el comienzo de una nueva generación de dispositivos, donde este sería el primero de ellos y donde en los próximos años veríamos unos cuantos. Toda esta filtración viene del medio The Information, un medio que ya en el pasado había adelantado determinados detalles pero que esta vez ha dado detalles mucho más específicos
e interesantes sobre lo que se nos va a presentar. Así que vamos a contároslo y a analizarlo. ¿Estás buscando una forma de especializarte en desarrollo? Bueno, ahí fuera tienes muchas opciones, tanto gratuitas como de pago, que pueden cubrir multitud de herramientas, lenguajes, entornos, sistemas operativos, como una carrera universitaria de varios años, que da un poco de cada cosa, y ya si eso luego escoges lo que más te guste, te especializas
y lo intentas estudiar a más profundidad, pues bien, aquí no vas a conseguir eso. Aquí te hablamos de especialización, aquí te hablamos del profesional más valorado hoy día en el mercado laboral, aquel que conoce cada elemento y que es la tentación de cualquier empresa o el deseo de cualquier emprendedor que quiera tener su propio estudio de desarrollo.
Especializarte en desarrollo en entornos Apple. Tanto si ya llevas tiempo trabajando en este entorno, vienes de otro si quieres cambiar o empiezas desde cero, tu solución se llama Swift Full Stack Bootcamp. Desde Apple Coding Academy presentamos la tercera edición del único Bootcamp a nivel mundial, especializado en todo el ecosistema de desarrollo Apple.
No hablamos sólo de aprender Swift y a usar una librería, no, aquí aprenderás todo. Swift, UIKit, SwiftUI, bases de datos con CoreData, desarrollo conducido por pruebas, integración continua y distribución con Escode Cloud o con herramientas Open Source, aprenderás gestión de proyectos con desarrollo ágil, a usar Git, aprenderás seguridad y cifrado de datos para asegurar tus datos y la privacidad de las apps, todos los trucos, reglas y elementos esenciales del App Store para que sepas qué puede publicarse, qué no y cómo hacerlo, para conseguir
aprobaciones a la primera, pero además, algo que sólo encontrarás en Apple Coding Academy, desarrollo de lado servidor con Swift para crear tu propio backend, Machine Learning, desarrollo multimedia para móviles y lo más increíble, la nueva realidad de Apple, para entrar con la realidad aumentada y la virtual en el futuro del desarrollo, para que seas el primero en explorar esa realidad.
Swift Full Stop Bootcamp son más de 500 horas de formación, 394 horas online en directo y más de 100 en formato offline en módulos pregrabados que complementarán tu formación y toda tu carrera, del 1 de febrero al 5 de septiembre de 2023 con un proyecto tutelado final de Bootcamp y un contacto directo con nosotros para cualquier duda, problema o tutoría que necesites, para llevarte de la mano y asegurarte tu éxito. Entra ya en acoding.academy y pide información sin compromiso o escríbenos a hola arroba
acoding.academy. Date prisa porque quedan pocas plazas. Apple Coding Academy es la nueva realidad de la formación en entornos Apple. ¡Entra en ella! Paso a leeros una serie de notas que he ido tomando porque la verdad que es bastante información y las vamos a ir comentando.
La primera de ellas, lo primero que ha notado, es que el dispositivo va a estar fabricado en aluminio, cristal y fibra de carbono para ser más ligero y ser más compacto. Parece ser que Apple le ha dado mucha importancia al hecho que el dispositivo sea lo más ligero posible y que no sea algo que sea excesivamente pesado. Para ello, habría utilizado materiales de alta calidad basados en cristal, también aluminio y fibra de carbono.
La batería es algo bastante curioso porque el casco será simplemente el visor y tendremos como una especie de banda como una especie de gafas de esquí para hacernos un poco a la idea y de hecho es como los renders que hay publicados basados en los rumores nos muestran. Pues bien, estas bandas tendrían un protagonismo especial porque la lente en sí, el visor, tendría una batería de poca duración.
Mientras que la batería real, la que daría todo el peso al sistema, estaría colocada en la parte de atrás de manera magnética de forma parecida como sería con un MagSafe. De forma que en un diseño que parece ser que es un diseño que es de lo último que hizo Johnny Ive antes de dejar la compañía, antes de dejar Apple, pues tendríamos la forma de poder cambiar la batería en caliente.
Es decir, si yo estoy usando las gafas, estas gafas se rumorea que tendrían aproximadamente dos horas de funcionamiento. Si después de esas dos horas se van a terminar y tengo otra batería que me puede servir, yo puedo quitar la batería que estoy poniendo y poner una nueva en caliente y seguir trabajando para no perder la experiencia o que el dispositivo no se termine.
Sería algo muy parecido a lo que sucede ahora con las baterías MagSafe del iPhone que automáticamente en el momento que yo lo pongo se empieza a alimentar a partir de esa batería MagSafe y cuando ésta se agota empieza a coger la batería del iPhone. Si de nuevo conectamos la batería del MagSafe ya cargada, automáticamente volvemos a usar la batería MagSafe que está conectada en la funda correspondiente, pues el funcionamiento sería algo parecido.
En cuanto a tecnología, el visor tendría un chip M.2 que sería el chip principal que le daría funcionamiento. Chip M.2 fabricado en 5 nanómetros plus. Sabemos que no es la última de las últimas, ni siquiera la tenemos tres procesos de fabricación de 5 nanómetros. El de los A14, el de los A14 M1, el de los A15 y M2 y el de los A16 que es un proceso aún mejorado pero que sigue siendo de 5 nanómetros aunque Apple lo nombrará de 4.
Falso. Es simplemente a nivel de marketing. Es un proceso de construcción en 5 nanómetros mejorado en segundo nivel. Digo en segundo no, sería en tercer nivel al respecto. Pero lo más importante aquí es que las lentes llevarían un chip a parte especializado sólo para vídeo ya que tendríamos que tener en cuenta que estas lentes, este visor, tendría hasta 12 cámaras distintas de distinto tipo, gran angular y ultra
gran angular y por lo tanto Apple ha diseñado un chip específico cuya única tarea es recoger todas las señales de vídeo en tiempo real y servirlas con el menor, con la menor tasa de refresco, es decir, con la menor latencia posible para que se vea lo más parecido al tiempo real obviamente y además estos chips estarían pensados, este chip estaría pensado para procesar múltiples señales de vídeo a la vez, obviamente de cada una de las cámaras y además estaría también preparado
para corregir las posibles distorsiones que puedan tener los diferentes gran angulares, super gran angulares o cámaras colocadas en distintas visiones donde algunas de ellas serían capaces incluso de ver las piernas de la persona que lleva el casco, la persona que lleva el visor e incluso sus expresiones faciales las cuales irían replicadas en una pequeña pantallita que habría en la parte posterior para que la gente que nos está viendo con las gafas sepa qué es lo que
estamos haciendo dentro de las gafas. Esto es algo que no me ha quedado muy claro cómo va a estar implementado pero parece ser que efectivamente llevarán una pantalla externa que mostrará las expresiones faciales de la persona que está dentro para que la gente que esté fuera pueda ver las expresiones que hacemos.
Entiendo que esto podrá activarse o desactivarse, no sé muy bien cómo irá. En cuanto a lo que es el sonido, este nuevo visor estaría utilizando un chip H2, el mismo que tienen los nuevos AirPods Pro de segunda generación. Entonces estos AirPods Pro que ya tienen un chip H2 de ultra baja latencia, etcétera, etcétera. Este chip H2 permitiría que el visor pudiera estar conectado a unos AirPods.
Ojo, a unos AirPods, sólo a unos AirPods. El visor no utilizaría bluetooth para el audio y no permitiría conectar a ningún auricular bluetooth de terceros, sólo y exclusivamente funcionaría con AirPods. Lo cual muchos preguntaréis, entonces ¿qué hacemos si no tengo unos AirPods? No importa porque la banda normal que yo me pondré para colocarme el visor tendrá altavoces incorporados pero entonces todo el mundo oirá aquello que estamos oyendo nosotros igual que sucede ahora con unas Oculus Quest o cualquier otro tipo de
dispositivo. Por otro lado también hay que tener en cuenta que estas bandas, de acuerdo, que de las que estamos hablando para ponerse el visor, serán un elemento esencial y que también será intercambiable e incluso, ojo al dato, habrá unas bandas de conexión con conexión USB porque el visor no tendrá conexión ninguna a dispositivo y si somos desarrolladores tendremos que comprar, adquirir, parece ser que va a haber varios packs de venta, etcétera, tendremos que
tener unas bandas que tengan una banda que tenga una salida USB-C para conectar al Mac y que sólo será vendida a los desarrolladores que quieran comprarla en un pack o en una especie de kit de desarrollo porque, insisto, habrá varias configuraciones de batería o no batería extra, etcétera, etcétera.
En fin, esto lo iremos viendo obviamente cuando sepamos todos los datos oficiales. De igual manera también vamos a tener una pequeña corona digital, una pequeña corona digital en algún lado, para poder cambiar entre el modo de realidad aumentada y realidad virtual, de forma que sea de una forma, pues de una manera muy sencilla, para poder ver todo este tema. Cuando el usuario se pone las gafas, cuando se pone este visor, se reconoce quién es a partir de un escáner de retina y de un Face ID interno con las propias cámaras que tiene lo que es el
visor y el espacio interocular se ajustará sólo de manera mecánica a partir del perfil del usuario que habrá definido previamente en la primera configuración de uso para este usuario con su Apple ID. Las lentes, el visor, tendrá un FOV, un campo de visión, de 120 grados, que es algo superior al que tiene ahora mismo las Oculus Quest Pro, que son las que tienen el FOV más alto del mercado, con 106 grados.
Las de Apple llegarían a 120. Para que nos hagamos una idea, unas HoloLens o unas Magic Leap 2 tienen un FOV de 50 grados, o sea que imagínense la enorme diferencia. Y esto sería más o menos lo que tendríamos que comentar con respecto a cosas generales. Pero ahora vamos a ir más en detalle. Las pantallas que usará este nuevo visor de Apple serán unas pantallas, un visor, una pantalla 4K que repartirá su resolución para los dos ojos, repartirá la mitad para cada uno, obviamente, y serán de tipo micro LED.
Ojo a lo que estoy diciendo, no micro LED, que es la tecnología que se supone tiene que sustituir al mini LED, ¿de acuerdo? Por decirlo de una manera muy rápida, nosotros tenemos ahora mismo las pantallas OLED, que son las de LED orgánico, que son las que tenemos en los móviles, en televisores, etcétera, las pantallas que tienen el problema que se desgastan con el tiempo, que pueden tener retenciones, en fin, que son un poco menos óptimas, digamos de alguna manera, y sobre todo tienen el
problema del brillo, que no tienen un brillo demasiado alto. Es más complicado llegar a un brillo mucho más alto con pantallas de ese tipo, aunque se están consiguiendo hitos bastante importantes en los últimos años. Luego tenemos las mini LED, como las que tiene el iPad de 12,9 pulgadas, o los MacBook Pro de 14 y 16 pulgadas, que son pantallas de retroiluminación trasera por zonas, con más de 2.000 zonas independientes, donde tenemos pequeños LEDs, que en vez de iluminar
con LED de marco, como las pantallas convencionales, que se iluminan desde los marcos y por lo tanto es una luz homogénea para todo él, pues en este caso las mini LED serían más de 2.000 zonas de iluminación que se pueden apagar y encender y que dan un mayor contraste y una mayor calidad de negro.
Y el micro LED es el que tiene cada subpíxel de manera independiente. Son LEDs microscópicos que se pueden encender y apagar a voluntad. Es la forma ideal porque pueden conseguir el mayor brillo, etcétera, pero el problema que hay ahí es la miniaturización, conseguir que una pantalla micro LED sea lo más pequeña posible. Pues bien, el micro OLED, que no es lo mismo, es lo que van a tener las lentes de Apple.
¿Qué es el micro LED? El micro LED son micro pantallas OLED, hechas con OLED de silicio, que utilizan una oblea de silicio monocristalino como plano posterior de accionamiento activo. Es decir, que permiten conseguir una alta densidad de píxeles, un alto grado de integración, un tamaño muy reducido y que eso garantiza que puedan ser fáciles de transportar, que tengan una buena retención de cualquier tipo de posible movimiento y además consuman muy poca energía.
Es un nuevo tipo de LED orgánico basado en silicio y que permite crear pantallas muy pequeñitas de tipo OLED y que puedan tener una densidad de píxeles mucho mayor. Es como utilizar la tecnología del micro LED en el OLED, creando el micro OLED. Siguen siendo OLED, por lo tanto son orgánicas y por lo tanto se pueden agotar con el uso y por lo tanto no van a tener tanto brillo como una micro LED, pero permiten tener pantallas de muy alta densidad de píxeles, pantallas de muy alta resolución en tamaños muy pequeños, lo cual hace que para
unas lentes de este tipo sean ideales. Estas pantallas serían fabricadas por Sony. Es independiente a la pantalla que hemos dicho que habría por fuera de la gafa, por fuera del visor, que serviría para ver lo que está haciendo la persona que hay detrás, algún tipo de señal, etcétera, que sería una pantallita de pantalla OLED también, pero en este caso sería una pantalla de apoyo y que sería fabricada por LG.
Esos son los datos que nos da The Information. También tenemos que tener en cuenta que el dispositivo no tendrá mando ninguno, no como sucede con las Oculus Quest. El dispositivo se manejará completamente con las manos, de forma que detectará las manos, no solo gracias a las docenas de cámaras que va a tener entre internas y externas, sino además porque llevará dos sensores LiDAR, uno de corto alcance para las manos, otro de largo alcance para la integración de nuestro entorno, de una manera que permita la obfuscación completa de
elementos. Que si un elemento virtual tiene que pasar por detrás de un sofá o de un mueble o de una puerta o de una pared real, el dispositivo sepa que ahí hay un elemento real y por lo tanto, al dibujarlo, este no pase y no se vea. Imagínense que yo tengo una mano puesta aquí delante y lo que quiero es pasar un objeto que puede pasar por delante de mi mano o por detrás.
Si pasa por detrás, obviamente no puede verse, pero si esta mano que yo tengo aquí es virtual y esta mano es real, el sistema tiene que poder mapear la mano real para que la virtual se corte en el dibujo y por lo tanto no se vea encima de la mano virtual, que es como sucedería si no estuviera usando un sistema de obfuscación real.
Pues bien, el LiDAR de largo alcance permite la obfuscación real de elementos y personas. El LiDAR de corto alcance permite la detección de las manos para que las manos sean la forma de tocar e interactuar con el mundo virtual y aumentado, tanto para tocar cosas como para coger incluso cosas y hacer gestos dentro de estas nuevas realidades. Es importante entender que para que las lentes tengan el mejor rendimiento van a utilizar lo que se conoce como alfobated rendering, es decir, un proceso a través del cual lo que se consigue es que el punto de
visión, porque una de las cámaras que va a tener es la cámara que nos va a mirar la retina y el iris, de forma que va a saber a dónde estoy mirando. Cuando sepa dónde estoy mirando, el punto donde yo he fijado la visión, el punto donde yo estoy mirando fijamente, va a tener un renderizado de mayor detalle y el contorno irá teniendo un renderizado de menor calidad, de menor densidad de renderizado, la textura estará más difusa, tendrá menos calidad, porque nuestro
ojo ve así las cosas, las cosas sobre las que enfocamos se ven mucho más nítidas y a partir de un determinado círculo se va cerrando y vemos las cosas más desenfocadas, por lo que si no se realiza, si no se usa el poder de funcionamiento de una manera completa para toda la pantalla, sino sólo para los sitios donde estamos mirando de manera fija, se consigue que haya un mejor rendimiento y se le da un extra de realismo a lo que es este visor, porque, insisto, el ojo humano funciona así.
De igual manera, la pantalla micro OLED es una pantalla de refresco variable, al igual que sucede con la pantalla del iPhone, la pantalla del iPhone 13 Pro y 14 Pro. Sabemos que esta pantalla es capaz de, en el caso por ejemplo del iPhone 14 Pro, es capaz de variar su frecuencia entre 1 y 120 hercios.
Lo varía en tiempo real en función de sus necesidades de animación, ya que el propio sistema de Apple puede controlar la necesidad de refresco que necesita la pantalla en cuanto a las animaciones hechas con su librería Core Animation por defecto. Así que estas lentes serán exactamente iguales. Si nosotros estamos con la cabeza quieta, los hercios de la pantalla serán menores para consumir menos energía y para dar un mayor realismo y cuando movamos la cabeza de una manera más grande o tengamos un elemento que se mueva de una manera más intensa en su
desplazamiento, se aumentarán en tiempo real los hercios para conseguir tener una muy buena sensación de integración. Algo parecido, entre comillas, a lo que ha hecho James Cameron en Avatar 2 para evitar el efecto show-off ópera de la película, haciendo que las escenas que no son de acción tengan fotogramas repetidos y funcionen a 24, de forma que las escenas que no son de acción se vean como de cine normal y las escenas que son más de acción se vean con unos fotogramas más
altos. Lo que ha hecho James Cameron crea un poco de artificio extraño, no es perfecto, desde luego es mejor que el efecto show-off ópera de otras películas como Gemini Man, que desacaban totalmente de lo que era la propia película, pero aún así, digamos que esto está mucho mejor hecho, en este sentido, porque va variando los hercios en tiempo real.
El visor además contará con una app de videoconferencia que permitirá un avatar de cuerpo entero, incluyendo las piernas, hiperrealista y que sabrá quiénes somos y podrá transmitir en tiempo real todas nuestras expresiones, tanto faciales como corporales, porque el visor será capaz de vernos por completo. Y las partes que no pueda ver en tiempo completo, a través de un algoritmo de inteligencia artificial, se predecirán las expresiones o lo que vayamos a hacer y se recrearán de una forma muy parecida
a como lo hace Meta en las Oculus Quest Pro. En cuanto a lo que es desarrollo, parece ser que 1. Todas las apps actuales de iOS van a poder verse directamente en realidad aumentada y virtual como un panel colocado donde yo quiera en el momento que quiera. Es decir, yo podría abrir Instagram, podría abrir TikTok, podría abrir Twitter, podría abrir cualquier aplicación que ya exista en iOS, colocarla en un panel delante mío y ponerla donde yo quisiera.
De igual manera, cualquier tipo de aplicación de las que funcionen para iPad, para Mac, etc. Cualquier aplicación que sea para Mac, por ejemplo, se nos comenta un caso específico de la aplicación de mapas donde si yo busco algo en la aplicación de mapas en el Mac tendré un efecto colateral y es que me aparecerá, por ejemplo, ese mismo mapa en 3D cuando esté con las gafas viendo un monitor 2D.
Es decir, es como una especie de apoyo de visualización. No obstante, tenemos que tener en cuenta una cosa muy importante y es que este visor no está pensado para videojuegos y no traerá ningún tipo de mando. Como ya hemos comentado, Apple está trabajando en futuras versiones que puedan tener mandos de control de todo tipo, incluso varitas mágicas para poder tocar o lanzar cosas, integrar el Apple Pencil, varias cosas.
Pero en principio el visor no traerá ningún tipo de mando porque se controlará solo con las manos, por lo que el enfoque de las lentes no van a ser los videojuegos. De hecho, Apple ha llegado a un partnership con Unity para que las experiencias de realidad virtual se hagan directamente y se puedan crear directamente con un plugin para Unity de forma exclusiva.
No estaría integrado Unreal Engine, al menos en principio, no lo sabemos con seguridad, pero parece ser, según The Information, solamente estarían integrados con Unity. Cuando yo quisiera hacer una experiencia 100% en realidad virtual, utilizaría Unity. Para las experiencias de realidad aumentada, estaría por ver cómo se van a realizar, porque ahí se abrá un kit de desarrollo y ahí se habrá herramientas para poder construir experiencias de realidad aumentada que estarían basadas, parece ser, en, por un lado, interfaces 2D
creadas con SwiftUI que se podrían poner de manera directa y tendrían una serie de modificadores específicos para la realidad aumentada. Como ya hemos visto, cualquier aplicación 2D se puede poner directamente en lo que es la realidad aumentada virtual y también tendríamos la posibilidad de utilizar, por supuesto, la aplicación Reality Composer, una aplicación que existe tanto para iPad como para Mac, para crear experiencias de
realidad aumentada y que conseguiría una nueva versión que integraría una forma de crear experiencias de una manera en la que requeriría mínimos conocimientos de programación o prácticamente ninguno para poder crear escenas o experiencias de realidad aumentada integradas de una manera mucho mejor.
Una nueva versión que se lanzaría con la presentación de este dispositivo que no sabemos todavía cuándo sería, ya que los primeros rumores hablaban de enero, pero parece ser que después se habló de retrasos en el software y que podría venir para más adelante, pero desde luego parece claro que todo llegaría este año.
Por último, el precio. Parece ser que habría distintas configuraciones con distintos tipos de tener más batería, menos batería, distintos tipos de bandas, etcétera, y estarían rondando entre los 2.500 y los 3.000 dólares de precio, precio de venta al público. Teniendo en cuenta que las Oculus Quest valen 1.800, que las últimas que acaba de presentar o que se han filtrado de HTC están en los 1.400, etcétera, vemos que Apple como siempre está por encima del resto a nivel de precio, pero tampoco está
a una locura. Es decir, que bueno, sí, son bastante más caras que las que tiene Oculus, pero desde luego parece ser que la calidad de sus componentes, software, integración, etcétera, etcétera, las harán bastante mejores. Eso sí, Apple sabe que va a vender muy pocas de este tipo de dispositivo porque sabe que esto es un kit de desarrollo para que los desarrolladores y luego la gente más fanboy las compre y empiece a jugar con ellas, empiece a trabajar con ellas,
empiece a hacer cosas con ellas, porque obviamente si no existen estas gafas es muy complicado que se haga software para ellas, ya que Apple por sí sola no puede darle todo el contenido necesario para que esta nueva realidad de Apple llegue a buen puerto. Y poco más.
No sé qué les ha parecido esto. Sé que ha sido un programa tal vez un poquito más largo de lo habitual, pero creo que el tema era bastante interesante. Les hemos dado un montón de datos de todo lo que hemos recopilado de esta filtración y además he explicado determinadas cosas que consideramos fundamentales para entender en qué se va a basar, qué es lo que nos va a traer, cuáles son cada una de estas nuevas tecnologías y desde luego creo que Apple como dispositivo, independientemente de lo que pueda aportar como ecosistema, pero como dispositivo,
como suele ser habitual, Apple va a lo máximo, va al mayor, al más alto nivel posible. Por lo tanto habrá que darles un voto de confianza sobre que el dispositivo realmente sea algo bueno a pesar de que sí es muy caro. Lo sé, yo soy el primero que lo sabe, pero insisto, esto es un primer prototipo, prototipo que se va a poner en venta, como muchos otros prototipos que venden otras compañías y que poco a poco irá reduciendo el precio.
El objetivo final de Apple es que este tipo de visor pueda llegar a tener en un par de años un precio similar al que puede tener ahora mismo un iPhone de gama alta, 1.100, 1.200, 1.300 euros dólares de precio, ¿de acuerdo? Así que poco más, muchísimas gracias, si les ha gustado el programa por favor ya saben, déjenos un comentario tanto en YouTube como en la red de podcast donde nos escuchen y si nos ven en YouTube denos un like, etcétera, suscríbanse, etcétera, etcétera y nos oímos
pronto si Jobs quiere. Hasta entonces, feliz 2023, un saludo y God Apple Coding. podcast independientes en español