9.267 oyentes
La Guerra de los Nuevos Mundos. Apple y Meta, dos de las más grandes compañías tecnológicas, apuestan todo por un futuro donde la tecnología tenga una forma más directa y personal de ser manejada. Una forma de no mirar a la tecnología a través de una pantalla sino tener la sensación que entramos dentro de esa tecnología y que forma parte de nuestro entorno.
Nuevos dispositivos como Meta Quest 3 y el recién presentado Apple Vision Pro pretenden ser el nuevo gran paso que defina la tecnología para la próxima década: ¿lo conseguirán?
Hoy hablamos con Eduardo Herranz, co-fundador y COO de Virtual Voyagers, una de las empresas de mayor experiencia y trayectoria en el mundo del VR y AR.
Convierte en un Maestro del Desarrollo iOS con el Swift Mastery Program 2025. Encuentra toda la información pulsando aquí.
Suscríbete a nuestro canal de Youtube: Apple Coding en YouTube
Descubre nuestro canal de Twitch: Apple Coding en Twitch.
Descubre nuestras ofertas para oyentes:
---------------
Consigue las camisetas oficiales de Apple Coding con los logos de Swift y Apple Coding así como todo tipo de merchadising como tazas o fundas.
---------------
Tema musical: "Final Frontier", compuesto por Thomas Bergensen. Usado con permisos de fair use. Escúchalo en Apple Music o Spotify.
Transcripción
Wanda, la comunidad de podcast independientes en español. La guerra de los nuevos mundos. Apple y
Meta, dos de las más grandes compañías tecnológicas, apuestan todo por un futuro donde la tecnología tenga una forma más directa y personal de ser manejada, una forma de no mirar a la tecnología a través de una pantalla, sino tener la sensación que entramos dentro de esa tecnología y que forma parte de nuestro entorno. Nuevos dispositivos como Meta Quest tres y el recién presentado AppleVision Pro pretenden el nuevo gran paso que defina la tecnología para la próxima década, ¿lo conseguirán? Hoy hablamos con Eduardo Herranz, cofundador y CEO de Virtual Voyager, una de las empresas de mayor experiencia y trayectoria en el mundo del VR y AR, ahora en el podcast de Apple Coding, temporada diez, episodio número tres. Comenzamos.
Estás escuchando Apple Coding,
Muy buenas y bienvenidos a un nuevo episodio de Apple Coding. Soy Julio César Fernández, Evangelista de desarrollo en entornos Apple, ya me conocerán, espero, si no, pues, ya saben quién soy. Evangelista, básicamente, pues, que lo que hace es intentar promulgar la palabra de Jobs desde el punto de vista del desarrollo, de que entendamos cómo funcionan las cosas por dentro. Y sabemos que el pasado verano tuvimos un momento bastante importante en el mundo Apple, el momento de la presentación de el dispositivo Apple Vision Pro, el primer ordenador de computación espacial. Un dispositivo que, curiosamente, y esto es algo que yo ya sospechaba por los rumores y por lo se había ido vaticinando, y luego, pues, lógicamente, cuando he metido mano sobre el kit de desarrollo he podido comprobarlo, es un ordenador, no es un dispositivo móvil, es decir, no podemos pensar que Apple Vision Pro sea un dispositivo móvil como lo es un iPhone o como lo es un iPad.
Apple Vision Pro es un ordenador que además tiene el chip M dos, aunque ya sabemos que el hecho de que tenga el chip M dos no significa necesariamente sea un ordenador, sabemos que también lo llevan algunos iPads, pero después de trabajar con la SDK he podido confirmar este hecho, que el Apple Vision Pro es un ordenador, porque lo que tiene es una versión adaptada a realidad aumentada con una pequeña capa de realidad virtual para lo que es Mac OS. La prueba principal de ello es que ni iPad ni iPhone son capaces de split screen y puedo poner dividido y pongo una parte de pages, y en la otra puedo poner otro pages, pero eso no es una aplicación multi ventana, es una aplicación que tiene dos instancias, es una multi app. Pero, en realidad, una aplicación que tiene dos ventanas sería, por ejemplo, pues cuando yo tengo Logic, y Logic tiene la ventana principal y luego ventanas con sus plugins, o cuando yo tengo keynote y pongo la presentación, y tengo otra ventana donde está la preview que me permite ir pasando la presentación y ver cuál es el siguiente paso en cada diapositiva. Por lo tanto, insisto, este dispositivo permite multiventanas dentro del desarrollo de entornos Apple y por lo tanto es un cambio, insisto, es un ordenador de computación espacial.
Y para poder hablar de este ordenador y para poder hablar de toda la, vamos a llamar, historia de la realidad virtual y aumentada, ponernos un poco al día, ver cómo ha ido evolucionando esta tecnología, cómo está en este momento y cómo puede evolucionar, lo que hicimos el pasado día veintiocho de octubre fue hacer un directo muy especial en nuestro canal de Twitch, en twitch punto TV barra Apple Coding, donde estamos todos los sábados a las siete de la tarde, hora de España, donde estuvimos con Eduardo Herranz. Eduardo Herranz es una de las personas que más ha trabajado y mejor conoce todo lo que tiene que ver con la realidad virtual y aumentada. Ha trabajado con prácticamente todos los dispositivos que han salido al mercado, como MagicLeap, como HollowLens, como las Metawest Pro, etcétera. Ha probado un montón de prototipos de todo tipo de marcas, en fin, es una persona que está muy versada y que ha hecho proyectos profesionales con grandes compañías como Vodafone, por ejemplo, entre muchas otras, y por lo tanto es una persona que tiene un conocimiento y una experiencia bastante importante. Además, al igual que yo, también es formador, es cofundador y COO de la empresa Virtual Voyagers, que es la empresa con la que nosotros nos hemos asociado, una empresa que tiene un montón de experiencia, donde han estado trabajando, él mismo pues ha estado trabajando como profesor asociado en ESIC, ha estado trabajando también en UTAF, ha estado haciendo, es profesor asociado investigador de la UC3M desde hace cinco años en las áreas de ingeniería del software y gamificación, o sea, que es una persona que tiene un montón de experiencia y que lleva más de trece años involucrado en proyectos de tecnología.
Está, bueno, pues con esta conversación lo que queríamos era poner en claro cuál es la situación actual de este mercado, cuál es la situación actual de estas tecnologías, si realmente pueden o no ser tecnologías de futuro, porque ya saben que yo pienso positivamente al respecto, pero bueno, ver también el punto de vista de una persona que, de pronto, ve una aproximación que, como él nos contará en este directo, el cual vamos a oír después de este primer corte, pues además es un directo que está retocado a través de inteligencia artificial para que los audios estén un poco mejor igualados, para que se nos oiga a los dos de igual manera, ya saben que los audios de los directos no pueden ser tan bonitos ni tan bien producidos como en un podcast, pero hemos conseguido que el audio se escuche bien, bastante bien, para que se pueda entender sin ningún problema, aparte de eliminar todos los sonidos que pueda haber de fondo del propio directo. Entonces, aquí en este directo, este directo que llamamos en su momento y que este programa se llamará igual, la guerra de los nuevos mundos, básicamente, lo que hacemos es hablar sobre, pues, esta este cambio de paradigma, porque para él es un cambio de paradigma muy importante el enfoque que ha dado Apple, haciendo un dispositivo que se enfoca principalmente en realidad aumentada y principalmente en productividad, cuando él lo normal que está acostumbrado a ver son dispositivos más enfocados en realidad virtual e incluso aquellos que están enfocados en realidad aumentada, salvo las Hollowlence, tampoco han estado tan enfocadas en la productividad, pero aquí Apple tiene un camino muy claro.
Así que, bueno, sin más dilación vamos a pasar a poneros el audio de este directo, que creo que fue muy interesante, que fue seguido por cientos de personas ese día, y que creo que puede ser algo que os aporte un nuevo punto de vista, una nueva experiencia, un nuevo conocimiento con respecto a este gran cambio que está por llegar, que es el que supone el Apple Vision Pro. Así que, sin más, pasamos a oír este directo. Seguro que estás de acuerdo conmigo que el tiempo es lo más valioso que tenemos, ya que una vez que pasa no vuelve. Los últimos estudios dicen que los developers, los desarrolladores, invierten entre sesenta y noventa minutos diarios en buscar soluciones para sus proyectos en vez de estar programando. Abrir Stop Overflow, teclear preguntas en chat GPT o buscar innumerables tutoriales y cursos online hasta volverte loco.
Da igual si es Swift, UI Kit, Swift UI, y entonces te preguntas, ¿estoy tomando las decisiones correctas? ¿Estoy utilizando las herramientas adecuadas? La información es fragmentada, las opiniones diversas, no sabes a quién creer y no hay una guía coherente que seguir. Como nos decía hace poco un alumno, pierdo veinte horas a la semana en búsqueda de soluciones. Hagamos unos números rápidos, veinte horas perdidas a la semana implica perder novecientas sesenta al año.
Si hablamos de un coste de un desarrollador de cuarenta euros la hora, que tampoco es demasiado para un senior, Esto implica perder treinta y ocho mil cuatrocientos euros. Sí, has oído bien, treinta y ocho mil cuatrocientos, ¿y sabes qué? Que eso realmente no es lo importante. Lo que realmente importa es que esas horas perdidas eran para sí mismo, para su familia, para sus sueños, para sus proyectos personales. Esta puede ser tu historia o tal vez no, pero esta historia nos enseña que debes reclamar tu tiempo si lo valoras, consolidar tu confianza si la necesitas y pulir tu talento si buscas tranquilidad.
No será un camino fácil ni rápido, pero será transformador para ser dueño de tu tiempo y no al revés. En Apple Codyne Academy no somos héroes ni queremos serlo, solo hemos conseguido dibujar el mapa punto por punto que ni siquiera Apple ha podido terminar. Hay dos formas de hacer apps, como las hace la mayoría o como dice Apple, y esta última es la que nosotros te enseñamos. Steve Jobs dijo una vez, la única manera de hacer un trabajo genial es amar lo que haces. Si quieres amar, si quieres saber, academy Visítanos en acoding punto Academy barra bootcamp y comienza el cambio.
Apple Coding Academy. ¿Qué tal, Eduardo? Bienvenido.
Buenas, ¿qué tal, Julio? Pues nada, aquí un placer estar aquí, la verdad es que mira que hacemos cosas, y esta video te puedo asegurar de las que más ganas tenía de hacer. Llevamos, mira que llevamos tiempo esperando el lanzamiento, bueno, en este caso todavía la presentación del del producto de Apple, cerca de siete, ocho años diciendo joder, verás cuando Apple se introduzca en el ecosistema, y ha llegado el momento. Llegó en junio y ahora ya, pues ya sabes, estamos aquí un poco estudiando qué es lo que va a venir a nivel de SDK, intentando un poco conocer fíjate de SWIFT, de tu mano qué es lo que se va a poder hacer, y y esos estamos. Aquí para comentar un poco lo que consideramos que que va a pasar y que puede pasar.
Pues sí, la verdad que, a ver, yo al final
lo que lo que
veo es un poco, y ya por ir empezando a entrar en materia, lo que veo un poco es que hay mucho desconocimiento de todo esto, ¿no? Al final no todo el mundo ha probado unas gafas de realidad virtual porque, bueno, pues, a ver, como producto, que podría estar al alcance de cualquiera, porque, entre comillas, tiene precio de de móvil de gama media, ¿no? Más o menos por unos, tres, de hecho, la las Metawest dos han llegado a estar por trescientos y pico euros, una cosa así, el modelo de de sesenta y cuatro euros y me salió el de ciento veintiocho, etcétera. Pero bueno, pues la verdad que se podía se podían utilizar, ¿vale? Y ya podías, había puestos de demos en MediaMark, ¿no?
En montado un puesto de demo para que la gente se las pruebe, etcétera, pero aún así hay mucha gente que aún no se ha hecho muy bien a la idea, no las ha probado. Yo sigo intentando evangelizar, le he enseñado las Meta Quest dos a un montón de gente que al probarlas ha alucinado, ha visto cómo es todo esto, pero claro, tenemos una historia, ¿no? A ese respecto, que viene de un, en fin, yo recuerdo, ¿vale? Y de hecho lo comentaba con nuestro amigo Alberto Carlier, que está por aquí también, ¿qué tal Alberto? Un placer verte.
Pues, lo comentaba que tanto él como yo habíamos probado la realidad virtual en los años noventa, con esos equipos enormes que te subías encima como en la peli de acoso, que tenía que solo veías vectores en de colores neutros porque aquello no tiraba para más, yo recuerdo además que estaba conectado a un cuatro ocho seis d x cien d x cuatro cien, el virtuality, efectivamente, como dice Alberto, que aquello fue como un decir, pero dios mío, qué qué locura es esta, o sea, qué qué qué se han inventado aquí, ¿no? Y tenías esa sensación con una resolución paupérrima, con una calidad espantosa, pero el germen estaba ahí, ¿no? Pero llega un momento después de los noventa en el que aquellos como que de pronto se apaga, ¿no? Es como que pasa la moda, entre comillas, y de pronto aparece un señor un señor que le gusta hacer videojuegos para toda la familia, de matar demonios, etcétera, etcétera, ¿vale? Un conocido de la casa llamado John Karmak, y de pronto dice, no, no, esto de la realidad virtual es algo que tiene que venir, y entonces es cuando yo creo, corregime si me equivoco, que es cuando esto vuelve a la palestra, cuando se crea Oculus.
¿No? ¿Tú cómo lo vistes eso?
Sí, a ver, el creador realmente de de Oculus es Palmerlaki, que ahí no hay ningún mérito, lo que pasa que logró ganarse la confianza de Joe Karma, ¿vale? En su momento. John Kahnard tiene una cita que me encanta, John Kahnmark sabéis que luego fue el CTO de Opulus, luego entró también en beta y ahora se ha dedicado a la interés a la inteligencia artificial, ¿vale? John Kahnmark tiene una cita que me encanta, que dice que la realidad virtual es menos impresionante cuando la ves en pantalla, que cuando te metes dentro y la pruebas, como decías tú, yo le he enseñado las meta quest dos a la gente, la gente flipa, si le pones un buen contenido yo creo que es prácticamente imposible que la gente no flipe. Y sin embargo con la realidad aumentada, la anterior, no la realidad mixta de la que hago sola creo que hoy a día de, bueno, el tema de Apple, es más impresionante en pantalla que cuando te pones unas gafas y las ves, pensando, repito, en la realidad ha aumentado un poco de las Magic Click, que por cierto el otro día tú las las probaste de Unreal y de otros dispositivos.
Entonces al final lo que hizo Palmerlaki es juntar cuatro cosas, utilizar las pantallas de los de los móviles en su momento, la tecnología un poco de los acelerómetros, de los giroscopios, meterlo todo en un dispositivo y de ahí generó su primer su primer kick starter, quien levantó bastante dinero. Creo que hizo una tirada inicial de las DK uno de veinticinco mil. Fueron muy pocos, entre ellos mi compañero Edgar, el que en el dos mil trece ya consiguió las primeras DK uno, que no tenía ni tracking posicional, es decir, tú no te podías mover y el entorno respondía un poco a a tu movimiento, simplemente era una cosa como muy anclada, una cosa muy básica. Como muy anclada, una cosa muy básica. Hicieron una experiencia que es mítica del mundo de la realidad virtual que se llama Tuscani, que es un sitio de Italia donde tú te podías mover por por una finca, un poco con el con el joystick, con el mando.
A mucha gente le mareaba, creo que estaría muy bien hoy hablar acerca del mareo, porque también la realidad virtual tiene un estigma con el tema del mareo. En parte ganado a pulso, que es una cosa que creo que es cierto que aunque se ganó en su momento a pulso, hay que irlo eliminando desistamizando, Entonces, ha evolucionado poco a poco, a partir de ahí ya salió el tracking posicional con las DK dos, luego salieron las Ocurru Rift, ya con la compra de de Meta, porque si no creo que Meta fue comprado, es decir, Oculus fue comprado cuando tenía las DK Luego ya de la mano de Meta cuando sacaron las Oculus Rift, hubo un espacio de tiempo de unos seis, siete meses en el que había comprado, recuerdo, Opus había sido comprado por Meta, no se sabía muy bien qué es lo que iba a pasar, porque sabéis que muchas veces una empresa gorda compra una pequeña, hace una adquisición y resulta que luego no lanza el producto o lo lanza dentro de cuatro años o lo integra de un modo distinto, y al parecer es curioso porque Partner Lucky dijo que cuando se le acercó por primera vez Zuckerberg, cuando le hizo una demo, ya tenían un poco el producto más evolucionado en la, creo que eran incluso de las DK uno, las DK dos, le ofreció un billón por la empresa y Pablo Verlaki le dijo que no.
Entonces Zuckerberg se retiró, estuvo como cerca de dos, tres meses sin decir absolutamente nada y luego volvió ofreciéndole más del doble de dinero, de hecho le ofreció el doble, fueron dos billones de dólares, más ochocientos mil dólares en en acciones. Pero sobre todo con la promesa de que no era solamente una cuestión de dinero. Era una cuestión en la que iban a invertir anualmente una cantidad singente de pasta, como se ve que están cumpliendo, perdiendo bastante pasta año tras año. Sí. Es más, decía Palmerlaki, que incluso su oferta y su propuesta ha sido largamente superada, porque ya no ha sido un tema de que obviamente le hayan pagado lo que le han pagado, aunque luego le hayan despedido, porque Palm Verlaki fue despedido.
Sino que es que y no es que hayan estado invirtiendo, sino que han girado toda la compañía hacia eso, incluso cambiando el nombre y orientándolo hacia el el concepto tan tan marido y tan desgastado, digamos, a día de hoy de de mercadeo. Entonces, a partir de ahí todo ha evolucionado, en paralelo por supuesto no es solo cien por cien de Oculus, también la gente de Valve, Steam, pues ahí estuvo haciendo sus cosas, la gente de HTC tuvo un movimiento muy interesante en el dos mil quince, dos mil dieciséis, dos mil quince diría que sacaron las primeras HTC Vice, se puso un poco incluso por delante de las Oculus Rift. Es cierto que el sistema era un sistema de tracking que se llama outside in, es decir, tienes que colocar sensores en tu entorno para que te pueda mover Eran muy
compatibles con los con Mac, recuerdo hacer una en un evento de Apple, hacer la presentación del Vader Inmortal
Correcto. Dos mil dieciocho ya la pongo más tarde, Dos mil dieciocho yo creo que por lo menos, Ya ya había pasado.
Era como la presentación del gran iMac super potente, y que fíjate lo potente que es, que con esto puedes hacer lo que quieras, ¿no? Entonces, y puedes ver aquí a Darth Vader en tu casa, etcétera, etcétera. Pero fíjate una cosa, tú supongo que recordarás el momento en el que se anuncia la compra de Oculus en aquel momento por parte de Facebook, todavía no había cambio de nombres ni nada, y cómo la gente, y a mí me sorprendió muchísimo, porque yo cuando vi que efectivamente eso era una forma, o sea, era algo totalmente lógico, es decir, ¿qué compañía puede comprar una compañía de realidad virtual? Pues una compañía cuyo principal negocio es una red social, es que no hay nada que tenga más sentido en el puñetero mundo. Y había mucha gente que decía, no, pero y para qué quieres Sucker ver ese tema, no sé qué, y para qué quieres Sucker ver no sé cuántas, hay es como, vamos a ver, de verdad no lo veis, ¿no?
¿Tú cómo viste ese momento de decir, han comprado una empresa de redes sociales y dicen que van a invertir? Esto ya no es cuestión de qué juego más bonito, esto ya se pone mucho más serio.
A ver, es cierto que, es decir, cómo conocí yo un poco las redes virtuales muy curioso, porque yo me dedicaba, me he dedicado a esto como en varias salas tecnológicas, en la parte de la web, en la parte de las redes sociales, en la parte de las aplicaciones móviles, y veo como un poco saltando de una a otra. Entonces, yo conocí a mi compañero Edgar cuando era director creativo de Tuenti, y resulta que yo vi que Edgar estaba como publicando bastante luego, pero a un tema absolutamente distinto, el rebranding de Tuenti y el paso de Tuenti de compañía de red social a teleoperador, fijaos, Es decir, entonces, él era el director creativo y resulta que yo, bueno, pues tuvimos una buena relación por un tema que le iba a vender, que no tiene nada que ver con realidad virtual y y vi que en que LinkedIn estaba un poco publicando y entonces resulta pues bueno, pues que que que yo vi que es publicaba mucho de de realidad virtual. Qué cosa más rara, ¿no? Y al final por un tema de un máster que yo me estaba haciendo de un colega que estaba haciendo una aplicación de realidad virtual para con su vez consumida debajo del agua, tócate los huevos.
Es decir, que te ponías unas carbor, que que eran realmente estaban cogiendo la línea de innovación de Decathlon por la que tú haces Scuba, te metes a hacer snorkel, le metían un móvil dentro con el concepto de Karbor de de Google, también fallecido ya en su momento, y podías tener una experiencia de realidad virtual dentro del agua, ¿vale? Pues les puse en contacto, al final quedamos para comer todos y Edgar se trajo unas gafas que eran las Samsung GearVR, la línea Innovector, que era, estuve hablando del dos mil catorce, es decir, dos mil catorce. Y yo cuando probé eso, sinceramente flipé, pero no flipé por lo que vi, que ya me gustó mucho lo que vi, sino por el potencial de lo que yo anticipé que aquí yo podía ser que fuera, a nivel de experiencia, a nivel de publicidad, a nivel de formación. Entonces nos empezamos a meter en el asunto, ¿qué pasó? Que con el paso del tiempo de repente vemos que en un momento dado Oculus, que estábamos haciendo ya proyectos con las que el kit de desarrollo es comprado por Meta, nos quedamos como totalmente locos.
¿Qué es lo que pasó? Que hubo de repente un decalaje durante en el mercado de seis, siete, ocho meses, en los que no se sabía muy bien qué es lo que iba a pasar, como decía antes, porque no se danzaba ningún producto, no había mucho más players en el mercado. Lo que estaba claro es que Meta, aparte de que evidentemente creo es complicado encontrar una tecnología que te pueda comunicar remotamente como te puede comunicar la realidad virtual o incluso la realidad aumentada con conceptos de telepresencia o los gráficos y demás, es que veía que el crecimiento de las redes sociales cada vez era más reducido, cada vez era más plano. Entonces, poco a poco ellos se dieron cuenta que tienen que dar el siguiente salto, aparte de que por supuesto lo que has comentado siempre, que Zuckerberg ha dicho que siempre estaba en el ecosistema dependiendo se había perdido la ola de los móviles y estaba siempre construyendo por encima del stack que todo el mundo estaba montando. Entonces quería, había visto la oportunidad de liderar un nuevo sector, como de momento está haciendo, vamos a ver ahora con lo del tema de Apple, que creo que va a tener bastante complicado.
Pero ha intentado, pues eso, poner toda la carne del asador para intentar liderar un sector. ¿Los cálculos le han salido bien, le han salido mal? Pues sinceramente, no lo sé. Lo que creo es que quizás ha intentado ir a mainstream, que es un poco lo que todos, evidentemente queríamos, quizás demasiado rápido. Puede ser, que es lo que podemos ahora comentar un poco en función de dispositivos, de calidad, de contenidos, al mercado, al mercado incluso productor, es decir, de la parte de de oferta generando experiencias, costándole hacer contenido de calidad, es decir, quien se compre ahora en las metas West tres, hay contenido ya de mucha calidad, vamos al de Red Matter, luego que es una auténtica barbaridad, ese ese ese ese juego, pero pero pero hay otras muchas cosas que quizás pues no tienen esa calidad, pero es que al principio la calidad era muy pobre, entonces claro, la gente cuando se compra la gafa más ha de estarlo jugando durante x tiempo, o de utilizarlo quizás para conectarse con sus amigos, que hay que ver si lo tienen realmente, sus amigos para poderse conectar con ellos, pues bueno, pues todavía queda un largo recorrido para que todo esto esté en un punto de calidad para el final que pueda ser como cien por fin mainstream y que de alguna manera pues lo podamos utilizar casi todos los días.
Claro, es que ese es una cosa que al final, tú fíjate, porque hay mucha gente que te dice lo típico de es que Apple llega tarde a la fiesta, ¿no? Lo típico que Apple siempre llega tarde a la fiesta. No sé, esto es una cosa, llega más tarde que yo en muchas ocasiones cuando tengo alguna reunión que otra, como bien sabe nuestro amigo Johnny Jones. Entonces, el tema es que resulta que, claro, tú dices, vale, Apple llega tarde a la fiesta, pero llega tarde o Meta ha llegado demasiado pronto. Porque está claro que cuando yo tengo un equipo como las Meta Quest dos, que mientras yo las he, sigo teniendo, ¿vale?
Pues, han ido recibiendo, pues, no sé si han sido fácil, veinte, veintitantas, treinta actualizaciones mayores que habían ido incorporando a cosas, empezaron funcionando a sesenta hercios, luego a noventa, luego en casos muy puntuales podía llegar a ciento veinte, luego se le incorporó la realidad aumentada a pesar de que era sobre blanco y negro, es decir, se le se le se le pusieron un montón de cosas, ¿de acuerdo? Entonces, al final lo que estás viendo es que es un producto que no está terminado, ¿vale? Entonces, yo el otro día probando las las Quest tres, ¿vale? Que Eduardo ha tenido a bien, pues, dejármelas y tal, he estado probándolas un poco y viendo la experiencia, veía una cosa que era bastante curiosa, ¿de acuerdo? ¿Por qué?
Pues, básicamente, vamos a ir viendo algunos vídeos que he ido haciendo al respecto, ¿vale? Para que veáis cómo es la experiencia con Meta Quest tres, etcétera. Desde luego, es una experiencia que es increíble, ¿vale? O sea, esto no lo va a poner nadie en duda, pero ¿qué es lo que sucede? Sucede que es un producto inacabado, ¿de acuerdo?
O sea, es un producto que tiene errores, que tiene cosas que lo hacen ser más complicado o no, hacen que a la hora de manejarlo, pues ahora el modo que tenemos aquí, como estamos viendo, pues de pronto, pues eso, puedes pasar de un lado a otro, pero fijaros ahora, por ejemplo, cuando yo creo lo que es la malla, ¿vale? De lo que es el producto, veis cómo está viendo toda la habitación, está viendo, sobre todo en este caso, se centra en el suelo, ¿vale? Que es lo que hace al principio para buscar lo que es, digamos, la zona segura, él lo va ampliando de una manera concreta, en la versión anterior tenías tú que marcar prácticamente la zona porque él no te lo detectaba, en esta versión ya sí te lo detecta y cuando ya ves que la zona es la que tú quieres, lo aceptas. Pero, por ejemplo, fijaros cómo el tema de las manos, en realidad aumentada, veis cómo la imagen se deforma, él me me detecta las manos más o menos bien, ¿vale? Pero fijaros cómo la imagen del vídeo se deforma, ¿vale?
Es como que necesita hacer esa deformación para, de alguna manera, controlar, ¿vale? Los elementos que realmente son interactivos para él. Esta deformación es probable que en una versión posterior se elimine. De igual manera, como veis, tampoco tiene el uso de lo que es la oclusión, es decir, teóricamente, si yo me coloco o pongo una mano detrás de un elemento, mi mano no se vería, pero si la pongo delante, debería verse mi mano tapando el objeto virtual. Sin embargo, no se consigue y, de igual manera, como podéis ver, coger los objetos con las manos, mover las interfaces, etcétera, resulta un poco complicado, ¿vale?
Al final te acostumbras, le coges el truco, etcétera, etcétera, pero tú ya tienes claro desde el primer momento, y es a lo que voy, a que estos productos de meta no son un producto final, no son un producto terminado, no es algo que esté fino, es algo que se va a ir mejorando mientras se va actualizando y que los juegos, las experiencias, etcétera, van a ir siendo cada vez mejores. Y yo lo pensaba ayer y decía, vale, esto es genial, pero si Apple saca a día de hoy algo que hace esto, ¿vale? Team Cook acaba empalado y lo acaban quemando en la hoguera en Apple Park y y queman el Apple Park entero. Porque a Apple no se le permiten este tipo de productos inacabados o productos que, y estamos hablando de un producto de setecientos euros que repito, para la tecnología que tiene, yo creo que son baratas, o sea, yo estoy convencido que Facebook está perdiendo dinero, ¿vale? Con con este dispositivo.
Pero fijaros lo curioso que es el hecho de que si Apple sacara o hubiera sacado un producto mucho antes, no se le habría permitido ese tipo de, digamos, de licencias, ¿no? Por decirlo de alguna manera, en cuanto a lo que es el producto. Entonces, claro, ¿por qué se permite esto? ¿No? ¿Por qué se permite esta dualidad de decir, pues vale, yo a esta marca le permito que saque algo inacabado, que se cuelgue, que haga cosas raras?
Porque a mí se me colgaron el otro día al estar grabando a la vez que hacía una cosa y luego, pues, las tuve que apagar dejando pulsado cinco segundos, etcétera, o sea, y ves que tiene cosas que tiene que ir mejorando, pero aún así, ahí está en el mercado, ¿no? Es como, hola, yo vendo algo beta, ¿no? Es como Google, ¿no? Que saca Google Bart, su propia IA, y es un poco una broma pesada comparado con ChatGPT, ¿vale? Porque es es como el primo subnormal, ¿no?
Entonces, no se entera muy bien. Entonces, es como, vale, volvemos a lo de siempre, a Apple no se le permiten estos estadios medios, a Apple se le exige un producto que ya esté terminado y que esté perfectamente pulido, y para conseguir eso necesitamos más tiempo. Puede ser, pregunto, puede ser que este, digamos, este producto en beta constante que estamos viendo sea algo que esté dañando al a la tecnología en ese sentido? ¿Tú cómo lo ves?
A ver, yo veo que Apple y Meta siguen enfoques, es decir, quieren llegar al mismo punto, al que esto sea mainstream, que aporte valor, que la gente lo utilice todo el día, creo que al final eso es algo que todo el mundo quedemos claro. Todo quieren llegar al mismo punto, pero lo hacen desde dos aproximaciones distintas. Meta lo hace desde la aproximación de lo barato, incluso como dices tú, quizás perdiendo perdiendo algo de dinero, creo que son quinientos cincuenta, ¿no? Son setecientos la firma más, la forma más cara, son Sí, setecientos es la que tiene quinientos. Creo.
Efectivamente, son quinientos cincuenta. Pero bueno, es desde un lado en el que lo barato lo lanza al mercado a una calidad razonablemente buena como la creo que está ahora, porque creo que es razonablemente buena, aparte un poco de la tasa que pueda tener, y lo barato se va haciendo bueno. ¿Qué es lo que dice Apple? Lo enfoca en el lado distinto, dice lo caro y lo bueno se va haciendo poco a poco barato. Es decir, Apple empieza en el tope de gama de lo que se puede hacer hoy con un precio de mercado que, obviamente es caro, pero con una calidad seguramente muy superior al de las Quest tres, con una calidad de experiencia, muy superior, mucho más caro y poco y poco a poco sería siendo más barato como el amigo Gurnan, pues ya filtrado que se estaba trabajando en otro dispositivo.
Entonces, creo que quieren llegar al mismo punto desde lados distintos. Lo barato haciéndose cada vez mejor y lo mejor haciéndose cada vez más barato. Luego, cosas que comentabas en relación con el tema de la que es tres. No hay todavía oclusión, pero está en en el cajón ya, es decir, tienen el dev API en el que vas a poder tener oclusión y el que supuestamente vas a poder ocluir tu mano y elementos de tu entorno con el entorno real. Apple ya lo tiene y lo mostraré los vídeos en los que se puede hacer a tope de gama.
El tema de la deformación es un tema de la retroproyección, es decir, lo que tú estás viendo lógicamente no es directamente una cámara que se activa, lo estás viendo, sino hace una recomposición en tiempo real de la imagen a través de las dos cámaras que tienes aquí delante. Van ahí otras cámaras que son para el posicionamiento de las manos, para el reconocimiento del entorno, pero las cámaras en color que tienes son las más cercanas a los ojos. Fíjate que hay una deformación, que eso hay una serie de algoritmos que obviamente en tiempo real intentan que esa deformación no se ve, lo que decían es que, y yo quiero verlo, es cómo lo hace Apple, porque Apple, el posicionamiento de las cámaras que tiene dentro del dispositivo es desde un punto de vista de esa retroproyección, de esa reconstrucción de la realidad a través de la imagen de las cámaras, para que tú la veas correctamente, como si tuvieras un cristal transparente, hay que verla porque hay un tío que es un hiperexperto de la parte de realidad social se llama Karl Buttaj, que decía que los ingenieros de Apple a la hora del diseño de las Vision Pro habían de alguna manera dicho, bueno vamos a intentar un poco perder calidad en la retroproyección donde a lo mejor hay algún tipo de distorsión, ¿en favor de qué?
En favor de tener que utilizar el iCite, es decir, todo el panel donde supuestamente se nos va a proyectar los ojos a través o previo o posterior a buen escaneado que previamente nos tenemos que hacer con el iPhone seguramente catorce o quince como poco, ¿vale? Con un sistema Lidar, con unas cámaras x, entonces al final nos captura nuestra imagen, nuestra cabeza y luego eso es lo que configuraremos dentro del iSight y en tiempo real como tenemos light tracking, pues podemos ver el el parpadeo, las expresiones en tiempo real de lo que es nuestro doble de la de la vista. ¿Qué es lo que pasa? Que las si tú ves, no sé si tienes por ahí las lascuestres, pero si las ves en la parte más o menos frontal, casi a la altura de los ojos tenemos las cámaras, con lo cual el sistema de video proyección tiene que hacer, tiene que hacer unos recálculos, pero no son tantos, aún así has visto, como tú has bien has dicho, que hay una cierta deformación, mientras que es que las Vision Pro Macho tienen las cámaras en la parte de abajo. Entonces, el propio Karcuta, que no ha probado las las gafas, que conste, cuestionaba cuál iba a ser la calidad de esa reconstrucción del mundo real, ¿vale?
Cosa que hay que, cosa que obviamente que ver, yo no he tenido la fortuna, ¿vale? Si efectivamente están ahí justamente en esos verticales que existen, es donde las tienen mientras que las gafas están justamente por encima de los pómulos de la chica, ¿vale? En las Vision Pro. Es donde están, que son son cámaras para ver el entorno real, para hacer el reconocimiento de manos, ¿vale? Y para hacer el reconocimiento de todo el entorno como lo hace, ¿vale?
¿Qué es lo que pasa con Apple? Que Apple sale creo que a todos los niveles, pues habiendo aprendido seguramente de los fallos de beta en muchos sentidos, ya se ha ido recorriendo un camino y ellos, pues bueno, pues lógicamente saben qué puede funcionar, qué no puede funcionar, qué es lo que dice la gente. Creo que Apple va a hacer mucho bien en la parte de aceptación social de ese tipo de tecnologías en el que la gente la use. Creo que el tema del iSight es un tema mínimamente de aceptación social y y técnicamente tiene que ser una movida complicadísima e intentan que se te vea la cara aunque sea un poco creepy el tema de los ojos y aunque todavía lo van a tener seguramente han ido a desarrollar porque no se vio en la conferencia nada de Life Site, al menos activado, más allá de los vídeos. Entonces, creo que hay varias cosas que son interesantes, entre ellas el el iSight, en la siguiente versión que dicen que es más barata, por ejemplo, dicen que van a prescindir del iCite, y y bueno, esto es un poco lo que está configurándose, y el concepto que hace Apple es acercamiento al mismo punto desde un lado distinto de Meta, y lo que creo también es que mientras que Meta empezó por la VR, VR, VR, VR y al principio no hablaban nada de redes aumentada, ¿eso es cierto?
Es decir, Zuckerberg en ningún momento hablaba al principio de redes aumentada ni de realidad mixta, de hecho se lo puso, la realidad mixta es un nombre que se inventó la gente de Microsoft a nivel comercial para renombrar la realidad aumentada en su momento, y hasta llamó a los ser que había de realidad virtual, los metió dentro del paquete de nombre de realidad mixta, un mejunje ahí, tecnológico de la leche, de la leche. Entonces Meta ha ido vr, ahora está metiéndose en la parte real mixta y Apple desde un punto vista más técnico ha dicho no no no no yo la realidad virtual ni la voy a citar. Vamos a empezar por la realidad mixta, el espacial computing como ellos han llamado y cuando la gafa, la gente se ponga la gafa no le vamos a pulir la vista. No, no, van a seguir viendo su entorno, van a poderse seguir relacionando con la gente, y cuando el usuario decida en un momento concreto, se va a ir al modo inmersive o full inmersive. Mientras que en Meta, en Meta es al contrario, en Meta te bloquean la vista, te llevan a otro mundo y tú en un momento dado con el doble tap o con la experiencia que sea pasas al modo de realidad mixta con el past room.
Entonces fíjate que son conceptos y aproximaciones un poco desde el punto de vista más de negocio, de eso le digo de de lo barato y lo bueno, y lo otro de cómo enfoco para que la gente no piense que esto es me ocluye la vista, me llega a otro mundo. No, no, esto va a ser, te llega a otro mundo cuando tú quieras y de manera puntual, que ese es el enfoque de Apple.
Claro, es un poco lo que efectivamente estoy completamente de acuerdo con lo que ha dicho nuestro amigo Alberto, que dice, Apple quiere hacer un visor que la gente quiera tener antes que uno que se pueda permitir. Me parece,
me parece brutal. Esa esa esa cita esa cita está muy bien traído por Alberto, es de Palmerlaki. Palmerlaki dijo que que básicamente lo que querían es que generar algo que la gente realmente lo quisiera, es decir, quería que la gente lo tuviera y y metas acá una cosa, pues que todavía la gente no no no se enamora de ello. Entonces dicen, primero que esto sea brutal y cuando sea brutal, entonces la gente lo va a demandar.
Ese es un poco, efectivamente, ese es un poco el tema, porque al final otra cosa que también es un punto claro en el momento en el que yo creo que todos flipamos, ¿no? En aquel momento, fue cuando Microsoft, de pronto, sin nadie esperárselo, de pronto presenta HollowLens, ¿no? Y fue como un decir, pero, ¿qué qué qué es esto? ¿Qué qué qué estás haciendo? Sebastián Adela, o sea, ¿qué qué qué?
¿A a dónde quieres ir, no? Y luego, pues bueno, que que Hollow Lenza al final se ha quedado en un producto de gama lógicamente industrial, ¿no? Hollow Lenza se ha se ha terminado por definir como un producto para la para la empresa a nivel general, etcétera, pero desde luego, digamos que fue la que sentó las bases, porque no podemos olvidar que Apple viene trabajando en realidad aumentada desde el año dos mil diecisiete, es decir, hace ya seis años largos.
Justo que antes, Yo creo que incluso antes, te voy a ir a julio, Yo creo que ese, hay data hay data de gente trabajado en esto en dos mil quince, dos mil dieciséis, cinco.
No, no, no, lógicamente, o sea, es decir, Apple presentó la realidad aumentada en dos mil diecisiete, pero obviamente ya debía estar trabajando desde hacía tiempo anteriormente, o sea que muy probablemente, como tú bien dices, dos mil quince aproximadamente sería cuando esto empezaría a trabajar. Entonces, claro, hay que intentar pensar y decir, ¿por qué Apple sin que nadie lo esperara? De pronto en dos mil diecisiete dice, señores, tenemos un Augmentad Reality Kit para que con el iPhone puedas hacer aquí, para allí, para abajo, para arriba, y ha ido sembrando poco a poco todo lo que al final ha cristalizado con Apple Vision Pro, ¿no? Que es un poco, entonces, al final ha ido todo el mundo más o menos, cada uno por su lado, ¿no? Pero han intentado ir evolucionando elementos, ¿no?
Hasta llegar a a nuestros días, ¿no? Entonces, la verdad que es es algo bastante bastante curioso y que yo mi mi, digamos, la la pega que le pongo a este tema, entre comillas, es que si cuando Apple presenta el iPhone ya hubo gente, no demasiada, pero hubo gente que no terminó de ver aquella apuesta de una pantalla, solo pantalla sin teclado, que eran los mayores haters del iPhone, era porque no tenía teclado físico para poder escribir porque no eran capaces de ver más allá de la blackberry. Yo conozco mucha gente de primera mano que tenía ese problema, yo mismo Pero luego después, yo creo que el dispositivo Pero luego después, yo creo que el dispositivo que más se parece a lo que está pasando con la realidad virtual y la realidad aumentada, la realidad mixta, la computación espacial, es decir, aquí cada uno pone su propio nombre. De hecho, recuerdas que cuando a Team Cook le preguntaban por el Metaverso decía, Metaverso, yo no trabajo ese artículo. Entonces, llega un momento en el que resulta que que, bueno, o sea, como digo, va cada uno por su lado, sacando sus cosas, sacando sus temas, pero yo aquí lo veo un poco como, diríamos, el efecto iPad, ¿vale?
Es decir, cuando el iPad fue anunciado, de hecho, Steve Jobs hizo la coña de decir, nunca había, puso, ¿no? Una frase de Walt Mossver en pantalla diciendo nunca había habido tanta expectación por una tablet desde el desde los años de Moisés, ¿no? En ese sentido, siendo un poco la coña, porque todo el mundo daba por sentado que iba a haber una tablet por parte de Apple, pero todo el mundo daba por sentado que esa tablet iba a tener Mac, iba a tener OSX y no iba a tener, no iba a ser un iPhone, ¿vale? Cuando Apple saca el iPhone y encima ven esa portada del New York Times, donde hay un cuadradito que indica que falta el plugin de el plugin de Flash, ¿vale? Pues es como, dios mío, ¿esto qué es?
¿Qué ha pasado? Tal. Y ese año, yo recuerdo, la gente con las coñas, los memes, le dieron incluso un fiasco awards al iPad, era como tal, porque la gente no lo veía, hasta que de pronto coges el iPad y lo tienes en la mano y dices, espérese usted, señor, esto no es lo que, o sea, esto es otra cosa, ¿vale? Pues yo veo aquí un poco esto, es decir, la forma de hacer de hacer creyente a la gente en esta tecnología es que la pruebe. O sea, tú ha habido alguna persona o o cómo ves en ese sentido, ¿no?
El hecho de que la gente pruebe esta tecnología y de pronto diga, oye, sí, porque la gente empieza a decir, yo no me voy a poner un casco todo el día, no me voy a poner una gafa, esto no tiene ningún sentido. Luego sale Team Cook y dice que él trabaja todo el día con la visión propuesta y la gente dice, hombre, ¿y qué va a decir Team Cook? Si es su, no, es su casa. Entonces, tú, ¿cómo intentarías? Imagínate que que yo fuera, que no es el caso, una persona que no creyera en esto, ¿cómo me intentarías convencer para que entendamos que esto realmente está ahí, ¿vale?
Que que falta muy poco.
Sí, yo vería dos cosas, seguramente, yo he probado, pero es que he puesto muchas tazas a mucha gente y y entonces vas bien un poco casi con un estudio de mercado qué es lo que la gente dice,
¿no? Exacto.
Entonces hay hay hay varias cosas. Primero, la gente lo que dice es a mí esto me va a marear, el tema de la VR marés, ¿vale? Eso lo dice mucha gente. Es cierto que la VR de antes sí que mareaba por un tema casi técnico, es decir, al final había un retardo entre lo que era el movimiento que yo hacía con la gafa y, o sí, con la cabeza, y lo que eso se trasladaba en la imagen que reaccionase en tiempo real. Había un retardo de más de x milisegundos y entonces, pues eso me generaba un mareo, ¿vale?
Es decir, la cinetosis o el motion signes, que todavía se puede dar si lo haces mal en realidad virtual. Entonces, lo primero que le diría, mira, esto antes mareaba, esto ahora bien diseñado no tiene por qué marear, pero no se puede hacer absolutamente todo en realidad virtual en para que no maree, es decir, yo no te puedo coger y cogerte un coche directamente y en tu casa que tengas la sensación de ir a quinientos por hora, porque te puedo asegurar que va a haber una disonancia entre lo que tus ojos ven y lo que tu sistema interno de oídos de oído interno, de sistema proproceptivo, de tu, es decir, te va a decir algo de decir no puede ser, tus ojos me están diciendo que estás yendo a tal velocidad y sin embargo a nivel sensorial, mi oído interno no me está diciendo que haya ninguna aceleración, tus vísceras no se están moviendo, con lo cual eso genera una reacción en el cerebro que induce al mareo. Pero teniendo en cuenta y respetando todo ese tipo de cosas, si están bien diseñados, la realidad virtual a día de hoy no tiene por qué variar, ¿vale?
Entonces, eso de primeras, eso es importante. Porque si la gente se piensa que marea, que marea, que marea, es un problema. Hay otros problemas que son de cansancio ocular y demás, que eso es lo que yo quisiera ver las de Apple, a ver si blanté mucho, diez horas trabajando con ellas, pues no tienes un poco de emergencia ocular. Que tendría que verlo porque sinceramente creo que casi como todas las, todas esas tecnologías para intentar evitar el cansancio ocular. Y luego diría, esto va demasiado de los videojuegos, porque todo el mundo se piensa que todo esto va enfocado a temas de entretenimiento puro y duro.
A videojuegos, a choque juegos, y aunque es hiperpotente, y por supuesto el mercado de gaming es una vía de entrada fundamental que ha basado en todas las industrias, en todas las industrias, esto va mucho más allá. Y le hablaría de distintos casos de uso que se puede hacer en todas las industrias de manera transversal, porque es que se puede hacer y se está haciendo a día de hoy. Eso es una cosa no solamente de futuro, sino una cosa de presente e incluso diría de pasado, donde se ha se ha confirmado que, por ejemplo, se aprende más y mejor en realidad virtual que por medios tradicionales, por ejemplo, ¿vale? Y luego, por supuesto, le pondría experiencias de buena calidad, le pondría determinadas experiencias que no son de una calidad ínfima desde un punto de vista visual o desde un punto de vista experiencial, de interacción, de interfaz, para que entendiera aquello que dije mira, tío, cuando estás viendo esto estás poniendo por ejemplo Red Matter dos. Pues es una gran, gran referencia para decirle, mira, es el punto al que se puede llegar a día de hoy de calidad visual, aunque creo que aquí en este caso normal en ñaki, la gente de Vertical Robot han pasado, es sobrepasado, que la gente sepa que este estudio es español, que están dentro aquí en Madrid.
Y y son un referente que Karma siempre explicaba,
Yo desde aquí, si nos escuchan o nos o nos van a escuchar, desde aquí mi felicitación absoluta porque el el juego está hecho con un mimo y un detalle, además con voces de doblaje de primer nivel de Barcelona, con con Dani García, con gente que realmente es, bueno, pues es gente de primer nivel, de las que doblan películas de de cine, ¿de acuerdo? Y han conseguido trasladar una experiencia de aventura gráfica a poder estar viviéndolo tú, ¿no? A poder, o sea, yo la verdad que me va a costar devolverte las quest por este juego principalmente. Porque es es absolutamente increíble, o sea, la experiencia. Pero lo he puesto también porque precisamente una de las cosas que estás comentando, este juego es una de las pruebas de lo que tú has comentado, es decir, tú te estás moviendo dentro del juego, pero en realidad tú no estás moviéndote de manera real y tu cuerpo, cuando te empiezas a mover, notas como un tirón de la espalda, como como que quiere que te empieces a mover, ¿no?
Entonces, tienes esa sensación que yo creo que que le va a ocurrir lo mismo, obviamente, a las a las Vision Pro en entornos que sean completamente inmersivos, pero que todavía le falta ese punto de decir, ¿cómo consigo que yo me pueda mover, no? Dentro de este entorno para poder tener esas experiencias. Pero esto, el río, o sea, imaginaos este escenario que que que que es increíble, con una calidad gráfica tremenda, porque una cosa que han mejorado muchísimo las Quest tres es que tienen un chip gráfico que ahora iguala en potencia gráfica a lo que hace un m uno de Apple, llega a los dos coma cuatro teraflops en cálculo en coma flotante, y de verdad, o sea, os prometo, esto ya, o sea, yo he jugado muchísimos juegos en Meta Quest dos, y todos los juegos que he probado en Meta Quest dos son calidad Android, calidad de móvil, calidad de mucha textura hecha a base de gradientes, de pocos polígonos, de poco realismo, poca resolución, este juego hay momentos donde puedes llegar a perder la propia percepción de que no estás ahí, ¿vale? O sea, ese es el nivel, porque la calidad que tiene, cómo maneja la iluminación, los reflejos que tienen los materiales metálicos, o sea, tiene un nivel de detalle y de acabado que es brutal, es lo mejor que yo he visto jamás en este sentido.
Entonces, pero tiene, como tú dices, ese problema de de que tienes que tiene, como tú dices, ese problema de de que tienes que acoplarte a una forma concreta, ¿no? De moverte en ese sentido.
¿Cómo que se hace? Es que en realidad virtual hay un problema que es el tema de la locomoción. Claro. Al final, ¿cómo me muevo por el entorno virtual sin que me mare? Por ejemplo aquí en Red Matter dos, pues bueno te plantean el teleport en el que te vas moviendo, Pero claro, aunque no hay ningún blink, ningún parpadeo para intentar mantener un poco la inmersión y la presencia en todo momento, tienes que ajustar la velocidad de ese modo de locomoción para que no te maree.
Yo, por ejemplo, lo he probado y en la primera versión en la que yo no ajusté el modo de locomoción, que tengo un motor ese silgas al mareo, acabé con un poquito de globo. Es decir, todavía existe ese puntito en el que tienes que ajustarlo muy personalmente a tu sensibilidad al mareo para el tema de locomoción. ¿Cómo se va a lograr? Pues todavía sinceramente no hay ninguna viso claro de cómo se va a lograr. Es un tema de la correspondencia, como os decía, de la vista con el oído interno, fundamentalmente, aparte del sistema de productivo y demás.
Hubo alguna cosa, por ejemplo, de Samsung, que de una una como una línea de investigación de Samsung que se llama Celap, ¿recuerdan? En el dos mil dieciséis, donde intentaban estimular el oído interno de manera eléctrica interna externamente a través, como se ve como de casquito que te ponías y te estimulaba, pero claro, te estaba acomodando ahí unas mismas descargas para intentar como trucar, ¿no? La sensación, la percepción que tú tenías de tu oído interno para intentar evitar el tema de del mareo. Hay algunas aproximaciones por ahí que se están planteando pero no sé hasta qué punto todavía está muy cercano hasta que puedas hacer casi como quien dice cualquier cosa dentro dentro de este entorno. La gente de Red Matter ha llegado a ese nivel porque incluso han utilizado como motor gráfico Unreal, que es el a día de hoy como motor de desarrollo de videojuegos el que mejor nivel tiene a nivel visual, pero para intentar llegar a llegar a ese super nivel y poderlo desarrollar dentro de las quest tres, es que imaginaros, han tenido casi que trucar casi como quien dice, Unreal para poder llegar a ese nivel, porque ni siquiera el el el el sistema del pipeline, render pipeline que tiene, es decir, cómo pinta y cómo monta todas las texturas y todas las iluminaciones Unreal han tenido que tocarlo para para mejorarlo, es decir, es como como meterle esteroides a Unreal para decir, tíos, vamos a llegar en las metaquestres a este nivel, y han llegado a un nivelazo que yo creo a día de hoy no existe ningún juego en en todo el ecosistema que pueda llegar a desde el punto de vista visual a este nivel, todos los reflejos que tienen en tiempos reales, es una es una auténtica locura, es una auténtica locura.
Sí, de hecho, ya te digo, o sea, fue una de las experiencias más más increíbles y al final este tipo de experiencias son las que en cierta forma venden dispositivos, ¿no? Porque al final un dispositivo se va a vender en función de lo que realmente yo pueda llegar a hacer con él, o lo que pueda llegar a atraerme a hacer con él, ¿no? Entonces, es un poco el el tema, ¿no? Aparte de lo que sería la aplicación práctica de ciertos elementos, etcétera, etcétera. Pero al final es un poco lo que estábamos hablando, ¿no?
Que decíamos, joder, es que yo esto se lo pongo a una persona cualquiera y inmediatamente va a decir, dios mío, ¿qué es esto? Yo quiero esto, ¿no? Pero claro, hay una una cosa que es el peligro del cajón, ¿vale? El peligro de esto está muy guay pero cuando ya me he cansado de ello, va al cajón y dejo de usarlo. Es un poco lo que está pasando con muchos de estos dispositivos.
No podemos olvidar que las pasadas navidades, no, las anteriores, el regalo estrella en Navidad fueron las Meta Quest dos, algo que ni siquiera Meta se esperaba, pero se vendieron muchísimas como regalo de Navidad, y la gran mayoría han acabado en un cajón por esa aproximación por parte de las compañías. Entonces, vamos a abrir un poco el melón, ¿vale? Vamos a explicarle a la gente qué es lo que hace Meta para que haya nuevo software para sus dispositivos. Lo primero que tenemos que entender es que Meta no tiene una SDK, ¿de acuerdo? No tiene una SDK propia, ¿de acuerdo?
Tiene ciertas aplicaciones que permiten hacer ciertas aproximaciones de cosas que te facilitan, tiene alguna librería que se puede utilizar, pero lo que tenemos que entender es que lo que hay aquí dentro es un móvil Android, literal, porque lo que yo le pongo a esto, ¿vale? Lo que yo le puedo poner a esto a través del puerto USB C, si lo ponemos en modo desarrollador, ¿vale? No lo hagáis niños, son APKs, ¿vale? APKs directamente que yo le puedo meter y que incluso le puedo decir como en un móvil Android, oye, no controles la firma del APK y déjame poner cualquier cosa, ¿vale? Repito, niños, no hagáis esto sin la supervisión de un adulto, ¿vale?
Entonces, pero insisto, esto es un móvil Android, ¿vale? Sin embargo, Apple Vision Pro ya lo sabemos, es un iPad, un híbrido entre un iPad y un Mac, ¿vale? Porque tiene más capacidad que un iPad, unas Apple Vision Pro son capaces de poner varias ventanas de una misma aplicación a la vez, como haría un Mac, sin embargo, el iPad a día de hoy no es capaz de hacer esto, ¿ok? Entonces, si partimos de la base que esto es un móvil Android y, por lo tanto, Meta no tiene el control de la SDK principal, y lo que ha puesto es una capa de de, pues, igual que tú te compras un móvil Samsung y tienes el la capa esta de Samsung que no sé cómo se llama, o tienes la otra, o tienes el el nuevo que ha sacado Xiaomi, que lo ha llamado hiperOS, creo, pero que es una copia barata de de literalmente barata, de de iOS, ¿vale? Claro, el tema es, ¿cómo hago yo apps para esto?
Porque para esto no se pueden hacer apps, para esto hay que hacer juegos o juegos que parezcan apps, porque tengo que usar un Unity, un Unreal, un el motor que sea, ¿de acuerdo? Entonces, esa es la gran duda, ¿vale? Entonces, porque la gente también sepa, y esto le te pido a ti que sabes mucho mejor, cómo funciona el tema de la distribución y desarrollo en Meta Quest a nivel general y en lo que son los productos de Meta, y no podemos olvidar tampoco, unas Pico cuatro, que al final es otro modelo Android hecho por otro fabricante, etcétera. ¿Cómo sería ese modelo de de creación de software y distribución del software?
Sí, mira, es curioso, una puntualización simplemente es curioso de comentar. Meta sí que intentó tener su propio sistema operativo, es decir, Meta tuvo una línea de trabajo durante cerca de un par de años para crearse su propio sistema operativo y no depender cien cien por cien adaptado a todos sus dispositivos. Pero creo que debía ser una cosa muy complicado, que no estaba al final al alcance suyo y dejaron al final de lado todo eso. Claro, lo bueno es que tiene Apple es que tiene toda la vertical entonces. Es que lo tienen muy complicado competir contra eso.
Pero volviendo a lo que tú preguntabas del sistema de distribución, a ver, Meta lo que lanzó al principio fue su store. Al principio era una store, al principio de todo, en la que casi había poco filtrado de las cosas, entonces tú podías entrar y subir un montón de cosas. ¿Qué pasó? Que subía una cantidad importante de contenidos de mala calidad. Con el lanzamiento, no recuerdo si fue de las Quest uno o de cuál de sus dispositivos, cambiaron radicalmente el enfoque, y lo que dijeron es, si tú quieres desarrollar para este ecosistema, vas a tener que pasar nuestro filtro, y nuestro filtro no es un filtro solamente técnico desde el punto de vista de FPS, hispana que no maree, o de determinados estos parámetros de calidad de confort.
Tienes que pasar un filtro de contenido, me tienes que pasar un informe en el que me especifiques de manera normalizada cuáles son las características de tu aplicación, y yo voy a decidir si esto entra o no entra en el store. Yo recuerdo un caso de una aplicación de golf, había un par de aplicaciones de golf ya en el store y unos desarrolladores de una aplicación de golf, pues quisieron poner su aplicación dentro de dentro del store. La aplicación al parecer estaba muy bien hecha, muy bien lograda y la gente de Metal les dijo que no. Entonces, había bastante, se generó una tasa de cabrero bastante elevada en la que solamente determinados estudios con determinadas experiencias podrían publicar dentro del store, pasas esas dos revisiones, una revisión de contenidos y otra revisión técnica, por supuesto, de temas religiosos, sexuales y demás. Eso ya, por descontado, para el tema de la publicación.
Posteriormente ya lo que se planteó es que, oye, como la gente empezaba a subir, se creó, o como la gente seguía desarrollando, se creó como un mercado negro de las aplicaciones, como si fuese el jale break de toda la vida, en donde la gente va subiendo aplicaciones a lo loco sin ningún tipo de filtrado, casi como quien dice, ¿vale? Entonces, ¿qué surgió ahí? Pues surgió East IO y sobre todo la gente de Sidequest, Sidequest vr punto yo, y ahí se generó un mercado en el que, bueno, pues la gente subías sus sistemas, tú tenías que poner tus meta quest uno, dos o tres en modo desarrollador y entonces sin considerar el tema de la firma te ibas cargando APKs y te cargabas lo que la gente iba desarrollando y ese sistema te permitía un poco un poco distribuir. ¿Qué movimiento hizo Meta en ese momento? Pues dijo vale, yo tengo mi Oculus Store, que es como el tope de gama para todo.
Sabemos que existe Site Quest, que es como la parte del Jalegrete, donde la gente sube lo que quiere subir y la gente sabemos que está cargando contenidos en nuestras en nuestras gafas, vamos a montar una cosa intermedia, probablemente para querernos comer un poquito o no dejarle más terreno a la gente de Sitequest, y montó AppLab. Ahora, ¿puedes subir cualquier cosa a AppLab? Tampoco puedes subir cualquier cosa a AppLab, sino que tienes que basar una revisión técnica, que es un treinta por ciento más sencilla que la revisión de cuando subes un contenido a Lux Store. ¿Desde dónde se sube? Desde el mismo sitio, desde tu portal de desarrollador dentro de Oculus, tú te metes ahí y puedes decir si quiero pasar la revisión para el Oculus Store o para el tema de la app app.
Y eso es un poco como a día de hoy está funcionando. Eso si tú haces una aplicación de cara a, digamos que como gran público, ¿vale? Si haces un videojuego, algo de entretenimiento, lo que fuera de cara al gran público. Luego está la parte empresarial, que es curioso, porque no solamente la parte, digamos, del mercado real o del mercado del consumidor, del jugador está, sino que, oye, si yo soy una empresa, ¿cómo hago para distribuir mi aplicación? Antes era un tostón tenías que introducir el APK dentro del portal, invitar a cada persona por cada correo, cada correo tenía que ser un usuario dado de alta de Oculus, de verdad era un pifostio y sigue siendo un pifostio importante.
¿Qué se han inventado? Que ya lo inventaron hace cerca de dos, tres años, y ahora vuelven a la carga, el Meta Business. Meta Business cuesta, el nombre que le han querido poner, pero es el Opus for Business, Meta for Business, que te permite hacer la distribución no al gran público, sino a los empleados de una empresa, porque claro, cada vez se han dado cuenta de que no solamente es un tema de de de consumidor entendimiento, sino es un tema de empresas. Entonces también se permite la distribución y el control de sobre qué dispositivo se despliega, qué versión de la aplicación para cada uno de los empleados de una empresa. Entonces, son como un poco lo que está asunto a la gente de Meta intentando competir con SteamVR, porque sabemos que en la otro carril está la gente de SteamVR permitiendo subir también muchos contenidos, y luego estaba la gente de Microsoft también con su Microsoft Store, que estaba vacío intentando competir.
De hecho, Microsoft lanzó el Microsoft Store tanto para las hololens, contenido de las hololens versión uno y dos, como de sus primeros paquetes de los Windows mixed reality, que realmente no eran mixed reality, sino eran virtual reality, y estaban tan vacíos el story, y había tan pocas aplicaciones, y ningún desarrollador quería desarrollar para esa para esa plataforma, que tuvieron que aliarse con Steam para que desde dentro de las de las reality, que eran, como digo, eran virtual reality, se pudiera chupar contenido del Steam VR. ¿Qué está haciendo el mercado? Está dejando el mercado un poco de lado la parte de Steam VR y está cargando un monto de contenido en sidequest y en applab y luego lo que le deja a la gente de meta dentro del Google Store. Es como funciona vos sabes ahora.
Pero al final, a ver, ahí el tema está en que, claro, como tú has dicho, o sea, es decir, imagínate que yo soy la empresa de que hace esta aplicación de golf y que Meta les dice que no, pues porque dice simplemente oye, es que ya hay dos o tres de golf y entonces tú que aportas nuevo, no? Y si no, si no pueden contestar, porque es lo mismo que el resto, pues ellos pueden decir que Uplop, ¿ven? Tendrás piedra, te tocaría irte a Uplop,
que es como el sucedáneo de side quest, tendrías que a Uplop, pero no te sale gratis. Porque en Uplop tú no tienes los mecanismos de de de promoción tan potentes que tienes como si estás en el Outlookol Store. Y tócate los huevos, porque tú lo puedes probar, es que si no tienes ningún panel, luego te metes dentro del quest dos, tres, y de repente ves todos los paneles con los contenidos, no hay ninguna de App Lab. Si tú quieres saber y buscar una aplicación de App Lab, tienes que irte al cajetín de búsqueda, tocar sobre él y poner el nombre para buscarlo, y entonces encontrará la aplicación, si la encuentras está en App Lab, pero no tienes ninguna visualmente, no tienes un feature by, no tienes una categorización de nada de lo del app, la va a decir, es como que no quieren dar mi sensación, Lo sé, pero es como que no quieren dar visibilidad a para que no canibalice lo Plus Store. Missis.
Claro, eso es un poco el tema. Pero claro, al final el problema, y yo creo que es un poco a lo que vamos, Meta está tratando su dispositivo con un modelo de negocio similar al que tiene Valve con Steam, por ejemplo, en el que no todos los que quieren publicar en Steam pueden, hay que pasar un una primera criba, ¿vale? En su momento era el aquel famoso elemento que nosotros lo pasamos, ¿vale? Y tenemos un un juego publicado que acabamos de de republicarlo, Momento spam, si queréis ver el juego que hemos publicado, se llama Scary Humans y está disponible en Steam. Entonces, para entrar aquí tuvimos que tener la aprobación de la comunidad, ¿no?
Es como que necesitamos un montón de votos de gente que se interesara por el juego, y ahora tienes que pagar una determinada cantidad para comprar unos créditos y que eso te de derecho a poder publicar directamente un juego ahí y aún así vas a pasar un control de contenido, etcétera, etcétera. Entonces, es un poco mercado de negocio parecido al que tenemos, por ejemplo, con la con la Xbox o con la PlayStation, etcétera, que en la parte principal no puede entrar todo el mundo, ¿vale? Y luego tenemos el mercado de Xbox de juegos indie, que ahí ya sí puedes ir y puedes apostar y, de hecho, puedes crearte una cuenta, ¿no? En en en el servicio de Xbox, por ejemplo, para los juegos independientes y mandar tu juego para aprobación y que lo miren, y si es un juego que ven que les apetece, pues te lo pueden publicar en en Xbox, etcétera. De hecho, nosotros estamos haciendo pruebas de este juego de de Scarlett Human para ver si podemos subirlo a a Xbox o a PlayStation, alguno de estos, vale, está hecho en Unity, entonces se podría subir sin ningún problema.
De hecho, hemos hecho pruebas beta haciendo que una Xbox funcione en modo desarrollo y la verdad que el juego va bastante bien y es bastante curioso, ¿no? Entonces, el tema es que eso al al final es un mercado limitado, un mercado limitado que tiene su clara ventaja de limitas la limitas quien entra, pero con ello intentas garantizar un mínimo de calidad en cuanto al producto, pero luego tenemos a Apple en el otro lado, que Apple tiene un App Store, y en ese App Store, cualquiera que pase los controles de contenido, funcionalidad, etcétera, y muy importante, modelo de negocio, que ahí hay mucha tela que cortar, pues puede publicar, por lo que al final tú tienes un App Store, como el que tenemos ahora mismo del iPhone, del iPad, etcétera, que tiene literalmente millones de aplicaciones. Ahora, en el App Store, la realidad del App Store es que, datos en la mano, el sesenta por ciento de las aplicaciones que hay en el App Store no se han descargado nunca, ni siquiera por la madre de quien lo hizo. Esto es muy triste, ¿no? Mamá, me echa una nueva aplicación, por favor, bájatela y es como, no, mira, es que no me interesa tu app, debe debe ser muy triste, ¿no?
Que una madre te diga eso, pero en realidad el el número de descargas es ninguna o o o un número totalmente, pues eso, dos, cinco, diez, que no significan absolutamente nada. Por lo tanto, quiere decir que en realidad en el App Store hay más de la mitad de aplicaciones que no sirven y, de hecho, Apple ya ha hecho varias cribas a partir de aplicaciones no actualizadas, a partir de aplicaciones que han dejado de soportar versiones más modernas, etcétera. Entonces, tiene ese tema, ¿va? Pero Apple aquí, y esto es un poco al a lo que quieren en el siguiente punto, si tú quieres desarrollar para Meta Quest, tienes que meterte de lleno en desarrollo tres d. Aunque quieras hacer una app y hacer una app en ese de esa manera, con esa premisa, es más complicado porque un entorno tres D como Unity, Unreal, etcétera, no están pensados para hacer aplicaciones tres D, etcétera, etcétera, ¿ok?
Pero luego, por otro lado, tenemos Apple. Apple tiene una SDK propia porque ya la tenía para iOS, para iPad, etcétera, y está permitiendo que su último framework de desarrollo de aplicaciones, SWIFT UI, de una manera muy fácil, muy simple, muy rápida, muy de prácticamente no tengo que hacer nada porque esto es todo supersencillo, podamos directamente hacer nuestros, bueno, pues eso, nuestra nuestras aplicaciones como queramos. Claro, esto es un cambio de decir, vamos a ver, ¿qué es lo que está pasando aquí? Porque en este momento cualquiera puede meterse a desarrollar para entornos Apple, Cualquiera que ya sepa programar en entornos Apple va a poder hacer, como estáis viendo ahora, esto es un directo que yo hice justo el día que salieron las Vision Pro, en el que enseñaba a la gente, pues eso, o sea, en tiempo real, ¿no? Que eran los distintas formas de crear entornos inmersivos, la forma de crear interfaces, de hecho llegamos a crear una aplicación completa de demo sin yo tener ni idea, es decir, este directo lo hicimos a los minutos literalmente de haberse lanzado la primera SDK y sin ningún tipo de conocimiento al respecto, conseguimos hacer una aplicación desde cero.
Entonces, eso es un poco la la la diferencia, ¿no? El el tema veis que ya estoy aquí programando con SWIFT UI, esto va a abrir la puerta a que cualquiera pueda hacer aplicaciones. ¿Estas aplicaciones son algo que puede llegar a interesar a la gente? Sí, a nivel de productividad sí puede ser interesante, pero yo me quedé el otro día cuando estuvimos hablando tú y yo, Eduardo, me quedé con una cosa que creo que fue bastante clara al respecto. Es decir, Meta le abre la puerta a Red Matter dos, le abre la puerta a Virtual Tennis, le abre la puerta a juegos o experiencias inmersivas muy grandes, y Apple le abre la puerta a Fantástical pase un calendario, a la a a la aplicación de del tiempo esta maravillosa que por ahí de no sé qué, ahora no recuerdo cómo se llama, a una aplicación de agenda, a una, sabes, o sea, la claro, tú decías, dices que la aproximación es totalmente distinta.
Entonces, es cierto que el la el punto de entrada con Apple Vision Pro es mucho más simple, el punto de entrada con con lo que es OKIE o Meta Quest en este caso, o el resto de dispositivos de tal es más compleja, pero tampoco podemos olvidar que lo que se hace para Meta Quest podría hacerse para Vision Pro, pero lo que se hace para Vision Pro es mucho más complejo hacerlo para Meta Quest. Entonces, ¿a dónde va? ¿Cuál es el enfoque? Porque uno se quiere enfocar en experiencias y el otro se quiere enfocar en productividad. ¿Tú cómo ves este binomio esta esta doble vara, no?
En ese sentido.
Pues, a ver, obviamente Meta se ha centrado al principio en tema experiencia al cien por cien, como digo, nunca hablaba de realidad mixta, cien por cien de realidad virtual, y era un tema de generación de experiencias tres D inmersivas, en las que a mí me encantan, creo muchísimo y están muy bien. ¿Qué pasa? Te llega a Apple y ya con los rumores del lanzamiento, recuerdo que en abril aproximadamente de este año, de dos mil veintitrés, decía que yo me quedé flipado porque si se empezaba a que se iban utilizando cada vez más cositas, más cositas. Se veía que todo iba enfocando en esta parte más de estaban valorando migrar a Apple Books al Vision Pro y dije, vamos a ver, si siempre hemos estado todos contando que no se puede todavía leer en realidad virtual, porque los paneles que existen a día de hoy no te permiten la suficiente nitidez como para poder leer. Hablaban de que se iban a poder trabajar con hojas de cálculo dentro de Vision Pro, yo decía pero vamos a ver si cómo vas a estar trabajando con datos con tipografías que prácticamente con dígitos que no te dan casi ni para verlos.
Claro, ahí es cuando llegas y dices obviamente no van a plantear esto si no tienen un panel, una centrar centrarlo en determinados momentos del día donde estás queriendo, queriendo divertirte o comunicarte con tus amigos, pues te dicen mira, probablemente vayas a poder también divertirte, comunicarte con tus amigos. Pero además de todo eso, te voy a permitir que en vez de estar utilizando el iPad o el Mac, puedas tener, en vez de una o dos pantallas, puedes tener, si quieres, siete pantallas. Y además, si quieres tener una videoconferencia con alguien, la puedas tener con varias personas a la vez y poder teletrabajar y cotrabajar con ellos en algo, en un evento compartido en tiempo real, ya sea una pizarra, lo que fuera, un evento tres D, y lo vas a poder hacer en tiempo real, pero con un nivel de de realismo brutal. Pero en vez de irnos hacia los avatares de meta que son más rollo cartoom salvo el directo de Codekabatars que presentó el otro día en una bueno en una charla con el Lexie Friedman este Zuckerberg, que han sido siempre avatares cartoon, que ha habido mucho cachondeo y que no funcionan bien en el ámbito business, sí puede funcionar en el ámbito de entretenimiento pero en el ámbito business no, Open llega y te avanza el concepto de personas, ¿vale?
Que todavía está un punto todavía creepy, pero el concepto de personas es lo de la representación como hiperrealista de las personas dentro de tu entorno, hacen un poquito semi traslúcido para que tampoco cante demasiado. Se ha comprobado que si lo haces un poquito semi traslúcido no te llama tanto la atención si el elemento es un poco zombie, ¿vale? Y bueno, pues trabajas todo eso, entonces el enfoque es, Apple lo puede hacer porque tienen dispositivo al nivel de calidad suficiente para poder hacerlo, Y lo enfoca desde un punto de vista de hay determinados momentos donde lo vas a poder utilizar, como lo hace Meta a nivel de entretenimiento, pero a mí no me interesa tanto eso, y de hecho, en todo el marketing, todas las charlas de desarrolladores, todo lo enfocan a no le dediquéis tanto tanto tiempo a la parte de full inmersive, que es la parte de VR, centraos en lo que este dispositivo de verdad aporta valor, que es que tú en el día a día puedes agregarlo a tus aplicaciones del día a día. Para eso seguramente, pues por supuesto, tienes que tener un panel, una definición brutalísima y tendrás que tener, entiendo, que aparte de un teclado virtual, pues un teclado físico, podrás estar con las gafas y en tiempo real estarte criando con el teclado físico.
Probablemente puedas tener a lo mejor, yo que sé, si algún tema de puntero, no tengo ni idea. También la integración que tienes con el tema del I tracking y la gestión de manos que creo que va a parecer es brutal, la combinación del tema del I tracking y además el trackeo de manos, pues es es bestial para el tema interactivo. Entonces, son enfoques distinto, uno productividad en el día a día para, como decía Tim Cook, que también hay que ver si es creíble, lo de metido todo el día trabajando con las con las Vision Pro y otro es el enfoque de Meta que creo que por calidad de dispositivo no puede aspirar a nada más que a experiencias puntuales de determinado número de gas máximo para que tú puedas estar un poco entreteniéndote. Es un poco creo que el enfoque hace, ¿qué va a ser más masivo? Pues, por supuesto, bajo mi punto de vista, en el momento de que esté en un punto de precio chulo el tema de Apple, pues la gente, si ve que es más productivo, que tiene reuniones con un nivel de realismo brutal, que encima puede ver los partidos con un nivel de realismo bestial, y además estar con sus amigos viéndolo en remoto, pero como si estuviese en el mundo real, pues eso cambia de verdad la película directamente.
Entonces ir deseando, estoy probarlas y tenerlas aunque sea media horita para probar poder probar y validar todo esto, pero estoy seguro que por viendo un poco lo que la gente ha dicho, gente que ya ha probado dispositivos de realidad virtual, es decir que no son neófitos de este mundo y han dicho que es brutal e incluso el mismo Palmer Lucky y otra gente del mundo de la VR han dicho que el hardware es muy, muy, muy bueno. Es que eso yo creo que va a poner el dispositivo a otro nivel y ya digo, estamos con unas ganas increíbles de pillarlo para intentar de desarrollar. A nivel de UI, es que Meta no te provee ningún swift, ningún swift UI para nivel de desarrollo, lo tienes que delegar sobre Unreal, que a nivel de UI pues es un pifostio, sobre Unity, que el sistema de UI de Unity es una castaña y quien haya desarrollado aquí en Unity, pues sabe, es bastante complejo, pero es que el de Apple, los tíos es que encima dan el doble mortal y te dicen que el sistema de que ellos tienen interpreta en tiempo real la iluminación de tu entorno y se ajusta, para que sea más realista.
Pero es que encima, que a mí es lo que ya me vuelve a la cabeza, es que el sistema NYU que se posiciona en tu entorno, es capaz de castear, de de de enviar sombras a los entornos de tu al entorno real, a la mesa mía real, de repente yo veo con las Vision Pro como el el el menú flotante que tengo enfrente está enviando sombras a mí o proyectando sombras sobre mi mesa. Entonces, están llegando un grado de realismo que no ha habido ningún dispositivo a día de hoy que se pueda hacer. ¿Qué queremos ver nosotros? Queremos ver, aparte lógicamente de cómo se cuenta todo el entorno, de cómo se comunica y precisamente por eso, como decía, pues estamos contigo en la parte de Swift para irlo aprendiendo, cómo se trae el contenido tres D, porque ahí sí que es cierto que Apple ha llegado a un acuerdo con Unity, es decir, ha llegado a un acuerdo con Unity para que el contenido de Unity que yo desarrolle en Unity, se traduzca, digamos, que en tiempo real o que una pre una preprocesamiento, con una cocina por detrás, para que todo el contenido de Unity pase a niveles nativos de de Apple.
Y eso es lo que Unity presentó, que le llama el Polies Passion. Que todavía no se le ha visto por ningún lado, ¿vale? Pero, ¿qué es lo que Unity llamó el Polies Passion? Entonces, supuestamente han llegado a un acuerdo para hacerlo. Luego, la gente de Apple, pues, te servicio a
través de Lo tiene ya el, yo el otro día instalando la la última beta de Unity, ya incorporaba Vision OS como uno de los targets de dispositivo para instalar, o sea que ya deben de esa versión. Sí tiene
el quote spathy, ¿vale? Yo creo que no sé si lo tiene, yo creo que cuando lo haces, lo haces para que se vea como con render de Unity, pero hay como, yo recuerdo que había visto como varios gráficos, varios, una tabla que te decía, si utilizas Swift y Swift UI el render es de como del de Apple, ¿vale? Con Metal por detrás o como fuese. Si utilizas Swift, Swift UI integrando con Unity PolySpatial, el el render es el de el de el de Metal, el de el de Apple, ¿vale? Pero si lo haces todo como desde Unity, el render es de Unity.
Si no hace la traslación a un render real utilizando toda la tecnología de base de Apple. Con lo cual, me da a mí que la calidad, lo que puedes hacer a día de hoy con Unity sin utilizar Poliespacial, no va a ser el tope de gama.
Vale, vale, en lo entendido. Vale, pues por por llevarlo a palabras que la gente que nos sigue pueda entender, digamos que se están se están dando dos posibles soluciones, ¿vale? No podemos olvidar que Unity soporta a RKit, ¿vale? Viene soportando ARKID desde hace bastante tiempo y tú puedes construir experiencias de ARKID directamente con ARKID. Entonces, lo que no es este poliespacial que está comentando Eduardo, sería coger la biblioteca de Unity, que es la que hace la traducción entre lo que tú haces en Unity y lo que se ejecuta en el dispositivo, que es como cuando haces cualquier tipo de videojuego, pues es lo que está haciendo ahora, es decir, coge el contenido que tú haces en Unity, lo traduce a través de su propia biblioteca, por lo que la biblioteca tiene que estar en el ejecutable, y eso hace que se muestre en Apple Vision Pro.
Pero este poliespacial, por lo que me estás comentando, lo que entiendo es una capa de traducción directa entre lo que tú haces en Unity y la SDK nativa del propio dispositivo a través de ARKit para integrarse de una manera completamente, pues eso, que tú por un lado haces desarrollo en Unity, pero por otro tienes ejecución nativa en el dispositivo. Por ejemplo,
Por ejemplo, mira, dentro de Unity tienes la posibilidad de utilizar los shaders. Los shaders para que la gente lo entienda, que seguro que hay mucha gente que dice que luego va a entender, pero son como escribes piezas de programación que le dices a un componente, a un objeto, cómo reaccione a la luz más o menos, ¿vale? Es decir, en función del objeto tienes un objeto con sus materiales, su geometría y en función de la luz que puedas tener el objeto se va a ver de un modo u otro. Si yo quiero cambiar el cómo ese objeto se va a ver o tener un comportamiento raro o lo que yo quiera en función de mi experiencia, yo le aplico una serie de shaders. Vale, pues los shaders en Unity son de un modo, hay shaders estándar, hay shaders que tú te puedes hacer por programación o como sea, pero la lo que subyate por detrás de los shaders, el cómo esos shaders al final se traducen a la tarjeta gráfica para que se pinten, Apple tiene sus shaders y su rollo específico.
Entonces, tú no puedes hacer una traslación directa y que la tarjeta gráfica, digamos, que tiene Apple lo lance a tope de calidad, tiene que haber un una traducción entre vale, John Unity utilizando estos shaders, de repente ese shader va a pasar a ser un shader de tipo Apple, ¿vale? Los materiales de la geometría, no, ahora van a ser unos materiales específicos porque la definición que utiliza Apple es distinta, entonces tiene que haber una traducción para que esos shaders, esos materiales se van de manera directa sobre la GPU de del Vision Pro y eso es un poco lo que hace la gente de Unity con el PollyFashion.
Claro que es un poco, esto viene de la mano de lo que muchos de vosotros ya sabéis que Apple lanzó, no hace demasiado, que es el el game develop, el game del game porting toolkid o algo así, creo que se llamaba, que es esto famoso que se viralizó de que podíamos ejecutar juegos de PC en el Mac, etcétera, etcétera, y que yo hice un un podcast explicando lo que era realmente, y lo que es realmente es una forma de traducción de esos shaders, de Dealed X en este caso, o de Vulkan a los shaders propios de metal, que esto probablemente pues este game porting toolkit pues lo habrá lo habrá integrado Unity de alguna manera, etcétera. O sea que al final cada librería gráfica tiene su forma de trabajar y su forma de funcionar, ¿vale? Y de hecho, antes preguntaban, ¿vale? Para que tengáis el dato empírico, las Oculus, las Meta Quest tres, sigo diciendo Oculus macho, tienen una resolución, los pasa a todos, ¿verdad? Tienen una resolución por ojo de dos mil sesenta y cuatro píxeles por dos mil doscientos ocho por cada ojo.
Sin embargo, las Apple Vision Pro, por lo que han dejado entrever, tienen una resolución de tres mil cuatrocientos píxeles en cuadrado, tres mil cuatrocientos por tres mil cuatrocientos para cada ojo. Aparte de que Apple Vision Pro, como podemos ver en el vídeo, tiene un procesador que es una de las cosas, porque al final el procesador que tienen las las Meta Quest tres, ¿vale? Es un procesador Snapdragon XR dos, que es de un Qualcomm de segunda generación, que literalmente duplica la capacidad gráfica, la potencia gráfica que tenían lo que tenía el modelo anterior y se nota mucho, es decir, abandonamos el gráfico tipo móvil para ir a un gran unos gráficos ya realmente serios, pero Apple Vision Pro tiene un chip M dos, que ese chip M dos lo que tiene es una potencia de tres con cinco teraflops de coma flotante en treinta y dos bits, es decir, tiene aún más potencia que la que tiene Meta Quest y sobre todo y principalmente, y esto es una cosa que hay que tener presente, es que mientras Meta Quest está haciéndolo todo con estas cámaras que tiene aquí delante, ¿vale? Apple Vision Pro tiene doce cámaras que están viendo todo el entorno y además tiene sensor LIDAR, que es capaz de hacer toda la captura de los distintos elementos.
Entonces, son cosas que al final, en fin, tienen una diferencia, por eso, Apervisión Pro tiene el M dos, para toda la parte de gestión gráfica, procesamiento, etcétera, etcétera, pero también tiene una cosa que es bastante interesante, que es el tema de los el tema de el chip R uno, ¿vale? El chip R uno es un chip que se encarga de procesar todas las señales que vienen de las doce cámaras en tiempo real y además de los sensores de inclinación de las distintas brújulas digitales, osciloscopios, etcétera, ¿vale? Que están recogiendo toda la información para trasladarla en tiempo real, es decir, ha sacado fuera directamente todo eso. Entonces, claro, es una cosa que dices, uf, eres mío, ¿vale? No podemos olvidar, ¿vale?
Aunque penséis que no es cuatro k, ¿vale? No es así, porque cuatro k es una resolución de tres mil ochocientos cuarenta por dos mil ciento sesenta, ¿de acuerdo? En formato dieciséis novenos, ¿vale? Pero el 4k no es por el ancho en sí, la lo que es el el la calidad se da por el p, y el p es dos mil ciento sesenta p, ¿vale? Por lo que estamos hablando de que esto tiene tres mil cuatrocientos, ¿de acuerdo?
Entonces, no llega a ser literalmente una pantalla cuatro k de ancho cuadrada, pero es bastante más que lo que hay ahora mismo a nivel de cuatro k, porque estamos hablando de tres mil cuatrocientos p, ¿vale? O sea, que es una resolución muy grande y que da la suficiente nitidez como para que prácticamente sea imperceptible el cambio entre lo que es real y lo que no, ¿vale? En ese sentido. Si a eso le sumas los sliders, las distintas cámaras, etcétera, que están registrando el entorno, yo me ciño a las palabras de él que para mí es el periodista de mayor confianza ahora mismo en el en el mundo mundial, que es mi amigo Ángel Jiménez, el jefe de Wanda, que uno de los creadores de Wanda, que, irresponsable del podcast binarios, que las probó. Ángel Jiménez estuvo en la presentación del iPhone en dos mil siete en la Mac World y vio a Steve Jobs diciendo aquello de vamos a presentar tres dispositivos, ¿vale?
Un móvil, un un teléfono de Apple, una una una inter Internet y un iPod y un iPod de pantalla ancha, ¿no? Y luego decía que no eran tres productos, que era solo uno. Pues eso que se da en todas las escuelas de marketing a día de hoy como una selección magistral de cómo se vende un producto y que además por detrás se le iba colgando el producto, se lo iban cambiando sin que la gente se diera cuenta como un truco de magia porque aquel iPhone no funcionaba y cuando te salías al home se colgaba y tenían que cambiarlo por otro distinto, pero él estuvo ahí, él ha podido probar Apple Vision Pro, y dice que es lo más increíble que ha probado en su vida, que no tiene palabras para describir cómo funciona el trackeo visual, cómo con tu visión eres capaz de apuntar, porque claro, uno de los grandes problemas que se le pone a Apple Vision Pro es la ausencia de mandos, porque al final estás confiando toda la interacción de tu dispositivo en las manos, y no hay más que ver cómo funcionan las manos encuestres para ver que funcionan bien, pero con con limitaciones.
Sin embargo, aquí Apple confía plenamente en que tus manos sean capaces de tocar los elementos de las interfaces y que tu visión sea capaz de hacer así, ¿vale? Entonces, claro, en fin, es una cosa que realmente, insisto, él dice que la experiencia es absolutamente increíble y esta es la primera versión. Recordemos que el primer iPhone era trescientos veinte por cuatrocientos ochenta. ¿Qué va a pasar en las siguientes versiones? ¿Vale?
Entonces, fijaros, por ejemplo, y vamos a ver esta experiencia, ¿vale? Porque es bastante curiosa, cómo funciona el lo que es la experiencia de realidad aumentada de las Oculus Quest tres. Fijaros cómo escanea la sala, ¿vale? Este escaneo, que lo hace a través de las propias cámaras con visión computerizada, lo que está haciendo es crear una geometría de toda tu habitación, porque él va a utilizar todo, el suelo, el techo, lo va a usar todo para poder crear una experiencia de realidad aumentada que esté a tu alrededor, y veis como tiene un una barra de progreso que dice sigue mirando la sala, sigue mirando la sala hasta que él considera que ya tiene un rectángulo donde puede crear la experiencia de juego y ya aceptas, ¿vale? Entonces, aquí vemos cómo empieza la parte de el juego, ¿vale?
Nosotros entramos aquí, él te pide que confirmes las paredes, te dice, esta es la configuración, estás de acuerdo, le dices que sí y te genera todo este entorno. Eso lo hace Apple Vision Pro de manera directa y cuando no tiene esa experiencia, te la predice a través de un modelo generativo que predice las partes que aún no ha visto de tu habitación, y en cuanto las ve las empieza a recordar para recordar los entornos y que todo tu casa o todo tu entorno esté perfectamente memorizado, para poder conseguir cosas como lo que vais a ver ahora, que la verdad que es algo, o sea, esto es una de las cosas que realmente convencen, ¿vale? Fijaros como ahora se empieza a romper el techo, empiezan a caer cosas a lo que es el suelo, ¿vale? Porque lo que va a venir es una nave espacial, ¿vale? Esta es una app que viene de demostración en las quest tres para enseñarnos cómo es esta experiencia.
Entonces, viene una nave que sale del techo, te lo rompe, ¿vale? De hecho, le he tenido que mandar la factura a Meta para ver si me arregla el techo, porque ya les vale, ¿vale? Entonces, a ver si esto se arregla y también, pues, luego tuve que pasar al aspirador, etcétera. Y como veis, tenemos ahí una nave, podemos mirar hacia arriba, ¿vale? Y ahora la nave nos ofrece una pistola y entonces yo me acerco, ¿vale?
Cojo la pistola y ya tengo esa pistola donde como veis es como una especie de cámara que al apuntar a las paredes me permite ver el entorno que hay detrás de las paredes. Es como si tuviera un mundo, un universo detrás de las paredes de mi casa. Y ahora empiezan a aparecer bichos que están rompiendo la pared, veis cómo están tirando elementos, y veis cómo rebotan esos elementos en los muebles que yo tengo, porque los ha metido dentro de ese mapa tridimensional, y cómo respetan y caen a través de los distintos muebles, a través de rebotando en los distintos elementos, hasta que te salen estos bichos que tienes que ir capturando y capturando, disparándoles, ¿vale? Y metiéndolos en una especie de puyo, puyo, ¿vale? En realidad aumentada, para que vayan y entonces ves cómo te va rompiendo las paredes, ¿vale?
Luego ni siquiera te te la arreglan, te la dejan así, o sea, es por eso solamente veis este trozo, porque todo lo demás me lo dejaron destrozado, ¿vale? Y empiezas a a hacer este tipo de y como veis la la integración que tiene y cómo te ha metido en ese espacio y ahora empiezas a jugar, es realmente increíble, ¿vale? Y estamos hablando de una prueba, entre comillas, que podríamos llamar que está en beta, ¿de acuerdo? Claro, todo esto requiere de una iluminación muy grande, ¿vale? Yo tenía todas las luces encendidas de los directos, del set, etcétera, para que tuviera la suficiente iluminación para poder ver bien el entorno, y como veis la experiencia resulta lo suficientemente real y fluida como para que realmente llegue un momento en el que te plantees y digas, oye, es que estoy en mi habitación luchando contra unos pequeños bichos que los estoy ahí capturando y que tengo que buscarlos y que se meten detrás de la silla, porque aquí sí hay oclusión, ¿vale?
Porque aquí te pones y lo ves y está detrás de la silla porque te ha mapeado la silla, ¿vale? Porque ha hecho un mapa completo de tu entorno antes de darte el juego, por lo que si tienes una silla en medio como tenía yo, el bicho se mete detrás de la silla, ¿de acuerdo? Entonces, este es un tipo de experiencia que realmente sí te vende el dispositivo y dices, hostia, es que esto ya es otra cosa. Imaginaros lo que puede ser esto con Apple Vision Pro o con las próximas Meta Quest cuatro o Meta Quest Pro que saquen de segunda generación, que sean más caras, etcétera, y que ofrezcan más calidad, ¿vale? Y esto es simplemente una experiencia, digamos, lúdica, ¿no?
Una experiencia de de jugar a un juego, que es muy divertido, etcétera, etcétera, pero realmente es algo que es impresionante, ¿vale? O sea, esta es una de las cosas que realmente venden dispositivos, ¿vale? Porque si tú ves estas posibilidades dices, guau, claro, esto es lo único que hay de estas características, hay otras experiencias, ¿vale? Que son muy del son más del estilo de, bueno, pues una cosa, por ejemplo, hay una versión, ¿no? De de que puede jugar al ping pong y tal, pero no funciona igual de bien, no posiciona bien la mesa, la pone demasiado grande, cuando juegas sí juegas bien, pero realmente aporta poco, o sea, todavía tiene mucho recorrido para poder hacer, pero esto es una pequeña demostración y por eso quería que lo vierais, de lo que realmente podemos llegar a alcanzar con esta tecnología, ¿vale?
Entonces, imaginar cuando todo esto esté al alcance de lo de de de cualquier tipo de experiencia a nivel general. Obviamente esto va a ser mucho más complejo hacerlo con Apple Vision Pro, porque para hacer esto hace falta tener conocimiento de desarrollo tres d, de mecánicas de videojuego, de cosas que son más serias. Aquí va a hacer falta que toda la gente que ahora mismo desarrolla para entornos de Meta Quest, etcétera, quiera poner sus aplicaciones en los entornos Apple, mientras que hacer aplicaciones de productividad, etcétera, etcétera, para Meta Quest va a ser más complicado porque no tiene las mismas herramientas, ¿vale? Entonces, tú, ¿qué qué qué qué sentiste o cómo viste esto cuando lo cuando lo probaste y qué impresiones te da en cuanto a lo que es el futuro, ¿no? Que puede tener esta esta plataforma y este cambio, ¿no?
De paradigma, de pasar a este mundo de realidad aumentada en cuanto a nivel lúdico, entretenimiento, etcétera, etcétera.
A ver, yo lo que creo es que esto que está lanzando la realidad aumentada tanto Apple como Meta, esta realidad mixta la que te mezcla el mundo real con el mundo virtual, creo que es un paso intermedio hacia el punto real donde quieren llegar que vendrá dentro de x años, que al final son las gafas chiquititas donde tenemos, pues unas gafas muy chiquititas con un cristal normal como lo que tú puedes tener ahora mismito, pues contenido virtual integrado de entorno real. Como eso todavía es muy complicado de desarrollar por un tema del estado del arte de la tecnología, donde se juntan temas ópticos, físicos, de nanotecnología, de disipación de calor, cosas muy complicadas, hasta que llega a ese punto, se llega a un punto en el que vamos a lanzar realidad aumentada, integradas dentro de unas gafas de realidad virtual, donde con esa retroposición que decía antes, pues se ve el entorno, se ve ese entorno real y posiciono elementos reales. A mí me parece muy interesante, creo que abre doscientos mil casos de uso y que permite que podamos hacer cosas que quizás antes no podíamos hacer. Permite tener la sensación un poco de que la gente ya no está tan aislada, te permite hacer mecánicas por ejemplo de juegos como la que estás viendo que es el first end counters que por cierto el technical leaf Isabel Sierra que ha sido compañero mío en en mil batallas de proyectos hasta hace nada y y y entonces se pueden hacer cosas bastante bastante chulas.
Creo que no es el punto final, pero creo que es un punto pues muy interesante donde ya has comprobado tú mismo cuál es el nivel un poco de inmersión de realismo en ese tipo de experiencias. Creo que no se van a llegar a juegos donde la profundidad del juego sea muy muy importante. Es decir, creo que los juegos donde para los hardcore gamers donde yo pueda estar muchas horas van a estar más del lado de la realidad virtual que del lado de la realidad mixta. Veo que dentro de la realidad mixta veo juegos quizás más casuales, más mini game, donde tú puedas estar en tu entorno haciendo algún tipo de cosa, por ejemplo, first end counters, el que has puesto el vídeo, es un mini game. Te implica estar de pie, es un juego más físico.
La gente, los árbol gamers de VR tienden a estar generalmente sentados, o que son varias métricas que la gente los jugaba más sentados aunque se podía desplazar. Las Apple Vision Pro, por cierto, tiene una limitación a nivel SDK a día de hoy en el que si desde el punto de partida en el que tú configuras la escena, te mueves más de un metro y medio, que en es creo que es el radio, ¿no? El diámetro, es decir, el radio desde tu centro, tú como centro, y te va desplazando más de metro y medio, directamente dejas de ver contenidos virtuales y entonces ves únicamente en el entorno real. Con lo cual parece que en primera instancia las Vision Pro no se van a poder plantear experiencias, lo que se llama location base, es decir, que tú te puedas mover por todo el entorno, ¿vale? Te vas a poder mover, como digo, es como desde el centro, un paso y medio, más o menos, desde donde tú te encuentras.
Entonces, es todavía como más refuerzo en relación con la parte de productividad, con la parte de entretenimiento, pero más estática, y con la parte de experiencias donde estás queriendo ofrecer o ellos estás queriendo que están queriendo que el entorno ofrezca cosas de visualización donde yo pueda ver, alguna cosa donde me pueda mover, pero no lo van a llevar al plano tan experiencial como parece que lo está llevando obviamente la gente la gente de meta, ¿vale? Entonces es curioso esas dos aproximaciones como se están planteando. Creo que va a sustituir esto a la realidad virtual, creo que en absoluto, creo que la viene para complementar, con esos casos de uso que vayan a surgir. Es normal que todavía no haya cosas porque esta aplicación de first end couters ha sido financiada por Meta. Entonces, claro, han tenido acceso al SDK de Meta de manera preliminar para poder desarrollar.
Han lanzado las Meta Quest tres con esta de first end coders y con el resto de algunos estudios corriendo a todo meter para intentar adaptar, pues como tú bien decías, por ejemplo, la del pimpón, ¿vale? Pues eso, a todo meter, oye, rápidamente ponlo que lo vamos a tener. Entonces, bueno, pues es un poco en la aproximación. Luego también me gustaría comentar en relación con el tema del panel, que estáis hablando acerca del panel, de si tres k, cuatro k o lo que fuera, no es solamente con mucho más nitidez y saturación a los colores, a la imagen, que el LCD que, por ejemplo, tiene las Meta Quest tres. Luego hablamos de algoritmos de suavizado, que también tiene la gente de Meta, que pero por supuesto va a tener la gente de Apple, de algoritmos de up scaling para intentar hacer como generar mayor resolución de la que hay y esto sabemos que la inteligencia artificial generativa ha utilizado muchísimas cosas donde tienes una una textura de un k y de repente te la saca a cuatro k y es que se ve perfecta en cuatro k o a ocho k y es que se ve perfecta, entonces no es solamente el tema del panel, que también por supuesto y es una pasa una pieza fundamental, sino es todo lo que se pone por encima, o sea, se me ocurre por ejemplo, las lentes que tienen las las Vision Pro son, sabéis que cerró un acuerdo con Faze, Faze, que se dice la la empresa, que es una empresa top uno mundial en cuanto a temas de lentes, mientras que yo no sé qué tipología de lentes, más allá de la tipología se llama un pancake, que te permiten que sea el dispositivo mucho más estrechito, que la tiene la gente de meta.
Entonces, es que en toda la en todo el stack de pantalla, lentes, algoritmo, tipología de pantalla, tienen como un bestting class, tienen como como lo mejor de lo mejor de lo que pueda ver, lo meto y lo lanzo
al mercado. Sí, efectivamente. Y de hecho, a ver, tú al final, claro, es un poco el cambio de filosofía. Por ejemplo, yo te aporto algún dato más de lo que has comentado, ¿vale? Por ejemplo, el modo inmersivo en Apple Vision Pro es un modo similar a cuando tú pones un vídeo a pantalla completa, ¿vale?
O cuando principalmente es algo parecido a cuando tú una app del Mac le das al botón de full screen y se pone la aplicación a pantalla completa. Es decir, es un modo opcional, no es un modo, es cierto que tú tienes la lo que es la corona digital para poder optar a un cambio u otro, ¿vale? Para ciertas situaciones, como la chica esta que se ve en el avión, etcétera. Pero Apple Vision Pro va a intentar primar siempre la experiencia de, como se está viendo ahora, de que tú veas las cosas sobre el entorno real, Que luego quieres hacer la flipada de verlo dentro de Trántor, ¿vale? Y quieres ver fundación dentro de Trántor, pues puedes directamente darle a el entorno y entonces ya así se entra, como vemos ahora, la experiencia inmersiva, y ahí ya estamos hablando de realidad virtual, pero es una realidad virtual en el que tú estás parado en un sitio muy concreto.
Y en el momento en el que alguien que esté a tu alrededor se acerque a ti, automáticamente se va a meter en tu entorno, ¿vale? O sea, tiene preferencia la realidad con respecto a el entorno de realidad virtual, porque Apple no quiere que esto sea realidad virtual, quiere que sea algo inmersivo que forme parte de tu día a día, que se incorpore dentro de tu entorno y que no te dé el problema, ¿vale? Cuando hemos estado viendo antes el Red Matter dos, por ejemplo, veíamos que en muchas ocasiones aparecía una rejilla a mi alrededor, ¿vale? Esa rejilla es que yo me estoy aproximando a una zona de límite en mi entorno, ¿vale? Entonces, en el momento en el que me aproximo a esa zona de límite, ya estoy, pues, que me puedo chocar con la pared, ¿vale?
O me puedo darle un golpe a algo, chocarme con la tele si estoy en el salón, etcétera. Entonces, tenemos ese límite. Aquí Apple eso no te lo va a permitir, en el momento en el que tú estés en el entorno inmersivo, ¿no? Que es como ellos llaman a la VR, y inmediatamente te acerques a algo a menos de medio metro, inmediatamente te lo va a poner, ¿vale? Te va a levantar el modo inmersivo y te va a poner la pared delante, por lo que el modo inmersivo es un modo que no va a ser el principal, no va a ser el modo en el que queramos hacer, será un modo de veo algo muy concreto en una en una circunstancia muy concreta, pero el noventa por ciento del tiempo esto se va a utilizar con Passthrough, ¿vale?
Y es un poco la idea, igual que, pues como estamos viendo, poder poner el monitor del Mac directamente a cualquier tipo de resolución, etcétera, y la gente que lo ha probado, con la que yo he hablado, como Ángel Jiménez o Víctor Abarca, etcétera, pues son gente que lo que te dice es que la la capacidad de poder ver esa pantalla, de poder leer esa pantalla, de poder tener esas pantallas delante mía, es una experiencia que permite un trabajo real y repito, estamos en la primera versión, ¿vale? Y podemos trabajar con eso de manera real sin ningún tipo de problema. Claro, hasta que no las probemos nosotros y nos convenzamos nosotros, vamos a seguir pensando que esto es como como unas quest tres, que realmente lo que dice Nikon es un meme y que esto nos sirve para trabajar con ellas todo el día puestas, ¿vale? Entonces, habrá que probar o no. Y eso nos lleva a otro punto bastante curioso, que es, y lo estamos viendo ahora, el momento petaca.
El momento pongo la batería en el dispositivo o no pongo la batería en el dispositivo. Sabes que cuando se presentó Apple Vision Pro, la gente criticó el hecho de que la batería estuviera por fuera. ¿Tú cómo ves esto, Eduardo? Pues, a
priori, uno podría pensar que llevarlo a la batería dentro del dispositivo podría ser una buena decisión, por el hecho de no tener que tener un cable, que no es estético, no tener la batería colgada a algún sitio. Pero claro, el tener la batería de metido dentro de la de la gafa, primero modifica el tema del peso, eso por un lado, calienta más el dispositivo, ¿vale? Eso por otro, y yo creo que de cara a la devolución de los siguientes dispositivos, ya te ancla ese concepto, ¿vale? Es decir, es más fácil empezar poniendo la petaca fuera, lanzando toda la parte de batería aquí y en el futuro incluso del procesamiento también en la petaca, y luego en el futuro, cuando la tecnología evolucione, integrarla dentro de la gafa, que inicialmente jugártela, meterla dentro de la gafa, que ya estés anclado para el resto de versiones, porque lo que tú no puedes hacer es lanzar una primera versión donde no hay Petaca y lanzar una versión dos donde hay Petaca, ¿vale? De hecho, en en Oculus, ahora Meta, integraron todas las baterías en la parte frontal por delante de de las está como la la pantalla, y delante de la pantalla tienes la batería.
Eso decían que a veces calentaba demasiado la pantalla, que quedaba sobre alguno de los píxeles, que incluso a nivel de, ¿habéis visto que a nivel visto que en el de marketing siempre te dice, la gafa pesa no sé cuántos gramos, ¿vale? Eso no marca la ergonomía en realidad. Es decir, la ergonomía viene marcada no por el peso, sino por la distribución del peso. De hecho, no recuerdo quién decía que quería introducir una nueva métrica a la hora de terminar la ergonomía en realidad virtual. Y no era tema de hablar de los gramos del dispositivo, sino como de la torsión que te implicaba en el en el en el cuello.
Es decir, hay hay unas métricas de torsión físicas, de decir, cuánta fuerza tengo que aplicar para la torsión de lo que fuese, y te decía, oye, ¿por qué no hablamos un poco de cuánta torsión tengo que yo aplicar? ¿Cuánta fuerza tengo que aplicar yo en el cuello para mantenerme erguido con la gafa puesta? Porque eso debería ser, de verdad, la métrica de confort. Otros dispositivos lo que han hecho es mover la batería de aquí adelante a aquí atrás, como ha hecho por ejemplo la gente de PlayStation u otros, ¿vale? Para intentar decir oye pues vamos a intentar equilibrar el peso hacia la parte de atrás.
Entonces yo diría, para mí la gente de Apple ha hecho bien en llevar toda la parte de batería hacia afuera en una primera versión, Porque eso les va a permitir de cara al futuro poder integrar más cosas incluso a la petaca si es aceptada y cuando mejore toda la tecnología ya integrarlo y decir que ya no necesita ningún tipo de petaca.
Es una es una buena forma de de verlo, porque una de las cosas que yo he notado con esto, ¿vale? Es que realmente, a ver, sí, yo puedo pensar y decir, ¿vale? Este dispositivo es genial, tiene un precio realmente bueno, pero claro, esto, fin, esto ya sabes que, fin.
Este, entonces,
no, las, o sea, es decir, a mí me ha costado, ¿vale? Me ha costado encontrar el punto de confort para poder tenerlas mucho tiempo, porque si no llega un punto en el que sientes que te tira de aquí atrás y te genera un dolor que es bastante molesto, ¿vale? Y es simplemente intentar buscar ese punto de mover del tal, de no sé qué, al final ya consigues ese punto perfecto y ya, pum, ya puedes estar el tiempo que quieras, ¿vale? Pero con las Meta Quest dos me costó un pelín, pero bueno, al final más o menos conseguí ese punto, con estas me ha costado un poco más encontrar ese punto de confort. Porque
Son, yo sé que son más estrechas por el tema de las lentes pancakes, son más estrechas y deberían ser económicamente más cómodas con el con la con la correa base. Hay un azul strap que te la puedes poner, que ya es como como de plástico hacia atrás, que ya redistribuye mejor el el peso, pero claro, al coste de ochenta euros, ¿vale? Pero
Incluso, ya sabes que se está hablando también de los vinilos que le poner y tal, que tienen un precio Apple totalmente, es decir, Meta se ha dado cuenta que ahí puedes sacar mucho mucho beneficio, ¿no? También, por ejemplo, la lo que es la cobertura me parece que es muchísimo mejor que la de Quest dos, porque prácticamente te tapa por completo. Pero hay una cosa muy importante, y es que esto, vale, tiene una tiene como una especie de abertura y tiene las lentes puestas por debajo, ¿vale? De forma que tú puedes ponerte, o sea, yo me las pongo con mis gafas, ¿vale? Porque si no, no veo, lógicamente, lo vería borroso.
Yo me lo pongo con mis gafas y funciona perfectamente. Las Vision Pro no puedes.
Ya, no te quito.
Las Vision Pro no te puedes poner lentes, no puedes poner tus propias gafas. Si quieres ponerte las Vision Pro tienes que, a, ponerte lentillas o, b, comprar unas lentes graduadas. Calcéis porque esa lente que se le pone directamente a la Porque, claro, esto también es un poco también la la la cosa curiosa, ¿no? Es decir, esto es un producto que al final me lo pongo yo, si quiero, pues, se lo pone mi mujer o se lo pone mi hija o se lo pone mi hijo, luego juegan, lo tal, que es un poco como tenemos la quest dos, ¿vale? Pero Apple Vision Pro está concebido como un producto de uso personal.
De hecho, se desbloquean con tu retina, igual que un iPhone con Face ID, etcétera. Y no solo eso, sino que si tú quieres que alguien que no sea el dueño de Apple, el el dueño del del del dispositivo lo utilice, tienes un modo invitado que tienes que activar en las opciones del dispositivo, que te da cinco minutos para que la otra persona se las ponga y las pueda usar, pero tienes que que autorizar te
digo, cómo no. Sí, sí, sí, tiene,
es es un modo invitado. Entonces, tú activas el modo invitado, ese modo invitado te activa un temporizador de cinco minutos y es el tiempo que la otra persona tiene para ponérselas. En el momento que la otra persona se las pone, todo el acceso a la información personal está bloqueado, o sea, no puede ni acceder a tus mensajes ni acceder a tu contenido ni acceder a nada, ¿vale? Entonces, funciona de esa manera, porque
Eso en Meta se llama modo quiosco, eso se ve, en Meta existe y se llama modo quiosco.
Pues, aquí tienes que, aquí viene activado por defecto y no se puede desactivar, por lo que es un dispositivo de uso personal. No solo eso, es que las lentes que ha comentado Eduardo, que están hechas por calface y que son las que están delante de lo que son los las propias pantallas, etcétera, para dar ese ese elemento, son magnéticas, ¿vale? Es decir, se pueden quitar o poner de manera magnética, de forma que cuando tú te las compras y tienes problemas de visión, ¿vale? Nunca mejor dicho, te venden unas lentes aparte graduadas que además tienen que tener un informe de un tipo muy concreto que hay en Estados Unidos, que clínicas oftalmológicas y tal, ¿vale? Es como como un estándar, ¿no?
De de documento oficial, en el que cuando das eso, Calseis va a tener en todas las tiendas un set de distintas lentes correctivas, de forma que se le pondrán a tu dispositivo y por lo tanto, en fin, pues trescientos pagos que valen la lente correctiva, ¿vale? Entonces, claro, parece ser que las lentes no graduadas también las vas a tener, obviamente, y si quieres que alguien que no tenga tu graduación las use, pues tienes que quitar esas lentes y ponerlas nuevas, ¿no? Que si insisto encajan magnéticamente. Pero, en fin, como digo, es un es un dispositivo que está pensado para uso personal. Y aquí también entramos, y con esto vamos cerrando, con el tema de las experiencias compartidas, porque está claro que esto está pensado para que lo podamos usar más de una persona a la vez.
¿Cuál ha sido tu experiencia con las experiencias compartidas dentro de estos dispositivos? A nivel de todos tenemos las gafas o cada uno en su casa o incluso varias personas en la misma casa, etcétera. No sé si has llegado a tener esa experiencia de varias Metawest dentro de un mismo entorno, etcétera. ¿Cómo ves esa experiencia? ¿Crees que es algo que es tan?
Porque al final Meta tiene ese tema social, ¿no? ¿Crees que es algo que están promoviendo, no? De alguna manera. Sí,
es curioso porque en el dos mil quince la gente, dos mil dieciséis, yo creo que la gente de Meta compartió en un mundo plus connect que el setenta por ciento de las experiencias sociales que veían eran con varias gente en la misma habitación, que estaban como probando incluso las experiencias de manera conjunta, que es lo que ellos llamaban el Beat together. Es que imagínate que estaba probando la experiencia, por eso oye tío me he comprado esta espérate y estaban como en la misma en la misma sala. A ver, yo he tenido varios momentos como de, no sé, como de magia ¿no? Dentro del mundo este de la realidad virtual, el primero fue por supuesto cuando lo probé, vale, en dos mil catorce que aluciné y cambié todo para meterme, hecho de probarlo con un una Samsung GearVR que no eran ni ni posicionales, es decir, que eran como para ver vídeos de sesenta simplemente. Sí, sí.
Y ya Eso, vale. Me la recuerdo que
me las que supongo que tú también la habrás hecho, en el parque Warner, en la montaña rusa de No, no, no lo probé, la de Batman, dices la de Batman. Sí, sí. No sé
si la gente sabe, no sé si la gente sabe que también se utilizaron en el parque de atracciones de Madrid y que no frenaron a tiempo el uno de los vagones y la gente se comió al de adelante. Eso es oído, eso lo podéis buscar si buscáis accidente parque de atracciones de Madrid y hubo gente que se dejó los dientes ahí. Vamos, ¿qué qué pasó? ¿Qué pasó? Porque no estaba coordinado bien a nivel de programación, el momento de parada de, tal vez la gente, claro, tiene la la vista bloqueada, está viendo su experiencia y cuando de repente para el vagón, la gente no pone las manos, entonces se comió, no no hay una correspondencia entre lo que físicamente estaba haciendo el vagón con lo que se estaba viendo desde la gafa.
Como como comentario, por favor.
Sí, sí, yo recuerdo que cuando probé estas estas, porque eran unas Samsung Gear VR, la experiencia estaba perfectamente sincronizada con el con el movimiento de la montaña rusa y la verdad que era bastante impresionante. Obviamente eran gráficos Android de baja calidad, etcétera, pero pero esa coordinación entre la atracción y lo que estabas viendo creaba desde luego una una experiencia bastante bastante curiosa, ¿no? Entonces, continúo con el
Sí, entonces, bueno, el primero fue probarlo, el segundo fue al año siguiente cuando de repente vi mis manos sin necesidad de tener mandos, que fue con una slip motion, que es un dispositivo que te ponías por delante de la de las gafas y programabas y recuerdo que te veía unas manos, que era un tres D, que obviamente no era mío, pero que recuerdo que las moví, las veía en realidad virtual, decía, ostras brutal. Y el siguiente fue creo que en ese mismo año en octubre en dos mil quince, en octubre de dos mil quince la gente de Opus liberó por fin el SDK para el desarrollo de entornos sociales donde te conectabas con con gente, pues yo recuerdo que lo había liberado liberó poco a poco por países, primero fue en Estados Unidos y luego ya a como a la semana siguiente lo liberó en Europa Y era un sábado por la mañana en el que yo me sentí y dije oye voy a probar esto, se llamaba Cookul Social, recuerdo. Entonces te metías en un cine, yo metí en el cine, no había nadie, estaba solo en el cine y de repente en un momento dado escucho un ping o algo así y entonces de repente me giro y veo un cubo, un cubo con ojos que me mira y me empieza a hablar en inglés, hola que tal no sé qué Yo entonces en ese momento empecé a hablar un poco con él y en un momento dije dije, dije, espera, espera, espera, espera, sí estoy hablando con un cubo con una sensación de de verdad de estar hablando con alguien.
Tenía todos los gestos de la cabeza se obviamente se trasladaban en tiempo real a ese elemento geométrico, al cubo, veía un parpadeo que no era el parpadeo suyo real, pero que hay algoritmos que simulan el parpadeo para que sea más o menos real, sí que percibía el tema de la voz y en función de la voz del audio iba modificando un poco cómo la boca del cubo se iba moviendo, y quiero decir que ya en el dos mil quince hablando con un puto cubo que no tenía ninguna forma antropomórfica de ser una persona, ya recuerdo que me quite la caja y dije me estoy dando vueltas solo por eso, como esto esto es brutal. Tenía la sensación de estar hablando con alguien, todo esto ha evolucionado con la introducción de los avatares y claro, es que yo invito a la gente que de verdad pruebe a hablar con otra persona, aunque sea un avatar cartoon da exactamente igual. El grado de presencia, grado de sensación de estar con la otra persona es alucinante. Para entretenimiento, para formación, para lo que se os pueda ocurrir, para trabajar, es alucinante. Lo único, lo único disccreaming que yo haría a la hora de introducción de esos avatares cartoon es que nosotros hemos probado que los avatares cartoon, dentro de entornos de negocio para el tema de trabajo, sobre todo en empresas grandes muy jerárquicas, no acaba de funcionar salvo que lo introduzcas en un equipo más plano.
Quizás el jefe o la jefa piensa que estoy mal gorda, menor gorda, la gente en la conversación les va a ir más, pues tiene más pelo, tiene menos pelo, pues te parece más, te parece menos. Entonces en áreas de entretenimiento me parece brutal, en áreas de grises me parece más complicado. Por eso la gente de Meta está lanzando el proyecto de Collec Avatas, que es un hiperdalismo cien por cien de tu persona para entretenimiento, pero sobre todo para, por ejemplo, como ahora estamos teniendo este este podcast en tiempo real y por eso la gente de Apple lanza al proyecto de personas, que también has propuesto algún vídeo en el que salía un poco a la gente cómo se escaneaba y cómo estaba luego reflejado, para trabajar. Entonces yo diría que muchas veces cuando enseña a la gente el tema de la realidad virtual, aparte de poderles contar un poco los casos de uso, lo que les digo es, quiero que lo pruebes socialmente, quiero que te conectes con otra persona y que entiendas cuál es la sensación, lo que tú vas a sentir de verdad hablando con otra persona, porque es brutal. Y teniendo en cuenta que, por ejemplo, las Quest Pro que tienen I tracking y face tracking, o las Vision Pro, tienen ese I tracking, ese face tracking, y que todos mis microexpresiones se llevan en tiempo real a otro entorno.
Esto que estás poniendo, por ejemplo, es el proyecto de Codek Avatars y este es Mark Zuckerberg con Lex Friedman hablando con él, mirad lo que dice Lex Friedman en durante, vale la entrevista, la entrevista son dos horas, muy interesante, realmente más técnicos de cómo se genera todo eso, ahí tienes la ahí tienes la Sprout, que aquí las que aquí los tengo, es la serie de gafas que está justamente Lex Friedmany y Zuckerberg teniendo en ese momento y claro lo que hacen es que tienes que coger, por ejemplo el proceso era Lex Friedman y Zuckerberg se tuvo que ir a un estudio de captura para que le capturasen con distintas expresiones lo que se llaman los blend shades en tres d, distintas partes de la cara en función de expresiones. Todo eso luego generaban su avatar enriquecido y en tiempo real luego podías tener esta experiencia donde cada uno estaba en un punto de del planeta, y ya veis como en tiempo real está capturando a la izquierda lo que en tiempo real está haciendo, a a la mitad tenéis el modelo sin texturizado y a la derecha tenéis el modelo texturizado. La única diferencia es que en realidad toda la microexpresión o expresión que tiene el personaje en tiempo real, no es cien por cien la que tiene en el mundo virtual.
Decía por ejemplo Zuckerberg que a él no le habían capturado con una sonrisa muy amplia y que a veces se reía muy ampliamente y su avatar no tenía una sonrisa tan amplia.
Él tampoco tiene una sonrisa muy amplia.
Es muy robótico, es muy robótico, pero es curioso cómo lo poco lo lo comentaban. Entonces yo invito a quien tenga la posibilidad de verdad de probarlo socialmente es que estoy seguro que va a flipar, pero a flipar una buena experiencia social, y de verdad que el grado de presencia es es increíble, y por mucho que lo pueda decir, como decía John Karmak, hay que probarlo para entenderlo, como se decía en Matrix, no te puedo explicar lo que es Matrix si no lo vives.
Ese es el tema. Yo, por ejemplo, he tenido una experiencia parecida y, de hecho, hablé de él, de esa experiencia en el podcast de Beganeiser con nuestro amigo Oliver Navani, y fue probando precisamente Facebook Work Rooms, ¿vale? Probando esa opción en la que al final después de mucho sufrimiento Oliver consiguió configurar su cuenta de Facebook porque tiene su mandanguita, ¿vale? O sea, de locos llegará a que todo funcione y luego, de hecho, también, por ejemplo, el el Meta remote desktop, hasta hace muy poco solo funcionaba en Mac, ahora ya si reacciona también en Windows, además Meta desktop es capaz de verte el teclado, ¿vale? Y es capaz de capturarlo y ponértelo y que tú veas una especie de mezcla de las manos y tal y cual, y lo que hace World Rooms es crearte, pues, una oficina, ¿no?
Entonces, él al final consiguió entrar en la oficina y cuando ya estaba dentro, la sensación es absolutamente brutal. Primero, o sea, realmente llega un momento en el que dices estoy con la persona en el mismo sitio, ¿vale? Oliver estaba en su casa y yo en la mía. Sin embargo, a ver, tenemos que tener presente, aunque no lo parezca, ¿vale? Estos altavoces que tenemos aquí, que son los altavoces, ¿vale?
Estas pequeñas líneas que hay aquí son los altavoces de la lente, ¿vale? Eso consigue una calidad de sonido brutal, pero además son tres d. O sea, realmente cuando Oliver se ponía a hacer el tonto y se levantaba de la mesa porque pusimos un aula virtual, se daba la vuelta, empezaba a ponerse por detrás mía y tal, la sensación es decir, hostia, es que está realmente detrás mía, ¿vale? Es que esto es increíble, ¿vale? Y yo solo lo veía a él de cintura para arriba, ¿vale?
Con su avatar hecho en plan Facebook, utresachicero tipo mem emoji, ¿vale? Pero aún así, el oír su voz, el ver su interacción, el cómo podía escoger el mando de meta y pintar con él como si fuera un lápiz, ¿vale? Que lo comentamos el otro día, que la precisión que tiene a la hora de pintar es con esto en una pizarra es de locos, o sea, tiene un algoritmo de machine learning ahí de predictivo de no sé qué puñetas, pero os lo prometo, esto que lo veis que es más gordo que otra cosa, ¿vale? O sea, comparad esto con un Apple Pencil. Bueno, pues la precisión, de verdad os lo prometo, es la misma que la de un Apple Pencil.
O sea, yo no sé cómo puñetas lo han hecho, pero tienes la precisión de tener un Apple Pencil y esto es más tochaco, que es más gordo que cuatro rotuladores juntos de de estos de color amarillo, que cuatro Roottrings juntos, ¿vale? O sea, realmente la experiencia es fue muy impresionante y yo llegué a darle una mini clase, una simulación de clase de desarrollo, en el que mi MacBook estaba compartido a través de inalámbrico con Meta Desktor Remote, Mi Mac se proyectaba la pantalla sobre una pantalla grande que había en esa habitación, yo le iba explicando, él iba tomando notas, tal. Estuvimos como media hora, una hora probando ahí, charlando, etcétera, y llegó un momento en el que prácticamente perdimos la noción, pues yo creo que fue cuando nos saltaron las las de estas de la batería, ¿no? Pero realmente es algo impresionante, y esto hay que mezclarle el hecho de que Apple ya lleva mucho tiempo trabajando con estas experiencias a nivel de sistema operativo. A día de hoy, yo puedo con SharePlay, por ejemplo, escuchar lo mismo con dos distintos airpods.
Con SharePlay yo puedo reproducir música en Apple Music, decirte a ti, que también tienes iPhone, que escuches lo mismo que yo y oímos la misma música a través de mensajes sincronizada. Yo te puedo invitar a ir a una a un documento que tengamos compartido de pages, de keynote, de de numbers, etcétera, y que mientras tú retocas, tú ves lo que yo toco y el resto y y y yo veo lo que tú retocas, ¿vale? Igual que esa esa experiencia compartida también existe en Microsoft, obviamente. También podemos hacer lo que es la experiencia compartida de fiestas, los Watch Party, lo que es que esto está integrado ahora mismo de a nivel nativo en Amazon Prime y en Disney Plus y en Apple TV Plus, yo puedo quedar con Eduardo, puedo quedar con otra gente más o con Alberto, con quien sea, con los amigos que tengamos todo esto, quedar un día y decir, oye, vamos a ver tal cosa, y con la cuenta de uno entramos todos, vemos el contenido y está sincronizado a nivel de reproducción para que todos lo veamos a la vez y todos estamos dentro de un mismo entorno. Entonces, Apple ya lleva, o sea, es decir, yo en el año dos mil dieciocho con Pedro Aznar, la sede de de de Weblogs, cuando todavía era Weblogs y todavía no era el el nuevo tal, que ahora no recuerdo el nombre, pues en esas oficinas probamos, yo con un iPhone y Pedro con mi iPad, conectados a través de una red, a través de bluetooth, una red que ni siquiera necesitaba Internet, una experiencia de una demo que Apple sacó de una especie como de castillito de madera y tal, en el que tú podías tirar unas pelotitas y entonces esas pelotitas rebotaban en la mesa y cuando pulsaba, cuando le daban a una de esta un palito de madera, se caían tipo angly ver si tal y tú veías.
Entonces, yo estaba viendo con mi iPhone y estaba golpeando con mi iPhone, con una especie de tira chinas, como los angry vers, a a esas estructuras, y Pedro con el otro dispositivo estaba viendo en tiempo real cómo eso sucedía, y todo sincronizado a través de una red punto a punto, que ni siquiera estaba conectado a Internet, entre dos dispositivos que podían ser dos, tres, cuatro, cinco, que de la misma manera que un juego multijugador solamente enviaba los eventos que generaba cada dispositivo para que se pudiera hacer ese cambio. Y estamos hablando del año dos mil dieciocho, hace cinco años y ARKid ya era capaz de hacer esto. Entonces obviamente Apple Vision Pro va a poder hacerlo, Apple Vision Pro va a poder permitir que tú puedas estar en tu casa, yo con mis Apple Vision Pro y mi mujer con la mía, con con la suya, y los dos podamos estar viendo la misma película, cada uno desde nuestro punto de vista, con la pantalla colocada en el mismo sitio, cada uno con nuestro sonido inmersivo, etcétera. O que Eduardo esté en su casa y yo en la mía, y nos conectemos y nos pongamos dentro de un entorno virtual de, bueno, pues este elemento, porque Apple te ofrece para ese tipo de experiencias varias localizaciones.
Tú tienes la forma de visualización de espectáculo en el que todos los avatares se van a poner en un semicírculo delante de una un elemento que todos vemos que está delante nuestra y decidimos dónde nos vamos a colocar dentro de lo que es el inicio de la experiencia, también tenemos una que es alrededor de una experiencia, el punto concreto está en el centro y nosotros aparecemos alrededor de esa experiencia para que podamos ver, y entonces eligiendo un tipo de inicio u otro tipo de inicio, entramos todos en un mismo entorno y podemos tener experiencias compartidas dentro de un mismo entorno compartiendo todo tipo de experiencias y, repito, con una SDK que ya está pulida y que puede trabajarse hoy día a ese respecto. Entonces, ese es el motivo por el que Meta Facebook compra Oculus, porque el futuro de las relaciones sociales es ese, y si alguno dice, no, no, no, es que yo no voy a estar todo el día tal, vamos a ver, si ya estás todo el día mirando el móvil, contestando al WhatsApp, al Telegram, al tal, al no sé qué, si tú puedes hacerlo directamente teniendo una interacción con la persona que tienes delante, Si estamos en una sociedad que en vez de llamar al teléfono envía notas de voz que te consume el doble de tiempo, ¿qué me estás contando?
Sí, sí, sí.
¿Tú cómo ves esto a ese nivel después de así un poco viendo que realmente yo creo que es va a ser el punto en el que la gente va a entrar, ¿vale? Al final, el que mi madre me pueda escribir por el teléfono es lo que hace que todo el mundo entre en esto. ¿Tú crees que al final todo el mundo va a llegar a entrar en esto cada vez que se haga más económico, más fácil, más?
Yo creo.
Más fácil de entrar a nivel tecnológico, ¿no? Que no tenga esa falla de entrada, ¿no? Que tiene ahora.
Yo creo que estará en manos de todo el mundo cuando sea una gafa miniaturizada, chiquitita, como la que tú tienes, o incluso no será nunca como la que tú tienes, seguramente será más grande. Pero, por supuesto, Apple logrará de mano ya de otros, pero creo que Apple va a ser que va a abrir brecha absolutamente, pues que haya aceptación social, si mezclamos con influencers, con famosetes, va a ser lo que sea cool, que sea glamuroso, la gente se lo querrá poner, pero va a ser un punto en el que la gente lo pueda llevar por la calle, la que la batería te pueda estar dudando x tiempo, por eso yo creo que es buena decisión en una primera instancia sacarlo fuera de la petaca y no estar siempre al plato ya a futuro con que todo tiene que estar integrado en el dispositivo, como dice la gente de Hollow Lends, por ejemplo, que se anclaron un dispositivo en el que metían todo, todo, todo y era como una anticipación muy lejana de lo que vendría ya de cara a futuro, pero pero pero todavía muy muy muy previa, ¿vale? Entonces, creo que en ese punto va a ser un nivel de adopción de aceptación y de adopción muy importante, creo que en el punto de que va a entrar a Apple, por un tema de precio y por un tema de casos de uso hasta que todo se vaya madurando, pues va a ir más poco a poco.
Creo que es en la parte de las empresas, en la parte de formación, en la parte de marketing, en la parte de eventos, en la parte de entretenimiento y en la parte incluso de la gente trabajando momentos puntuales del día, no sé si todo el día, pero momentos puntuales del día para tener esas reuniones, para tener tal, creo que tiene todo el sentido del mundo, con lo cual pueda haber de aquí a los siguientes cinco años una introducción ya relativamente mainstream en determinados momentos del día, en una gran parte de las personas, para que lleguemos a un mainstream global, enorme, de todo el día, todo el mundo la lo que siempre dice, ¿no? La sustitución del móvil. Es decir, no estaremos interactuando con pantallas de seis, siete pulgadas, sino estaremos interactuando con nuestro entorno, con entornos digitales. Creo que a eso le queda todavía más, ojalá sea más corto, pero viendo un poco la evolución que hay con las limitaciones que hay desde un punto de vista técnico, pues creo que todavía va a quedar. Entonces, sí, viene una cosa muy fuerte, viene una cosa interesantísima, tenemos que ver por dónde va, tenemos que ver qué casos de usos surgen, esa killer app de por ejemplo el WhatsApp que decías, oye, mi madre, mi abuela, me puede escribir aquí, estoy conectado, todavía no se ha visto, pero creo que la parte de conexión va a ser conexión con otras personas, va a ser muy fuerte.
Es decir, que yo pueda estar viendo un partido de fútbol en mi casa con unas gafas, que tenga de repente un pantalla enorme, y que tenga un colega que virtualmente está a mi derecha comentando, por ejemplo, el partido de fútbol y yo tenga la sensación de estar con él, a mí eso me aporta valor y para mí es una actividad absoluta. Lo que el amigo Zuckerberg presentó con Lex Friedman del code Kabatas, a mí eso me parece una alquiler up, que todos podamos hacer ese escaneo de nuestra persona y podamos estar interactuando, me parece brutal. Y creo que la parte social, para que sea aceptado a nivel global, tiene que estar. Como no haya la parte social de interrelación, de socialización a través de nuestros alter egos digitales en ese mundo virtual, creo que no llegaría al mundo mainstream, porque al final somos animales sociales. Y entonces tenemos que sentir que ese que ese dispositivo nos conecta aún más con la realidad, aunque esa realidad no esté en mi entorno directo, sino esté más alejado.
Y eso es con con donde creo que va a ir, es decir, creo que vamos a ir con calma, pero a buen ritmo. Y creo que Apple, obviamente, cuando se ha metido en el nuevo ecosistema valida gran parte de lo que se estaba haciendo antes o al menos a nivel de sector y a nivel de ecosistema y proyecta hacia futuro, pues una cosa en la que Apple no va a lanzar una cosa y la va a dejar atrás, sino va a estar durante bastantes años empujando, empujando, empujando, hasta que incluso a nivel de cuenta de resultados les funcione, porque al principio a nivel de cuenta de resultados lo que pueda vender va a ser ínfimo en relación con todos los dispositivos, va a ser un poco más como el Whats, ¿sabes? Que empezó poco a poco, que al principio incluso un nivel de cuenta resultados lo escondían en la cuenta de resultados de otros para un poco que la gente no le cuestionase las ventas que le han tenido, y ahí irá poco a poco, pero para mí lógicamente es una parte indispensable de lo que va a ser el futuro.
Efectivamente, pues yo creo que con esto podemos dar por cerrada la conversación. Yo creo que hemos dado un repaso bastante interesante, bastante amplio a todos los aspectos. Creo que no nos hemos dejado nada por ahí y, Podríamos estar hablando hasta que salga a la venta la superficie. ¿Vale? Podríamos estar hablando hasta que salga de la venta las aplicaciones.
Ojalá, aquí en el día poner las manos encima de las gafas, podernos hacer cosas ahí fuertes ya con el tema del simulador, que sabes que vamos a hacer, Así que ya comentaremos cuando tengamos ahí más de meternos en en cocina, a mí eso me interesa muchísimo y estamos, ¿sabes? Que incluso te decía, pues ahí aprendiendo swift contigo para, para, para poderlo trabajar de manera nativa y no tener que depender siempre de Unity, de su sistema de UI, sino de intentar sacar el máximo al dispositivo en nativo y directamente desde el ecosistema de
Apple. Exacto, porque aquí estáis viendo pues eso, a dos formadores, Eduardo lleva mucho tiempo formando a las futuras generaciones de desarrolladores de estos entornos, de la idea virtual, de experiencias aumentadas, etcétera, y y ya sabéis, pues, que estoy en el tema del mundo Apple, que también llevo desde que Apple lanzó a ARKID dando formaciones, de hecho somos prácticamente la única academia en habla hispana que ha dado formaciones de ARKID a ciertas empresas, etcétera, al que siempre ha tenido ARKID dentro de lo que es el bootcamp y que, bueno, pues dentro de poco presentaremos ya el lo que es la cuarta edición, que se dice pronto, que me parece una locura, pero es la cuarta edición del bootcamp Sweet Full Stack que va a tener bastantes cambios interesantes, y uno de ellos es que este año ya no hay un módulo de ARKIT, de radio aumentada, hay un módulo completo de desarrollo en Vision OS, Desarrollo para Vision Pro, que de hecho, como ha comentado Eduardo, Eduardo está haciendo ahora nuestro Swift full nuestro Swift Developer Program, que es el el curso intensivo que empezamos a primeros de agosto, de octubre y que termina ahora a finales de noviembre, que está aprendiendo Suip UI, etcétera, etcétera, y donde vamos a tener una introducción a Vision OS con toda la parte que estamos viendo ahora mismo de Suip UI.
Entonces, bueno, pues en ese sentido intentamos ser pioneros y desde luego lo tenemos muy claro, es desde el día uno en el que Apple Vision Pro salga a la venta, si hay que irse a Estados Unidos se va, ¿vale? Pero nos traemos unas sí o sí. Así que lo dicho, muchísimas gracias Eduardo, todo un placer tenerte por aquí.
Dale, gracias. Eres mío y para mí muchísimas gracias. Es un lujazo estar aquí y lo he disfrutado mucho.
Pues nada, estás invitado a que volvamos a vernos cuando quieras, sobre todo cuando ya por fin podamos meterle la mano a a este dispositivo, y y para el resto, pues lo dicho, muchísimas gracias por estar aquí en un día como este. Y poco más, como suelo decir, muchísimas gracias a todos por estar ahí, por, bueno, pues por escucharlo, la verdad que espero que les haya aclarado bastantes cosas, sobre todo de lo que es, de lo que está por venir y de ese dispositivo que, bueno, ahora, curiosamente, aunque ya se había comentado al respecto, pero ciertamente desde que se grabó este directo hasta ahora, es cierto que sí se ha presentado el dispositivo de la compañía Humein, que saben que es Humane, ¿no? Es como que se supone que es una compañía que forma parte, de hecho son, los fundadores son dos antiguos ingenieros de Apple, de hecho, son los ingenieros encargados de los últimos cambios que hubo en iMessage y que, bueno, pues salieron de la compañía, y que mi teoría es que estos estos ingenieros fueron parte o fueron responsables en alguna en alguna medida, ¿vale? Porque, de hecho, si buscan en las w w w DC, están ahí los dos, yo creo que son parte de ese dispositivo de Apple que comentamos en el directo que nunca llegó a aparecer, de esas Apple Glass que llegaron incluso a ser filtradas con nombre y todo y que se comentaban, etcétera, etcétera, y que, bueno, pues, la verdad que nunca llegaron a aparecer, fue un proyecto en el que parece ser, si seguimos los rumores, Apple finalmente descartó y curiosamente esto que estamos viendo, este Humanein iClip o iPing o como lo quieran llamar, que es este cacharrito que parece un comunicador de Star Trek, que te pones en la solapa y que tiene todo por interfaz de voz sin pantalla, aunque eso sí, podemos hacer que refleje en nuestra mano una interfaz para poder ver cierta información a través de un mini proyector láser.
En fin, yo cuando lo presentaron, hay mucha gente que ahora está hablando muy bien de él, que esto es el futuro, que es una maravilla, que es tal, que espérate tú, que esto lo va a cambiar todo, que esto sí que es verdad, que es una un logro y no la Vision Pro. Yo, la gente que dice eso realmente se ha parado a mirar lo que es Apple Vision Pro más allá de cuatro números que son tres cinco cero cero. Hay gente que se ha molestado en mirar qué es Apple Vision Pro, más allá de de dilapidarlo o condenarlo, porque pone tres mil quinientos y como pone tres mil quinientos yo ya es que ni lo voy a mirar, porque no quiero mirarlo porque me da asco, porque son tres mil quinientos y eso solo para gente pudiente, loca y y
y y que
está de la olla, ¿vale? No no señores, están ustedes muy equivocados si piensan así. Apple Vision Pro, lo que nosotros vamos a comprar ahora, yo lo voy a comprar como empresa, ¿vale? Es un prototipo, es un prototipo a un precio absolutamente fuera de mercado, y esto estamos todos absolutamente de acuerdo, igual que están fuera de mercado los tres mil euros que cuestan las Magic Lips, ¿vale? Las Magic Lips cuestan tres mil euros, las Hollowlends cuestan tres mil y pico, las los Meta Quest Pro han llegado, cuando salieron costaban mil ochocientos, ¿de acuerdo?
Entonces, ¿de verdad? ¿Es que ese es el precio que tiene un prototipo de baja tirada que está destinado a un mercado empresarial? ¿Cuál es el error? Que Apple no ha dicho que esto sea así? Apple no ha dicho que esto sea un prototipo para empresas, ¿Apple ha dicho que es el nuevo dispositivo, la nueva plataforma?
Claro, ese es, en mi opinión, el error que Apple ha cometido, no decir de una manera clara, oigan, esto es un prototipo, esto es un producto que tiene un precio fuera de mercado y que está pensado para que las empresas lo compren y empiecen a probar, empiecen a desarrollar, empiecen a crear software para él para que cuando esto tenga un precio dentro de mercado, alrededor de los mil y algo, como mucho dos mil, ¿vale? Porque habrá varias gamas y de esto es algo que ya se ha filtrado. Yo lo comento durante el directo, hay varias gamas que se han filtrado porque habrá un Apple Vision Air, un Apple Vision, una Apple Vision Pro, el Pro probablemente sí costará dos mil, dos mil y algo, lo que cuesta un MacBook, pero también habrá por mil quinientos o por mil, ¿vale? Porque, repito, es un ordenador de Apple, ¿de acuerdo? Entonces, su precio de mercado no va a ser tres mil quinientos, ¿ok?
Y, partiendo de ese nivel, estamos hablando de un producto que es el futuro y que ya está aquí, y que nos guste o no va a llegar, y no un un pinganillo puesto aquí en la solapa que se proyecta en la mano y cuya única ventaja, porque todo lo que yo puedo hacer con ese pinganillo lo puedo hacer con mi Apple Watch y lo veo mucho mejor, o con un Huawei Watch o cualquier Watch de cualquier otra marca, porque al final esa información la tengo en cualquier smartwatch, pero no solo eso, es que la única ventaja competitiva que tiene este cacharrito, que es hablar con GPT como asistente, lo van a tener todos desde ya, de hecho yo lo tengo ya en mi móvil, yo abro la aplicación de ChatGPT y me pongo a hablar con ChatGPT en modo conversación. Si no lo han probado pruébenlo, solo tienen que arrancar la aplicación de ChatGPT con una cuenta de pago, obviamente, y pulsar sobre el el icono de auriculares que hay abajo a la derecha, y verán que tienen ustedes una conversación con ChatGPT maravillosa y estupenda, entonces, ¿dónde está la ventaja competitiva de este cacharro que ni siquiera tiene una SDK, que ni siquiera tiene ningún tipo de de de desarrollo para hacer software ni tienda de apps ni nada, es un aparato de funcionalidad absolutamente cerrado y que además no sabemos nada de su privacidad, de cómo está configurado, de cómo cifra los datos, de cómo, o sea, por favor, Entonces, en fin, pero claro, ¿qué es lo que sucede?
Que esto es un aparato que no tiene el precio desorbitante de una prisión pro y que tiene algo que competitivamente, actualmente, en este momento exacto del mercado, no tiene nadie más, que es una forma directa de hablar con GPT, ¿vale? Porque para el resto tenemos que sacar el móvil y abrir la app, ¿ok? Pero es que esto va a estar en breve porque Google ya está a punto de lanzar su asistente basado en BART y Apple está a punto de lanzar para verano del próximo año con años dieciocho, que ya se ha filtrado, que va a ser una versión muy importante para la propia Apple, porque llevará todo esto de inteligencia artificial generativa, dirán ustedes, ay, pues es que estos de Apple, pues yo no he visto nada de Apple de de de inteligencia artificial generativa, ah no, busquen ustedes en Google Matrioska Diffusion Models, ¿vale? Por favor búsquenlo, que se van a flipar. Lo que es el modelo generativo de imágenes y vídeo que ha lanzado Apple y que es público porque forma parte de los papers que están públicos en machine learning punto Apple punto com y en Arbix punto org como un paper más, ¿vale?
Entonces, Apple, al igual que el resto de compañías, lógicamente lleva mucho tiempo invirtiendo en inteligencia artificial y, como he repetido hasta la saciedad, Apple es inteligencia artificial. Desde el año dos mil diecisiete que viene trabajando con el lanzamiento de ARKID y de Core ML para todo este mundo, porque la realidad virtual y aumentada no se entiende sin inteligencia artificial, y ahora van a incluir la inteligencia artificial generativa, ¿ok? Por lo tanto, esa es la realidad. Entonces, este pinganillo, este chupipín es una estupidez, es algo que está condenado a morir y es algo que además tiene un precio absurdo, setecientos euros, que eso sí que es absurdo para mí porque creo que no lo cuesta ni de coña, y encima la coña marinera es que hay que pagar veinticuatro dólares al mes para que funcione. Pues, oye, prefiero pagar los veinte que estoy pagando de ChatGPT y punto.
Es que ese es el nivel, ¿de acuerdo? Porque no, no puedes reutilizar tu cuenta de ChatGPT, ¿vale? Porque eso lo único que estás haciendo es pagar para tener una conectividad directa que ni siquiera puedes reutilizar tu propia tu propia tarifa de datos. O sea, es que y, por supuesto, sale solo en Estados Unidos y, por supuesto, sale solo con una compañía. Sabemos, es que se han cubierto de gloria.
Entonces, de verdad, en fin, yo lo siento en el alma a aquellos que lo vean como futuro. Yo lo respeto, estupendo, es vuestra opinión, genial, el tiempo pondrá cada uno en su sitio y, si me pone a mí en mi sitio, yo seré el primero en aceptarlo. Pero, desde luego, mi opinión es que esto no sirve para nada y que, simplemente, es algo que ha llegado a partir de una campaña de marketing estratégica estupenda y que ha conseguido aparecer en casi cualquier periódico porque al final, pues bueno, hay que llenar portadas, ¿ok? Ese es el key de la cuestión. Y yo me da una pena terrible porque cada vez que miro fuera veo que la gente no está entendiendo Apple Vision Pro, y, por mucho que yo me esfuerce, al final lo único que ven es a un flipado de Apple defendiendo lo indefendible y ya está, y eso es lo que muchos de ustedes, bueno, yo sé que ustedes no, pero mucha gente pensará acerca de mí, que soy un flipado que defiende lo indefendible.
Y no, soy una persona que lleva más de seis años trabajando en estas en estas tecnologías, que sabía que esto iba a llegar y que esto va a cambiar el mundo, y lo tengo tan claro o más que cuando lo tuve cuando vi el iPad, el iPhone o el iPad, o los Apple Silicon. Así que, bueno, pues, repito, el tiempo pondrá cada uno en su sitio. Así que, bueno, no quería despedirme de este directo sin hacer pequeña homilía sobre el cacharrito este que me ha, como ven, me ha caído muy bonito y me encanta, y me voy a pedir un cuarto y mitad para el para las próximas navidades, ¿vale? En fin. Así que, pues eso, poco más.
Muchísimas gracias, como siempre, por estar ahí. Espero que les haya gustado el episodio. Ya saben que si les ha gustado, compártanlo, publíquenos, pues una reseña, un lo que sea, que eso siempre nos ayuda muchísimo. Muchísimas gracias a todos los que han escuchado el mega análisis, lo que los que lo han compartido, los que nos han dado su opinión a través de redes. A todos ellos, de verdad, muchísimas, muchísimas gracias, y a todos los que habéis estado durante todo el programa, y nos oímos pronto, si dios quiere.
Así que hasta entonces, un saludo y got Apple Coden.
Gracias por escuchar Apple Cody, un podcast perteneciente a la red independiente de podcast Wonda. Suscríbete en Qonda punto com barra Apple guión com, o síguenos en nuestras redes
sociales.
Puedes escuchar más episodios de Apple Coding en Wanda punto com. Descubre nuevos podcast en Wanda punto com, la comunidad de podcast independientes en español.