MEGA ANÁLISIS: Wonderlust, los iPhones y Apple Watch de 2023

00:00 /4h15

Nuevo evento, nuevos iPhones, nuevos Apple Watch. ¿Nuevos? ¿Cómo de nuevos? ¿Cuales son las verdaderas características de lo presentado por Apple en septiembre de 2023? ¿Hay innovación o se ha terminado?

Veamos en profundidad las novedades en un mega análisis que se adentrará en el interior de los chips, de su fabricación, de sus características… hablemos de raytracing, de IA, de chips, de los problemas de TSMC con los 3nm que han afectado a Apple, del plan maestro que seguirá en los próximos años…

Entendamos lo presentado por Apple al máximo nivel de detalle en nuestro MEGA ANÁLISIS.

Convierte en un Senior iOS Developer con el Swift Full Stack Bootcamp. Encuentra toda la información aquí: IV Swift Full Stack Bootcamp 2024.

Descubre nuestro canal de Twitch en: twitch.tv/applecoding.

Descubre nuestras ofertas para oyentes:

---------------

Consigue las camisetas oficiales de Apple Coding con los logos de Swift y Apple Coding así como todo tipo de merchadising como tazas o fundas.

---------------

    Tema musical: "Final Frontier", compuesto por Thomas Bergensen. Usado con permisos de fair use. Escúchalo en Apple Music o Spotify.

    Transcripción


    Wanda, la comunidad de podcast independientes en español. Nuevo

    evento, nuevos iPhones, nuevos Apple Watch, nuevos ¿cómo de nuevos? ¿Cuáles son las verdaderas características de lo presentado por Apple en septiembre de dos mil veintitrés? ¿Cuál es el índice de medición de esa innovación? ¿A innovación? Veamos en profundidad las novedades en un mega análisis que se adentrará en el interior de los chips de su fabricación de sus características, hablemos de retracing de IA, de chips de fabricación de los problemas de TSMC con los tres nanómetros que han afectado a Apple del plan maestro que seguirán todos en los próximos años.

    Entendamos lo presentado por Apple al máximo nivel de detalle en nuestro mega análisis, ahora en el podcast Apple con Intemporada diez, episodio número uno, comenzamos. Estás escuchando Apple Coding, Hola y bienvenidos a un nuevo episodio de Apple Coding. Soy Julio César Fernández, Evangelista de desarrollo en entornos Apple, creador de contenido, blablablá, y bienvenidos a esta décima temporada ya de Apple Goding. Parece que fue ayer cuando empezamos en el año dos mil quince a emitir esa primera temporada de Apple Goding, de, bueno, pues esa idea loca que tuve de decir, bueno, pues a lo mejor a alguien le puede interesar lo que pueda yo contar sobre mi experiencia en el mundo tecnológico Apple, ¿vale? De cómo intentar entender la tecnología desde dentro, puesto que yo veía como persona que además trabajaba o había trabajado en aquel momento, había trabajado, tenía colaboraciones, aún no estaba de en navele esfera, y, por lo tanto, pues, pero, bueno, había trabajado en un medio general como hipertextual y, por lo tanto, conocía que los medios generales tienden a, por lógica, porque no todo el público está tiene ganas o está capacitado para poder entender todo lo que hay detrás de la tecnología, pues se centraban en cosas mucho más generales, ¿no?

    Por eso se llaman generalistas, ¿no? Aunque sean específicos de tecnología. Y yo, pues, se se me ocurrió la feliz idea de decir, bueno, pues, a lo mejor a alguien le puede interesar el ahondar un poco más en lo que no nos cuentan, ahondar un poco más en por qué la tecnología es como es, por qué hace lo que hace, por qué funciona como funciona. No es simplemente decir, iPhone tiene este nuevo chip, ya, pero ese chip cómo es, qué es lo que hace? ¿O por qué hace lo que hace?

    ¿O por qué ese chip es mejor que el otro? ¿O qué diferencia hay de una manera? Ser un poco más didáctico en ese sentido y, bueno, pues esta idea caló, caló de forma, pues, que la verdad que estamos muy muy contentos de ser uno de los podcast de tecnología, pues, que a día de hoy tienen una historia más larga y además tienen una audiencia más consolidada, así que muchísimas muchísimas gracias a los miles y miles de personas en todo el mundo que nos siguen en cada una de nuestras de nuestros programas. Ya no solo en Apple Coding, sino que, como ya saben, años después dimos salida a Apple Coding Daily, que ya ha inaugurado la sexta temporada y que, bueno, pues son noticias que tienen ustedes o, digamos, programas más cortos que además estamos haciendo también en podcast en vídeo, estamos subiéndolo también a YouTube, por lo que si quieren verme contando y grabando las noticias más actuales y haciendo pequeños más programas más cortos, de quince, veinte minutos, veinticinco, pues contando, pues, la actualidad del mundo Apple o la actualidad del mundo del desarrollo, pueden seguirnos en YouTube punto com barra arroba Apple Coding, y ahí nos tienen de igual manera, de todas maneras, los episodios están también en Kuonda punto com barra Apple guion coding guion daily.

    Además, con el tiempo también empezamos el podcast Café Swift, un podcast de, pues eso, de más calado, ¿vale? Un podcast más cafetero, nunca mejor dicho, donde ese café Swift, pues está junto a mi compañero y amigo Arturo Rivas, que saludo desde aquí, que seguro nos está escuchando, y entonces, bueno, pues junto a él sacamos adelante este programa que ya es directamente para gente que se dedica al desarrollo en entornos Apple, y ahí ya entramos a saco, Paco, un cafetero total de de distintos sabores, olores, en fin, y a hablar directamente, pues, para gente que se dedica al mundo del desarrollo. Pero mientras, pues, bueno, tenemos ahí, como digo, estos este podcast, ¿no? Que digamos es el principal, y en este podcast lo que hacemos es hacer programas más largos, en ocasiones muy largos, y bueno, pues de alguna manera este este puede ser que lo sea, ¿vale? Ahora obviamente estoy empezando a grabar y créanme que soy incapaz de discernir cuánto puede llegar a durar.

    Para que se hagan una idea, el otro día, el martes día doce de septiembre, como bien sabrán y por eso están aquí, tuvo lugar la, bueno, pues el evento Wonder Last de presentación de los nuevos iPhone quince, quince Pro, quince Pro Max, quince Plus, y los nuevos Apple Watch Series nueve y Watch ultra dos. Entonces, pues, esa noche hice el resumen, ese sí era un resumen, porque duraba menos que el evento, para Apple Code Indaley, ¿vale? Haciendo pues un resumen, entre comillas, rápido. Entonces, bueno, no Apple no ha presentado mucho, en el sentido de que, bueno, se puede describir de una manera más o menos rápida, no creo que me lleve mucho, venga, vamos a grabar el resumen, le doy a grabar y cuando acabo digo, bueno, pues ha sido rapidito, ha estado bien, va va vamos a editarlo ya, me voy a dormir que tengo sueño y nos vamos a la camita a descansar. Vale.

    Una hora había grabado, digo, pero chaval, ¿qué te pasa en la cabeza? O sea, de verdad que ya tenía la extraña sensación de que había grabado poco y cuando veo que había grabado cincuenta y nueve minutos digo, tu neurona tiene un problema serio en cuanto a la medición temporal, básicamente, en fin, pero bueno, pude editar profundas, profundas, ¿vale? Y dejarlo, pues, en un resumen, resumen, si es resumen para ahorita el niño Jobs, de unos cuarenta y dos minutos aproximadamente, que viene a ser, pues, la mitad de lo que duró el evento, para lo que se presentó, pero bueno, en fin, esto ya lo iremos hablando en el transcurso del programa. Como bien saben, y para eso están aquí, lo que van a escuchar hoy es el megaanálisis, eso que tanto les gusta y que tanto nos piden por redes y por todos los medios que tienen de comunicarse con Apple Coding, conmigo, con la academia, etcétera, para, pues bueno, hacer un repaso en profundidad de todo lo que Apple presentó el otro día, y ustedes dirán, bueno, acabas de decir que tampoco Apple hizo grandes lanzamientos, es cierto, fue una, digo, fue un evento de perfil muy bajo, donde simplemente fue, pues, lo, en definitiva, lo normal, ¿no?

    Revisión del chip, revisión de las cámaras, poquito cambio por aquí y por allá, algún retoquito, lo que hacen todas las compañías tecnológicas, incluida Apple, desde hace ya varios años, porque el producto smartwatch y el producto smartphone ya están agotados desde hace tiempo. Pero, claro, cuando empiezas a rascar, hay mucha más información, así que vamos a ir explicando todo lo que tiene que ver alrededor en un programa que sí, durará más que el evento de Apple. Así que, bien, pues váyanse preparando, pónganse algo fresquito al lado para hacerlo más ameno y entramos a saco Paco en el tema. Así que allá vamos. ¿Sientes que el mundo del desarrollo Apple es un laberinto?

    ¿Te has topado con promesas de convertirte en un desarrollador en unas pocas semanas y has terminado decepcionado? ¿Estás cansado de quien no profundiza en el conocimiento o te intenta contar todo a la vez creando el caos? Tengo algo que contarte, en Apple Coding Academy entendemos que ser un iOS developer no es un camino fácil ni rápido, es una carrera de fondo, pero, ¿y si te dijera que en solo cuatro meses puedes obtener las bases necesarias para impulsar tu carrera y adquirir las habilidades que las grandes empresas demandan? Sí, es posible. Es posible obtener esa base a partir de la cual puedes empezar a trabajar y convertirte en todo un desarrollador.

    Presentamos el Swift Developer Program dos mil veintitrés. Aprende a crear código nativo de calidad para entornos Apple abriendo las puertas del App Store para tus proyectos. No importa si eres un veterano buscando perfeccionar tus habilidades o ponerte al día o si sumergirás en el mundo del desarrollo Apple, el más riguroso, te sumergirás en el mundo del desarrollo Apple, el más riguroso. Con nuestra formación sentarás las bases para tu especialización como desarrollador de IOS siguiendo las directrices más estrictas, las de Apple. Aprende Swift cinco punto nueve y programación funcional para aprender el lenguaje de Apple desde cero, concurrencia y asincronía con ASYNAWate para manejar tareas en tiempo real y conexiones de red de forma eficiente.

    Aprende SWIFT UI en su versión cinco, desarrollo de apps en iOS y iPadOS, incluyendo retrocompatibilidad y las novedades de la WWDC dos mil veintitrés, y por supuesto, una introducción a visión OS, adéntrate en la apuesta del futuro de Apple y su próximo gran producto. Y lo mejor de todo, este programa está basado en trabajo y experiencia real, guiándote paso a paso, desde lo más simple hasta lo más complejo. Además, tendrás acceso a una comunidad privada, tutorías grupales e individuales y mucho más. ¿Te interesa? ¿Te suena bien?

    Genial. Las clases serán desde el dos de octubre de dos mil veintitrés hasta el treinta de noviembre de dos mil veintitrés, más dos meses más de proyecto, de lunes a jueves de siete de la tarde a once de la noche. Para más información visita acoding punto academy barra SDP veintitrés. No pierdas esta oportunidad única de aprender con los mejores y de convertirte en un verdadero experto en desarrollo Apple. Te esperamos y date prisa porque quedan pocas plazas.

    El evento de Apple vino a durar unos noventa minutos, donde el mensaje, donde lo que se quiso transmitir, pues, digamos que estuvo dividido en tres grandes partes, aunque lógicamente había algunas que se entremezclaban. La primera parte podríamos decir que es el Apple Watch Series nueve, luego una segunda parte de el iPhone quince, los iPhones quince, y luego también hubo una parte que podríamos colocar en medio de esta, pero que tuvo que ver en cierta parte con parte de una y parte de otra, que es el tema del ecologismo. Por quitarnos este tema lo más rápido posible, porque, bueno, básicamente, mi opinión es que me parece muy bien que cualquier empresa, sobre todo la empresa de mayor capitalización bursátil del mundo, pues invierta dinero en cosas que a lo mejor no tienen una, le tienen un gasto muy alto y que no tienen un retorno de inversión directo, pero que desde luego es algo que es bueno para todo el mundo, para el planeta, etcétera, es decir, que las empresas inviertan en ser más ecológicas, en tener menos huella de algo que ver con la política, ya saben que la política no tenga algo que ver con la política, ellos saben que la política no quiero entrar en ello, soy totalmente enemigo de la política y, por lo tanto, la política que pretende controlar y que pretende manipular, no la que gestionaría bien, pero bueno, eso por desgracia hoy día es cada vez más difícil de ver, por lo que lo que veo es lo que hay, es decir, lo que Apple presentó, que es, bueno, pues a través de un pequeño sketch, podríamos llamarlo, protagonizado por la actriz Olivia Spencer, que, bueno, pues una una actriz que tiene una serie en Apple TV Plus, de ya es una podcaster que investiga crímenes y tal, no le no he visto la serie, la verdad, pero bueno, es una actriz conocida, una muy buena actriz, pues hizo el papel de ser la madre naturaleza, ¿no?

    Dijo ahí, pues, como una especie de medio coña, tal, etcétera, vale, estupendo. El caso es que Apple nos habla de un propósito para el año dos mil treinta de querer poder hacer que sus productos se fabriquen con una huella de carbono cero, ¿vale? Es como un compromiso que tiene Apple de que todos sus productos se fabriquen con materiales y en procesos que garanticen una huella de carbono cero. Más allá del componente de marketing, más allá del hecho de que es muy probable que no puedan conseguir esto al cien por cien, siempre se puede escapar algo por el medio, etcétera, ¿vale? O sea, que tiene, digamos que esto es una mezcla entre algo bueno y algo que es por poner una bonita imagen, etcétera, etcétera, pues, bueno, pues a mí me parece correcto, insisto, que una empresa ponga esfuerzos en cosas de estas características siempre es bueno.

    Es lo mismo que para mí supone que Apple invierta lo que invierte, y eso sí me parece también muy importante, lo que invierte en accesibilidad, ¿vale? Cualquier persona, cualquiera que tenga cualquier tipo de discapacidad, ya sea motora, cognitiva, visual o auditiva, pues puede usar un sus sistemas, porque sus productos sean lo más accesibles posibles para todo tipo de público, incluso para público que luego como retorno de inversión no es rentable, porque hay gente, incluso hay gente que tiene ciertos tipos de discapacidades muy específicas y limitadas y que son muy pocos en el mundo, y aún así estos también reciben atención por parte de Apple para que puedan manejar la tecnología. Entonces, a mí todo eso siempre me va a parecer excelente. Lo que Apple aquí ha propuesto es, bueno, pues que va a cambiar, ¿vale? El el, digamos que uno de los primeros pasos que Apple propone para este propósito final del año dos mil treinta, cero huella de carbono, es el sustituir ciertos materiales que estaba utilizando hasta ahora para las fundas y para las correas de los relojes, principalmente el cuero, porque, bueno, se supone que el cuero del cuero, pues, procede los animales y eso, pues, provoca una serie de huella de carbono, sobre todo ya no por los animales en sí, sino por la propia obtención del material y cómo se trabaja dicho material para conseguir que se hagan las fundas o que se hagan las correas, etcétera, por lo que Apple ha decidido que va a prescindir por completo del cuero de ciertos materiales y va a usar un tejido que ellos han inventado, un tejido llamado find woven, que traducido por la propia Apple viene a ser algo así como trenzado fino, ¿vale?

    Cuando buscamos en Apple, veremos que en Apple tenemos cosas, tenemos fundas, tenemos elementos que se llaman de trenzado fino, ¿vale? Por lo tanto, lo que podemos buscar en Apple es accesorios de trenzado fino, y entonces tendremos varias fundas de los iPhones, tendremos la cartera de trenzado fino con MacSafe para el iPhone, setenta euros, llavero de trenzado fino para el AirTag, correas de distintos colores para el Apple Watch, bueno, pues es un nuevo material, un nuevo material que desde el principio Apple ya nos está diciendo que es un material que tiene la capacidad de envejecer igual que envejece el cuero, que saben que las fundas que hasta ahora se podían poner de cuero, incluso las propias correas, pues del uso, el cuero va cambiando de aspecto y va cogiendo un aspecto como más envejecido, que también le da un aspecto elegante, ¿vale? Pues porque es un poco ese propósito, ¿no? Con este tipo de fundas, pues este nuevo material de trenzado fino, pues tendría este mismo propósito. A nivel de tacto, el este nuevo trenzado, este nuevo tipo de tejido, tiene una sensación similar al ante, ¿vale?

    Al algo así como este tipo de tejido Alcántara que es como rugosito, ¿vale? Porque es un hilo trenzado que está creando un patrón dentro de de, pero es un patrón muy muy muy muy fino, ¿vale? Pero da esa sensación de que al rascar no hace como un algo así, ¿no? Pues de ese estilo, ¿vale? Esto que he hecho ha sido sobre metal, ¿vale?

    Por lo tanto suena peor, pero es para hacer un poco la sensación. Y bueno, pues se supone que es un tipo de hilo que está hecho al sesenta y ocho por ciento con materiales reciclados de productos que se han reciclado y que, pues, parece ser que llegan a una especie como de polvo, que luego ese polvo se genera con una especie de hilo y ese hilo, pues permite ser trenzado y poder crear estas fundas, estos elementos que Apple, pues puede va a empezar a vender en sustitución de los materiales como el cuero, etcétera, ¿vale? Bueno, pues genial, es decir, al tener una huella de carbono menor en comparación con el cuero, pues bueno, pues Apple ha decidido eliminar el cuero y darle, pues, este protagonismo a este tipo de material que es, pues eso, como una microtela, ¿vale? Como un con una de un material tipo sarga, ¿vale? Que es el nombre técnico, yo lo he tenido que buscar porque no no sabía lo que era el material llamado así, ¿vale?

    Cuando me dio la traducción, ¿vale? La sarga, pues eso es un tejido que es un tejido de ligamento que produce las líneas diagonales típicas, ¿vale? Un ligamento que se obtiene por medio de un escalonado que forma rayas en diagonal y derivado de este ligamento están, entre otros, la sarga inversa, la sarga batavia, en fin, hay distintas formas de de este tipo de tejido, ¿vale? Por lo tanto sería tejido de este estilo, ¿vale? Hay sargas que son un tercio de algodón, dos tercios de poliéster, en fin.

    Distintos tipos de cosas bonitas que, bueno, pues que, en fin, yo como ya les adelanto que yo he encargado, vale, este año he encargado porque, bueno, ya le iba tocando, yo ahora mismo tengo un Apple Watch series cuatro, que ya ha vivido el muchacho y sigue funcionando a día de hoy bien, ¿vale? Pues he decidido, bueno, pues actualizarlo. Entonces, he pedido, aprovechando la bajada de precio, un Apple Watch Ultra dos, y la correa que vendrá vendrá en este tejido, por lo que cuando lo pruebe, pues ya les hablaré de él y la sensación que da y si, pues bueno, si merece o no la pena en mi opinión. Bueno, pues otra cosa más interesante. Así que bueno, pues viendo este tema de lo que es el ecologismo, este, bueno, pues este mensaje, ¿no?

    Que Apple quiso transmitir de responsabilidad con el medio ambiente, que insisto, me parece estupendo, pues pasamos a hablar de el Apple Watch. El Apple Watch este año, el Apple Watch Series nueve y el Apple Watch Ultra dos solo tienen dos diferencias con los modelos anteriores, y ya, no tienen más diferencias. ¿Qué es lo que sucede? Pues bien, sucede que estamos en una etapa de transición, Se supone, o al menos eso es lo que se rumorea, que el próximo año tocaría el Apple Watch series diez, y podríamos tener un Apple Watch series décimo, igual que tuvimos con el iPhone diez, que es el iPhone décimo. IPhone x no es x, es décimo, es el iPhone tenth.

    Pero bien, ya sabemos que la gente sigue siendo iPhone x, iPhone XS, etcétera, ¿vale? Es el iPhone X y Diez S, ya saben que yo soy muy maniático al respecto. Pues bien, el año que viene podríamos tener el Apple Watch Series diez, un series que renovaría diseño para los Apple Watch, obviamente no para los Watch ultra, porque los Ultra ya, en fin, esta es la segunda generación, el Ultra ya es un modelo de reloj nuevo del año pasado, por lo que la renovación vendría en los Apple Watch series diez, ya que, a nivel de diseño, prácticamente podríamos decir que no ha cambiado, entre muchas comillas, desde el series cuatro. Es cierto que el series cinco incorporó la pantalla siempre encendida, el serie seis le dio más espacio a la pantalla, el series siete y ocho le han dado todavía más espacio a la pantalla dentro de lo que es el tamaño del dispositivo, no podemos olvidar que los Apple Watch cuando salieron hasta el hasta el series tres tenían un tamaño de el Apple Watch pequeño y el Apple Watch grande de treinta y ocho y cuarenta y dos milímetros. Hubo un día que yo, inocente de mí, se me ocurrió decir que el tamaño del iPhone de del del iPhone, no, del Apple Watch, de mujer era de treinta y ocho y el de hombre de cuarenta y dos, y un poco más, y me comulgan.

    Entonces, por eso prefiero decir el tamaño pequeño y el grande, ¿por qué es delita? Porque también es cierto que hay mujeres que tienen el tamaño grande y hombres que tienen el pequeño, todo sea cierto, ¿vale? Pero bueno, tuve ese pequeño desliz que un poco más y me cuesta, en fin, más de un disgusto. El caso es que cuando llegó el series cuatro, esto aumentó, pasamos de treinta y ocho y cuarenta y dos a cuarenta y cuarenta y cuatro, y lo realmente importante a partir de aquí es que cuando llega el series siete pasamos de nuevo de un dispositivo de cuarenta y cuarenta y cuatro a un dispositivo de cuarenta y uno y cuarenta y cinco milímetros. A título informativo, estos milímetros representan la altura vertical de la carcasa del reloj, es una medida estándar utilizada para describir el tamaño que tiene la carcasa del reloj de esquina a esquina, sin incluir ni la corona digital ni los botones laterales, por lo que cuando decimos que un Abel Watch es de cuarenta y un milímetros o de cuarenta y cinco, lo que nos estamos refiriendo es a la altura de la carcasa desde la base hasta la parte superior, no al tamaño de la pantalla en sí, ¿vale?

    Aunque las generaciones han ido aumentando la cantidad de pantalla que tienen dentro de esa carcasa, ¿vale? Pero esto es una forma que, bueno, pues se denomina así, es una medida de ayuda a los consumidores para tener una idea del tamaño físico del reloj para ver, pues cómo te queda en lo que es la mano, ¿vale? Entonces, tú puedes tener un Apple Watch de x milímetros y que tenga más o menos pantalla, y los series siete, series ocho, lo que han hecho ha sido ampliar ese tamaño de la pantalla con respecto a lo que es el propio tamaño de el reloj, aparte de aumentar brevemente, pero también llevaron la pantalla más hacia las esquinas, haciendo que incluso la parte de borde del reloj estuviera también como fuera también parte de lo que es la propia pantalla, aprovechando obviamente que es un panel OLED. Así que, bueno, pues el nuevo Apple Watch series diez teóricamente hará algún cambio importante dentro de lo es este diseño, por lo que este año el diseño repite el del Apple Watch series siete, ocho y nueve. Pero hay una pequeña gran diferencia, y es que desde que Apple lanza el Apple Watch SE, que también ha tenido varias generaciones, pues, y lanza el Apple Watch series seis, el procesador de estos Apple Watch ha sido el mismo.

    No ha sido el mismo a nivel de componentes alrededor, ¿vale? Esto es una cosa que tenido que investigar bastante para encontrar la fuente de información, pero al final lo he podido confirmar, que lo que es exactamente igual en el Apple Watch es la CPU, por lo que la CPU, solo la CPU, es idéntica en los Apple Watch series seis, series siete y series ocho, pero la diferencia es que alrededor de la CPU, Apple sí ha ido cambiando los componentes o poniendo nuevos componentes a su alrededor, por lo que el serie siete sí tiene cosas distintas al seis, igual que el ocho, distintas al siete y al seis. Distintos componentes que algunos los ha mejorado, otros los ha incluido porque no estaban, ya que el Apple Watch, y esto es muy importante de entender, no tiene un SOC, no tiene un SOC, lo que tiene es un ZIP. El ZIP, el SIP, es un system package, es un sistema en un paquete. Es una tecnología que permite integrar múltiples componentes de un sistema electrónico en un único paquete o módulo, pero lo importante es que, a diferencia del system on a chip, que es el SOC, que es el que usan los procesadores, pues A quince Bionic, A dieciséis, A diecisiete, Pro, etcétera, donde varios componentes funcionales están integrados en un solo chip de silicio, ¿vale?

    Ese existe en una chip, el SIP permite que estos componentes se mantengan como chips independientes, pero se empaqueten juntos en una única cápsula o módulo, esa es la diferencia. Mientras el system on a chip es un solo elemento, es un solo chip de silicio que tiene dentro todos los componentes, el SIP es un montón de pequeños chips que están dentro de una misma carcasita, dentro de una misma capsulita, por lo que eso lo que permite es tener una mejor integración de componentes, porque puede contener varios tipos de componentes, como los microprocesadores, la memoria, los controladores, los osciladores, las resistencias, los condensadores, los sensores que detectan el tema de, pues, la presión sanguínea, el medidor, el oxímetro, todo este tipo de elementos, ¿vale? Si Apple puede meter dentro de un system package y simplemente abre el system package y le pone un nuevo chip o le pone un nuevo elemento, pues no tiene que rediseñar el chip completo, ¿vale? Por lo que mientras los componentes del SIP del Apple Watch series nueve, ¿vale? Son distintos a los del ocho, el siete y el seis, sí es cierto que la CPU como componente independiente dentro de ese SIP, en el seis, siete y ocho es exactamente la misma, ¿de acuerdo?

    En fin, esto es algo que es necesario para el tema del Apple Watch, tienen que tener en cuenta que el system package permite que al integrar múltiples componentes en un solo paquete, pues el zip permite diseños más compactos, más eficientes y eso es más útil pues para espacio, para dispositivos con limitaciones de espacio, ¿vale? Como pues el tema precisamente de lo que es las lo que son los relojes, ¿vale? A diferencia, como ya hemos comentado, de un sistema de chip, donde todo esté integrado en un solo chip, el SIP permite a los diseñadores elegir componentes de diferentes proveedores, de diferentes tecnologías, lo que es algo más beneficioso en términos de coste, tiempo menor en la llegada al mercado, cambio porque permite un tiempo menor en la llegada al mercado, ya que al utilizar componentes que ya existen y que están probados, el SIP acelera el desarrollo de los productos y reduce el tiempo de llegada al mercado optimizando su rendimiento, ¿vale? Por lo tanto, pues vemos que el SIP es algo que es muy positivo y que permite, pues que pequeñas partes dentro del Apple Watch se vayan optimizando. Entonces es donde llegamos a el gran cambio dentro del SIP del system package de los Apple Watch series nueve, que es tener una nueva CPU.

    Porque repito, la CPU del Apple Watch series seis, siete y ocho es la misma, la CPU. El resto de componentes, algunos sí, otros no, los han ido variando, pero la CPU es la misma. Ahora ha cambiado, esta nueva CPU cambia completamente. Y esto es muy importante, porque la CPU de los Apple Watch series seis, siete y ocho es una CPU que está construida sobre el proceso de fabricación de siete nanómetros y está basada en la plataforma del A trece Bionic, pero tiene una construcción basada en la arquitectura fusión de los A diez Fusión, es decir, que la CPU, como elemento, ¿vale? Tiene, o sea, está basada en la construcción de los componentes del A trece, pero, en realidad, no contiene más elementos aparte como parte de la propia CPU, por lo que el elemento en sí es solo la CPU.

    Eso quiere decir que esa CPU, ahora, se ha optimizado. Esa CPU ahora está fabricada sobre la plataforma de los A catorce, una plataforma de cinco nanómetros, lo que ha permitido reducir el espacio que ocupa esa CPU, y eso ha llevado a poder meter más componentes en el SIP, por lo que ahora se ha incluido un motor neural, un Neural Engine que no existía hasta ahora. Por lo tanto, tenemos una CPU en estructura híbrida, en estructura big little, que es cuando yo tengo procesadores de alto rendimiento, procesadores de eficiencia energética. En este caso, el procesador del Apple Watch tiene dos núcleos, uno de eficiencia energética, otro de alto rendimiento, por lo que, en total, tienen cinco mil seiscientos millones de micro transistores. Le han puesto una GPU que al venir, al permitir, ¿no?

    Que la CPU sea más pequeña, le han podido meter una GPU mejor basada en la GPU de los A catorce, que es hasta un treinta por ciento más rápida que la GPU de modelos anteriores, y como hay más hueco en el SIP porque está construido en cinco nanómetros, le han metido un motor neural de cuatro núcleos, un motor neural que permite la duplicación de las operaciones basadas en machine learning que venía haciendo el Apple Watch hasta ahora. Por lo tanto, eso va a darle una diferencia importante, ¿vale? Este cambio de CPU es clave. Y aquí quiero detenerme un poco sobre la sobre el funcionamiento del Apple Watch y por qué la batería de los Apple Watch o la autonomía de los Apple Watch dura lo que dura, porque esto es algo que muchas veces la gente, pues, se queja y te dice no, es que a ver si le dura más la batería al Apple Watch, a ver si porque yo tengo un reloj Huawei que le dura la batería una semana, y entonces, ¿por qué el Apple Watch no? Etcétera.

    Pues bien, yo les voy a hablar de la filosofía del Apple Watch, cuál es su filosofía y por qué hace lo que hace y por qué funciona como funciona. El Apple Watch es un dispositivo de monitorización continua, Es un dispositivo que está permanentemente registrando la actividad de todos sus sensores, esto le permite estar midiendo en tiempo real los pasos, la distancia que estamos caminando, las calorías que estamos consumiendo, los el control de los anillos de actividad, la frecuencia cardíaca, el nivel de oxígeno en sangre, la lo que es el propio sueño, la detección de caídas, el nivel de ruido, el ciclo menstrual, en el caso de las mujeres, todos los tipos de sesiones de ejercicio y entrenamiento, incluso es capaz de detectar sonidos e incluso detectar que te estás lavando las manos. Todo esto es un compendio de un proceso continuo de todos los datos que entran en los sensores, datos que se están procesando en tiempo real a través de la ejecución de ciertos modelos de entrenamiento automático para, pues eso, predecir qué sonido es el que se está escuchando y, por lo tanto, si escucha el sonido de agua y detecta que estamos reproduciendo movimientos que implican el estar lavándonos las manos, aunque a veces también detecta que estamos fregando, pero bueno, es que el movimiento de estar fregando platos o el de lavarse las manos, pues entiéndanme que es similar, por lo que detectaría este tipo de elementos, es decir, el Apple Watch está en continuo trabajo, en continuo trabajo para que yo yo cuando echo a andar y se me olvida poner una actividad, o me voy a correr a la calle y se me olvida encender la actividad, cuando pasan unos minutos me dice, parece que estás haciendo esta actividad, ¿quieres que la registre?

    Y cuando le dices que sí, te la empieza a registrar desde el momento en el que se te olvidó darle. Por lo tanto, eso es algo que está unido a un permanente control de los datos en tiempo real. Cuando tú tienes problemas de arritmias, el dispositivo te lo dice, te dice, oye, parece que tienes un problema aquí, porque lo ha detectado en tiempo real. Cuando tú, como me pasó a mí, tienes un accidente de coche que, por desgracia, no me pasó nada, pero fue un susto importante porque me dieron un golpe muy grande desde detrás del vehículo y, bueno, pues me me consiguieron que mi vehículo en aquel momento, pues, se declarara siniestro total, ¿vale? Aunque a mí, insisto, no me pasó nada, pero cuando me dieron este golpe y la fuerza g del coche me empujó hacia adelante de una manera muy brusca, el reloj saltó y es un Apple Watch series cuatro, no tiene detección de caídas, y aún así el reloj detectó ese impulso de fuerza g, que no era normal, y me dijo, oye, que se ha detectado un cambio importante como un golpe, ¿estás bien?

    Y si no le hubiera dicho que estaba bien, pues hubiera llamado al uno uno dos y hubiera dado mi localización en tiempo real a través de una grabación, y hubiera dicho se ha registrado un accidente, tal. Los modelos más modernos del Apple Watch tienen la detección de caídas, tienen la detección de accidentes. La detección de accidentes se está realizando de manera continua, está continuamente escuchando a través del micrófono todo lo que hay a tu alrededor y está pasando eso que está escuchando a un modelo de inteligencia artificial que está prediciendo, está intentando adivinar si ese sonido corresponde con los sonidos normales de chapa, cristales, golpe, etcétera, que se da en un accidente de coche, que además unido a los movimientos o giros o cambios bruscos en los g de lo que es la propia inercia de movimiento, ¿vale? El poder, el que estemos en movimiento y de pronto nos paremos bruscamente, etcétera, etcétera, o que estemos parados y de pronto salgamos lanzados, todo eso hace que detecte una irregularidad. De hecho, ya saben que el tema de de la detección de accidentes se encontró al principio con el problema de que cuando se subía uno a una montaña rusa, pues detectaba que, en algunas ocasiones, tenía un error en la detección y detectaba que era también un accidente.

    Pero a lo que vamos es que todo el proceso que hace el Apple Watch lo hace de manera continua, en tiempo real, y tomando muestras de toda segundo o cada muy pocos segundos, por lo que el reloj, aunque segundo o cada muy pocos segundos, por lo que el reloj, aunque yo lo tenga en la mano y yo lo mire de vez en cuando, etcétera, está permanentemente haciendo cosas. Entonces, eso implica que, obviamente, pues, en fin, gaste más batería, ¿que tú consideras que no es necesario esto? Bueno, pues, cómprate otro de otra compañía si te parece correcto o el Apple Watch no te da servicio, es así de simple. De hecho, el modo de ahorro de energía que tienen los Apple Watch ultra no es más que hacer que los procesos normales de detección que el Apple Watch realiza se realicen cada menos tiempo, y esto hace que la batería, en vez de durar treinta y seis horas, hasta treinta y seis horas pueda llegar hasta setenta y dos. ¿Quiere decir esto que el Apple Watch es mejor que otros relojes inteligentes?

    No, quiere decir que es distinto. Eres tú quien tiene que decidir si eso para ti es mejor o no. Pero aquí no te a decir, no, es que el Apple Watch es mejor porque lo hace todo en tiempo real. No, a lo mejor tú no necesitas que lo haga todo en tiempo real, a lo mejor tú puedes tener un reloj Garmin o puedes tener un reloj de de o de Huawei o de quien sea, y esos relojes no detectan la actividad que tú realizas salvo los pasos, a menos que tú le digas que vas a hacer ejercicio, mientras que el Apple Watch lo va detectando y lo va sumando a tu ejercicio en tiempo real. Aunque tú no hagas ejercicio, aunque tú no inicies una actividad de ejercicio, si tú ese día te mueves mucho y subes escaleras y bajas escaleras y vas para allá y vas para acá y tal y te vas moviendo, todo ese movimiento se va registrando, todas esas calorías se van registrando, todo ese ejercicio se va registrando como ejercicio y te va diciendo cuántos pisos has subido, hasta qué altura has estado, hasta qué altura no, etcétera, ¿vale?

    Entonces, repito, ¿es mejor el Apple Watch por esto? No, es distinto, es una filosofía distinta y por eso la batería le dura menos, y por eso, por mucho que Apple haga, os o inventan baterías que sean otra cosa totalmente distinta y que sean una auténtica revolución a nivel energética, o las baterías del Apple Watch van a durar siempre lo mismo, lo mismo que duran las de un iPhone, etcétera. No vamos a conseguir absolutamente nada salvo pequeños cambios significativos en la duración de la batería, si no es porque haya un cambio en las propias baterías, ¿vale? Porque la filosofía del dispositivo es esta, nos puede gustar más o menos, podemos pensar que es bueno o malo, pero es su filosofía y somos nosotros los que tenemos que decidir si esto es lo mejor o no para nosotros. Entonces, partiendo de esta base de que el Apple Watch tiene que estar continuamente registrando todo lo que se hace en el dispositivo, el tener un motor neural que sea capaz de procesar esta información es un salto exponencial en cuanto a capacidades, porque tenemos que tener en cuenta que el machine learning, el aprendizaje automático, se ejecuta a través del uso de tensores numéricos, ¿vale?

    Tensores son números de cuatro dimensiones. Normalmente una CPU tiene vectores, tiene registros que son vectores escalares, tiene registros que son de números escalares que son de una única dimensión, donde yo meto un número, entonces yo tengo un registro donde tengo el registro a y el registro b, y en el registro a meto el número veinte, y en el registro c meto el número diez, y ahora le digo al a la cpu, oye, hazme la operación de sumar de lo que hay en el registro a y lo que hay en el registro c, y él en el registro e me devuelve el resultado y me dice, vale, pues son treinta, ¿vale? Perfecto, creo que he dicho veinte y diez, ¿vale? Entonces, me da el resultado, perfecto, pero solo es capaz de recoger números, insisto, escalares. Un motor neural, una TPU, una Tensor Processing Unit, como la unidad de tensores que tienen los Google Pixel, ¿vale?

    Estos motores neurales son elementos que tienen la capacidad de tener registros de entrada de números tensores de números de cuatro dimensiones, donde un número tiene la dimensión x y z t, por lo que un número no es solo un número, es la combinación de cuatro. ¿Quiere eso decir que una CPU de valores escalares no puede procesar o ejecutar un motor, un lo que sería un un modelo de inteligencia artificial? Sí, sí puede, pero es más lento, porque tienes que transformar los tensores en vectores y luego de vuelta los vectores en tensores, por lo tanto, es menos eficiente. Si tienes un motor neural, el motor neural existe para eso, para que yo pueda directamente meter en el registro los tensores matemáticos y que se hagan los cálculos pertinentes y no tenga que estar transformando de tensor a escalar y de escalar a tensor, que es una descomposición numérica que es costosa. Por lo que, de esta manera, lo que conseguimos es que todos los procesos que normalmente hace el Apple Watch en tiempo real se hagan de una forma mucho más eficiente.

    A esto se le suman las características que Apple ha incluido en esta generación, porque ahora, gracias a sido darle más capacidades al reloj. La primera y más importante es que Siri viene cargado en local en el dispositivo, ya no va a la nube. Las solicitudes se procesan directamente en el dispositivo, por lo que puede anticipar llamadas comunes al servicio sin la latencia que normalmente tiene recurrir a la nube. Que tú le digas a Ciri, oye, hazme no sé qué o dime no sé qué o hazme no sé cuál, y para que sepa lo que le has dicho, tiene que ir a la nube, procesar tu voz y volver de ella con la transcripción en texto de lo que has dicho más el resumen de los comandos dentro del sistema que deberá ejecutar para buscar la afinidad entre lo que tú has dicho y la equivalencia de comandos dentro del reloj. Pues bien, esta traducción ahora la va a hacer directamente en el reloj, no va a necesitar salir a Internet, no va a necesitar conexión a Internet, y si le pides cosas que tienen que ver con el dispositivo, pues lo va a hacer sin tener que salir a la nube, como añadir una cita al calendario, como buscarte información en el mismo, porque toda esa información está en el dispositivo a nivel local, como buscarte mensajes, etcétera.

    Todo el proceso podrá hacerlo en local y luego, hombre, si le dices que envíe un mensaje, pues obviamente la el envío lo hará enviándolo a la nube, o si le preguntas un dato que necesite ir a Internet, pues irá a Internet, pero hará Internet solo a buscar ese dato, no a procesar lo que tú le has dicho. Eso lo que va a permitir es tener una mayor fluidez a la hora de trabajar con Siri, porque además no podemos olvidar que de hablar con Siria de una manera fluida, es decir, que tú le hagas una petición y a la respuesta de dicha petición espere a que tú continúes la conversación, no tienes que volver a repetir la invocación, ¿vale? Normalmente, si yo le quiero preguntar, oye, ¿quién es el presidente de Estados Unidos? Y te dice es no sé quién, y luego le tienes que volver a decir, oye, Churavita, ¿qué edad tiene? Y entonces te dice la edad que tiene el presidente de Estados Unidos, estupendo.

    Pues ahora no hace falta, ahora tú le dices oye Chirimbingui, bueno, ahora él oye y él tampoco hace falta, le dice, Chirimbingui, ¿quién es el presidente de Estados Unidos? Pepito, no sé quién. Joe Biden, ¿vale? Pues, es es la momia cuatro, ¿vale? Perfecto.

    Pues es el presidente de Estados Unidos, estupendo. Pues, inmediatamente le puedes decir, ¿y qué edad tiene? Y te dice más que Matusalén, pues perfecto, y ya te da la lo que es el conjunto y no tienes que volver a invocar y decirle periguita, dime no sé qué, ¿entendéis? Esa es la diferencia. Aparte, también incorporan una nueva función llamada city plus Health, ¿vale?

    City más salud, que lo que hace es permitir a los usuarios pedirle al reloj que inicie entrenamientos regulares, que registre verbalmente la ingesta de medicamentos, etcétera, ¿vale? Una función que, bueno, pues permite que cierto tipo de elementos que tienen que ver con la salud no tengamos que entrar directamente en la aplicación salud, sino que se puedan registrar directamente. Si yo tengo un medicamento registrado dentro de la aplicación salud, que puedo registrar desde el año pasado, tengo una aplicación de Pills, de pildoritas, pildorillas, ¿vale? Es aquello que llaman Tasio que, pues, permite registrar los medicamentos que me tome. Pues yo le puedo decir, oye, Josefina, ya me he tomado el pastillo de tasio que me toca hoy, Porque mi hijo droga no, pues ya está, perfecto, pues te registra que te has tomado la tasio que te toca hoy.

    Estupendo, ¿vale? Pues esa, pues son más funciones que están ahí gracias a tener el motor neural. Si alguno dirá, bueno, entonces, ¿por qué no ponen a Siri en las versiones anteriores del Apple Watch? Pues por esto mismo, porque no tiene motor neural y, por lo tanto, no permitiría la eficiencia de proceso necesaria para poder tener a Siri en local, por eso solo está en los nuevos dispositivos. También incluye una serie de nuevas funciones, ¿vale?

    Como por ejemplo, la aparición automática dentro de lo que es la esfera del reloj de controles relevantes a la hora de acercarse a un home post o cuando estamos, ¿vale? Haciendo una búsqueda con precisión, ¿vale? Esto tiene que ver con el nuevo chip U dos, ¿vale? Que, bueno, pues, como todos sabemos, U dos es un, en fin, es un grupo de música que es muy bueno, ¿vale? En fin, dejarlo.

    Entonces, el nuevo el nuevo chip U dos, que es el chip de banda ultra ancha, pues permite tener esta capacidad, porque esta es otra de las pequeñas novedades, ¿vale? He dicho que son solo dos, pero en realidad podríamos decir que son dos y media, ¿vale? También incorpora este nuevo chip U dos que cuando, por ejemplo, a ver, tiene que haber chip U dos también, ¿vale? Por ejemplo, si yo tengo el iPhone quince, quince plus, quince pro, quince pro max, que también tienen el chip U dos, pues yo puedo buscar dónde está mi iPhone y me lo va a indicar de una manera mucho más precisa para saber, pues, dónde está, ¿vale? También tiene el nuevo gesto del doble tap, que puede configurarse para realizar acciones como responder o rechazar llamadas, silenciar alarmas, controlar medios en un televisor conectado, etcétera.

    Y aquí vamos a una pequeña polémica, porque claro, Apple nos dice, ahora podemos tener la nueva función de doble tap donde haces así con los de discos tiki tiki y te hace cositas el reloj y no tienes que tocar la pantalla, y todo el mundo, hola wow qué guay. Claro, a ver, esto ya se podía hacer, ¿vale? Esto se llama assisf it touch, ¿vale? Cualquier reloj desde el Apple Watch series cuatro puede entrar en general accesibilidad y activar el assiftive el assiftive touch, ¿vale? Sería capaz de decirlo.

    Ahora, ¿dónde está aquí la diferencia? Bien, el assistive touch es una funcionalidad que cuando está en funcionamiento es bastante costosa para el sistema, ¿de acuerdo? Por lo que en modelos de reloj anteriores al series nueve o al Watch ultra dos, esta función hay que activarla, es decir, assistive touch no funciona, aparte de que es una función que está pensada para invidentes o para gente que tiene algún tipo de discapacidad visual, pero independientemente, el assistive el assistive touch, ¿vale? Seré capaz de decirlo bien todas las veces, el el el asistente de toque, ¿vale? Del Apple Watch.

    Insisto, se tiene que activar porque la detección automática que permite que yo pueda hacer la pincita que hago así con el de Dico, ¿vale? Y se detecte de manera automática, es un proceso que es costoso, por lo que no no puede estar continuamente levantado en un dispositivo anterior que tiene una CPU más lenta y, sobre todo, que no tiene un motor neural, porque la detección de la pinza se hace incluso buscando las diferencias en la lo que es el el la la el flujo sanguíneo, ¿vale? Se hace buscando incluso lo que son las pequeñas variaciones que puede haber con respecto a lo que es el flujo sanguíneo, ¿vale? Lo que es el la frecuencia cardíaca, ¿vale? Entonces, si esa frecuencia cardíaca puede llegar a cambiar, etcétera, es una de las uno de los componentes, ¿vale?

    Es decir, para que Apple detecte esto, Apple ha tenido que durante mucho tiempo tener a un montón de gente haciendo la pinza con el dedo y detectando cuáles son los cambios que se detectan en los distintos sensores que dan lugar a a a predecir este movimiento. Entonces, los sensores que tienen que activarse y cómo tienen que activarse para detectar la pinza en un dispositivo anterior a los series nueve o ocho ultra dos con motor neural es muy costoso, gasta mucha batería, por lo que la única manera de hacer que funcione es activarlo, por lo que en modelos anteriores tenemos que poner algo que lo active, por ejemplo, la propia doble tap, el propia la propia doble pinza, Por lo que yo hago la doble pinza en un series cuatro, como el que tengo, hago así. ¿Han oído eso? Pues eso es el assistive el el assistive touch, ¿vale? Pero yo lo tengo que activar para que en el momento que lo he activado, ahora ya hago el gesto de acción rápida y me permite hacer lo que sea.

    La diferencia con este nuevo modelo es que, como tiene el motor neural y tiene sensores mejorados, ahora puede activar de manera continua la detección de la pinza, por lo que tengo que preactivarla yo para que me detecte el gesto, ¿vale? Si yo quiero hacer un gesto que haga una acción directa, en un en un reloj anterior tengo que primero activar el gesto y luego hacerlo, mientras que en los nuevos lo puedo hacer directamente y lo coge, ¿vale? Esa es la diferencia. También, obviamente, es que los modelos anteriores lo tienen dentro de accesibilidad y aquí Apple ha decidido ponerlo como característica dentro de el sistema. Así que, bueno, pues esto sería lo que tendríamos que contar de lo que son los chips y lo que son los las nuevas características de estos Apple Watch.

    ¿Qué más cambios hay si los hay en el Apple Watch Ultra dos y en el Series nueve? Pues, ninguno más, es decir, los dos, las únicas novedades que tienen son las que hemos contado, el nuevo chip S nueve, que es un nuevo system package, el nuevo procesador, el nuevo chip de banda ultra ancha U dos, que le permite hacer, pues, las cositas estas de localización de una manera más rápida o mejor, más eficiente, con más opciones, ¿vale? Que yo me acerque a un homepod y automáticamente la pantalla se encienda con lo que está reproduciendo ese homepod y puedo variar lo que estoy oyendo, variar el volumen, no necesito llamar a ninguna aplicación para que haga ese cambio, o la la búsqueda con mayor precisión de los dispositivos iPhone, ¿vale? Para saber, ¿dónde me dejaba el iPhone? Ah, pues está aquí, está para allá, a diez metros, frío, caliente, te quemas, lo normal.

    Pero lo otro que tiene es que el Apple Watch Ultra el año pasado inauguró una pantalla que era una auténtica locura, que es una de las cosas que más me gustó del Apple Watch, que es una pantalla con pico de brillo en situaciones de luz solar de hasta dos mil nits. Pues bien, esa pantalla se la han puesto al Series nueve, por lo que el Apple Watch Series ocho tiene una pantalla con pico de brillo de mil nits, que ya está bien, el Apple Watch series nueve tiene una pantalla con pico de brillo, pico de brillo, ¿vale? El máximo de brillo al que puede llegar, no brillo sostenido, ¿de acuerdo? Un pico de brillo de dos mil nits en la pantalla del Apple Watch series nueve, es decir, tiene el mismo panel con la misma tecnología que el año pasado tenía el Apple Watch Ultra. ¿Y el Apple Watch Ultra tiene entonces la misma pantalla?

    Pues no, resulta que se la han cambiado, y tiene una pantalla con pico de brillo de hasta tres mil nits. Es una locura, me parece. Vamos, es que yo creo que ya el Apple Watch Ultra tres servirá lo mismo para ver la hora que como sable láser como le pongan cuatro mil nits o más, ¿vale? O sea, va a ser eso, sable láser, o por lo menos tendrá un modo ladrón en el que le des al botón y el reloj te haga un destello que lo deje ciego, ¿vale? O sea, porque es una cosa que es una locura.

    Así que, bueno, pues este es el otro gran cambio que tiene el Apple Watch. Apple Watch Ultra dos, con una pantalla con pico de brillo de tres mil nits máximo, y la pantalla que tenía el Watch Ultra el año pasado se la han puesto al series nueve. Es una actualización de bajo perfil, es una actualización de bajo perfil, es una actualización que es como, haz que Apple no innova, entiéndanme, Apple no innova, de verdad, es que, en fin, si hablamos desde lo que es la, vamos a llamar, ¿vale? Innovación, ¿vale? ¿Qué es la innovación?

    ¿Vale? Es que Apple no innova. Entiéndanme, Apple no innova, la innovación es el proceso de crear, desarrollar e implementar una nueva idea, un nuevo método, un nuevo producto, un nuevo servicio, un nuevo proceso que aporte valor y mejore una situación existente. Es el acto de introducir algo nuevo diferente a menudo con el objetivo de resolver un problema, satisfacele una necesidad o aprovechar una oportunidad y, por favor, todas las compañías innovan, dejemos de ser cuñados a ese respecto, ¿vale? Que la innovación no es algo que te vuele la cabeza como cuando salió el iPhone?

    Hombre, por supuesto, pero es que cuando Apple presenta una innovación de las que te vuelan la cabeza, como los chips Apple Silicon o como el Apple Vision Pro, resulta que ya la gente dice, pasa esto, Apple ya estaba haciéndolo a la otra compañía. Pues, vamos a ver, si siempre le vas a poner pegas a Apple, pues cállate ya y déjame tranquilo. De verdad, sí que de verdad, ¿vale? Entonces, innovación es eso que acabo de decir, que es una actualización de perfil muy bajo, bajísimo, porque lo único que hace es actualizar la CPU, actualizar el chip de banda ultra ancha y la pantalla. ¿Es un cambio que es importante?

    ¿Es un cambio que redefine el producto? Es su Pues no, la redefinición del producto vendrá teóricamente el año que viene con el Apple Watch Series diez. ¿Saben por qué? Porque la gente confunde innovación con cambio de diseño. Y no, el cambio de diseño es una cosa, porque ¿qué pasa?

    Que si Apple el año que viene pone el mismo exacto Apple Watch que tenemos ahora, lo mismo todo todo todo todo todo todo todo con los mismos componentes, pero le pone un nuevo diseño. Ay, es que Apple no vea cómo innova. Anda, y lo saco más por saco, ¿vale? Vamos a aprender lo que es realmente la innovación, ¿ok? En fin, ya saben que yo digo todas estas cosas desde el cariño y que como evangelista, pues me meto en el papel, ¿no?

    Y lo vivo y como temblad, la furia de Jobs vendrá y caerá sobre vosotros, arrepentíos pecadores, ¿vale? Soy un poco así, pero ustedes me quieren por eso y entonces, pues nada, yo me alegro que les guste, que sea tan apasionado, ¿vale? De pasión de gavilanes y esté aquí, pues hablando de este tema. Así que eso es todo lo que teníamos que decir hasta ahora del Apple Watch series nueve y los Apple Watch ultra dos, que, por cierto, han bajado de presión España, que siempre es de agradecer. Obviamente, lo que nos toca ahora es hablar de los iPhones.

    Tenemos cuatro modelos de iPhones, los iPhones quince, quince plus, quince pro y quince pro max, pero si hablamos de los iPhones, tenemos que hablar de ellos en tres bloques distintos, porque tendríamos que hablar, casi diría cuatro bloques tal vez, ¿vale? Cuatro bloques porque el primero sería el de las cosas que no importan, o sea, el de las cosas en plan de, bueno, pues esto pasa tal cual y punto. Y, de hecho, dentro de eso, pondríamos el nuevo diseño de los marcos en titanio, porque es algo que, bueno, pues vale, sí, titanio, muy guay. Es un cambio que es más por decir que han hecho algo que por el hecho de que realmente sea algo que aporte, porque sí, es más ligero, oh, dios mío, es algo menos de veinte gramos más ligero el dispositivo. Pues hombre, en fin, gracias, ahora no me he hernio la mano, o sea, no sé, es que insisto, ¿está guay el titanio?

    Sí, está guay el titanio. Va a envejecer, porque esto es lo importante, el titanio va a envejecer peor que el acero inoxidable? Pues si nos paramos a ver lo que sería el histórico del titanio como material utilizado para ciertos productos de consumo, pues obviamente va a envejecer mal. De hecho, el titanio se utiliza en ciertos tipos de, pues, por ejemplo, elementos de ortopedia, elementos incluso internos, ¿vale? A nivel de elementos que se usan dentro del propio cuerpo humano, pues para ciertas lesiones, etcétera, y ese titanio obviamente da igual que se ponga feo, porque no es que se oxide, es que, bueno, pues de la propia manipulación se queda feo y entonces, bueno, pues no, es algo que, bueno, pues habrá que tomar en cuenta, y no estoy hablando de estas fotos que se han filtrado, donde se ven unas marcas alrededor de los botones y ya está diciendo la gente que el titanio tal, no, no, no, vamos a ver, seamos serios.

    ¿El titanio va a envejecer? Sí. ¿Va a envejecer peor que el acero inoxidable? Sí, ¿ha envejecido en veinticuatro horas? No mire usted, esto no es como Mel Gibson en aquella película que envejecía según lo mirabas, no.

    Vamos a ver, esto, o sea, lo que le pasa a esa foto, y de hecho se ha demostrado empíricamente, es que se está mezclando lo que es la grasa que tiene la la la los propios dedos, ¿vale? La propia grasa que al tocar crea ese halo, ¿vale? Pero eso limpias con una gamuza y se y se quita, ¿de acuerdo? O sea, entiéndanme. Esto pasa exactamente igual en los iPhones de acero inoxidable, que tú de poner ahí los de Dacos, pues se quedan las marcas y queda feo, le pasas un pañito y se queda limpio, ¿vale?

    O sea, esto esas fotos no tienen ningún sentido, ¿de acuerdo? Ahora, eso no quiere decir que el titanio vaya a envejecer, entre comillas, peor, ¿vale? Quiere eso decir que se puede desgastar, que no no no no, al contrario, el titanio como material es igual de resistente que el acero inoxidable. El problema, que es lo que se usaba antes en los iPhone catorce y anteriores, los Pro, el problema es que el titanio, visualmente, estéticamente, envejece peor, y es algo que, bueno, pues ni siquiera la gente que tiene a día de hoy una Apple Watch ultra desde hace ya un año, que recordemos que la caja también es en titanio, pues ni siquiera ha podido ver, ¿vale? Esto es algo que necesita un tiempo, un uso, una un proceso, ¿vale?

    ¿Que realmente aporta algo que Apple haya cambiado al titanio? No, no aporta absolutamente nada. Lo que, de hecho, lo que le ha aportado a Apple es hacer que el iPhone sea más caro, porque tratar el titanio es más caro que tratar el acero inoxidable, porque Apple ha tenido que crear unas líneas de producción y una forma de inyectar en moldes el titanio para moldearlo y de acabar con y que tenga el pulido que tiene y darle los colores que le ha dado, que están dados sobre el propio material del titanio, ¿vale? Los colores se se hacen sobre la propia fundición, pues claro, entiéndanme el, en fin, me refiero que no es yo haga el titanio de un color y luego lo pinte, ¿vale? Sino que el propio titanio va inyectado con el color en sí también, ¿vale?

    Porque tiene unas modificaciones químicas. Entonces, el tema es que hacer el iPhone con titanio les ha resultado más caro, pero claro, piénsenlo fríamente, algo tiene que vender Apple como novedad, porque si no, ¿qué vende como novedad? Porque vivimos en un mundo en el que la gente confunde innovación con diseño, y quiere decir que si el diseño no cambia no hay innovación, hombre, por favor, un poquito de seriedad, quiere eso decir que el Mac mini m uno no tiene innovación porque el Mac mini es igual que el modelo anterior, igual que el MacBook Air o igual que el MacBook Pro, porque los tres primeros equipos que salieron con m uno eran exactamente iguales en diseño que los que tenían de Intel. Entonces, bueno, es que ahí no hay innovación. Hombre, señores, la innovación no es el diseño, la innovación no es cambiar el diseño, la innovación no es cambiar cómo se ve el producto, la innovación, como la belleza, va por dentro también, ¿de acuerdo?

    Apple Apple se ve obligada, y esto es muy triste que tengan que llegar a esos niveles, se ve en la obligación de buscar algo que suponga algo de cambio por fuera para que la gente diga, bueno, pero es que este año por lo menos es titanio, Lo que han hecho ha sido complicarse la vida, créanme, porque en el mundo del acero inoxidable vivimos felices y sin ningún problema, que el titanio queda más bonito, más elegante, más, bueno, pues depende a quién le preguntes. A mí personalmente, sí, me parece que queda más elegante el pulido que tiene ese titanio recién comprado, me parece que queda más elegante que el acero inoxidable, tiene un una textura, ¿vale? Y y la gente que lo ha tocado, yo no, habla de un tacto más agradable y sobre todo de un tacto más firme, ¿vale? Que no tienes la sensación cuando coges el teléfono con acero inoxidable, puedes tener la sensación de que tu mano tiende a resbalar levemente porque la superficie es como muy lisa, ¿no? Entonces, con esa superficie lisa da la sensación que el agarre no es igual de bueno, sin embargo, con titanio esta superficie no es tan lisa, ¿vale?

    Le han dado una mínima textura al metal para que al agarrarlo la sensación de ese grip, ¿vale? De esa sensación de recoger o sujetar el dispositivo sea más de una sensación de que es algo que se agarra mejor, ¿de acuerdo? Bueno, pues genial, estupendo, pero insisto, esto ha sido una obligación que Apple se ha marcado a sí misma por dar la imagen de que está innovando porque la gente solo entiende la innovación como cambios estéticos, como cambios de fuera. Pues ese es el problema, ese es el mundo en el que vivimos, ¿de acuerdo? Y en este caso, la verdadera innovación de este dispositivo no está fuera, está dentro.

    ¿Es una innovación disruptora? No, obviamente no, pero es una innovación en la misma línea en la que todas las compañías de productos electrónicos están viviendo en los últimos años. ¿Ustedes piensan que un televisor Samsung o un televisor LG o un televisor Sony, cambiando año a año el modelo, realmente tienen un cambio espectacular que cambie, ni de coña, pero ustedes, vamos a ver, bueno, yo sé que ustedes no piensan esto, pero realmente podemos llegar a pensar que la tecnología puede cambiar año tras año o cada dos años y reinventarse por completo, no no, pero vamos a ver, que no, que es imposible, que las cosas llevan un tiempo, que esto no es como cuando estrenan One Piece en Netflix, y es es justo el momento en el que acaba la serie y alguien se ha hecho un beenwatching y se ha visto a las ocho horas, y a las veinticuatro horas del estreno ya está poniendo en Instagram, oiga, ¿y para cuándo es la segunda? Para el mes que viene la segunda, ¿no? Y es como, pero chavales, pero tú sabes lo que se ha tardado en hacer esto, pero tú sabes lo que cuesta hacer las cosas.

    Obviamente no, ¿vale? Entonces, ese es el kit de la cuestión, que aquí llevamos años en el que los productos tecnológicos no innovan porque no hay de dónde innovar en el sentido de innovación disruptiva, no innovación continuista. Ahí sí, los Samsung cada vez que sacan un nuevo Galaxy, pues van mejorando un poquito, la cámara es un poquito mejor, la pantalla es un poquito mejor, el acabado del dispositivo es un poquito mejor, es una versión menor, nueva, los Xiaomi, los Huawei, los iPhones, todo, ¿vale? ¿Que haya un enano dentro que limpie mucho más rápido? Pues, a a los últimos les han puesto, por ejemplo, WiFi, que tienes una aplicación y que lo puedes poner desde el móvil, ¿vale?

    Pues genial, pero sigue lavando el plato, el microondas, ¿qué innovación puede tener un microondas, vale? Le puedas decir el tipo de leche que estás poniendo y que te caliente leche de soja, de almendra, desnatada, semidesnatada, leche de Jack, hombre, o sea, vamos a ver, de verdad. Entonces, seamos realistas, yo sé que ustedes que me escuchan y por el porque por eso están aquí, son realistas a este respecto, que es imposible que ninguna marca innove año tras año en lo que el común de los mortales entiende por innovación, que es prácticamente sacar un producto nuevo cada año. No, o sea, es que no se puede, ¿de acuerdo? Y, de hecho, la prueba la tenemos en que, pues eso, lo hemos hablado antes, El Apple Watch tuvo un cambio en el Apple Watch series cuatro y, a partir de ahí, pues cambio continuista.

    ¿Cuál ha sido la verdadera o el verdadero mayor cambio a nivel de público general del Apple Watch? El Ultra, ¿quiere eso decir que el Ultra es una gran disrupción? No, el Ultra es por dentro exactamente igual que un Series ocho. Lo que pasa que, como es un poquito más grande, tiene alguna cosita más y hace alguna cosita más, pero ya está, pero no es un gran cambio, y lo que a mí, sinceramente, más me llama la atención, es que cuando llegan y sacan al guión algo que realmente es disruptivo, como el Apple Vision Pro, encima se atreven a decir, kazgapa, no están mandando nada nuevo. Vamos a ver, de verdad, ¿qué era el iPhone?

    El iPhone estaba inventando algo nuevo, no, ni de coña, ya había smartphones antes del iPhone, de todas las marcas. Y todo lo que hacía el iPhone ya lo hacían cualquier otro dispositivo smartphone del mercado, todo, el correo, la navegación, el todo, todo lo que hacía el primer iPhone lo hacía cualquier otro dispositivo. Pero la diferencia no es lo que haga, es cómo lo haga, esa es la diferencia. El iPhone triunfó no porque hiciera lo mismo que su competencia, porque hacía lo mismo que su competencia. Triunfó por cómo lo hacía, porque lo hacía de una manera totalmente distinta, reinventando la forma en la que los demás hacían las cosas, y y eso es el Apple Vision Pro.

    Apple Vision Pro es lo mismo que vienen haciendo hace años las Microsoft Hollowlence, los Magic Leap, las los las lentes de meta. Todo eso ya se hacía, unas pico cuatro. Las pico cuatro hacen lo mismo que un Apple Vision Pro. La diferencia es cómo lo hacen, con la calidad que lo hacen, con el software que lo hacen, de la manera que lo hacen, esa es la diferencia, y eso es lo que aporta, y ahí es donde está la innovación, en cambiar la hoja de ruta y apuntar a otro sitio, no en decidir que ahora paso de acero inoxidable al titanio. El titanio no es más que la forma de llamar la atención a la gente diciendo mirad, mirad, hemos cambiado cosas en el iPhone y todo el mundo, aló, haz de titanio, titanio de grado espacial, qué maravilla.

    Vale, sí, pues qué maravilla. Está guay, está guay, es bonito, es bonito. Pero de verdad, me entienden, ¿no? Pues eso. Pero lo realmente importante de los iPhones, ¿vale?

    Bueno, tocando, ¿no? Digamos, las partes que no serían el los tres bloques principales de los que vamos a hablar, ¿vale? Ya hemos tocado el tema del titanio, vamos a tocar el tema de la pantalla, ¿vale? La pantalla de los nuevos a tocar el tema de la pantalla, ¿vale? La pantalla de los nuevos iPhones, todos los iPhones, iPhones quince, quince plus, quince pro y quince pro Max, es una pantalla nueva basada en la tecnología de los Apple Watch Ultra que tienen un pico de brillo de dos mil nits, por lo que todos los iPhones este año tienen un pico de brillo de dos mil nits, capaces de llegar a este pico de brillo en dos mil nits, máximo con perfil completo de Dolby Vision a mil seiscientos, por lo que prácticamente lo que vamos a tener en la mano es una pequeña televisión de alta gama, ¿vale?

    O sea, para que tú tengas esos niveles de brillo en un televisor, te tienes que ir a una tele de dos mil, tres mil, cuatro mil euros, acaban de salir, o una Samsung que también tienen este año, no sé si también la tenían el año pasado, modelos oled que dentro de ser Samsung tampoco están mal, ¿vale? Aunque me sigo quedando de calle con LG, pero, bueno, el caso es que si queremos un panel que tenga estas características, pues no es barato, ¿vale? Porque esto no es minipantalla o un minitelevisor, ¿vale? Porque esto no pertenece a los televisores de gama baja, por lo que tenemos una mini pantalla o un mini televisor, ¿vale? Recordemos que estamos hablando de seis pulgadas, ¿vale?

    Seis con uno y seis con siete, pero dentro de eso, pues tenemos una pantalla de muy alta calidad, que es capaz de llegar a picos de brillo muy altos y, por lo tanto, la calidad de imagen ha mejorado sustancialmente comparado con los modelos del año anterior. E insisto, esto es un cambio que tienen todos los iPhones, iPhone quince, quince plus, quince pro y quince pro max. Pues eso, sinceramente, sí me parece un cambio interesante, que le pongan una pantalla de mucha más calidad, con mucho más brillo, pues, y que, obviamente, gaste lo mismo, pues me parece muy interesante. Vamos entonces a ver, ya por quitarnos también en medio el otro elemento que también tiene que ver con la pantalla, el tema de los sesenta hercios y ciento veinte. A ver, aquí ya el año que el año pasado, perdón, hubo todo tipo de bilis de distinta índole, y este año, como no podía ser menos, vuelve a haber lo mismo.

    ¿Tiene sentido que Apple venda un dispositivo de novecientos cincuenta y nueve euros a partir de con una pantalla de sesenta hercios en el año dos mil veintitrés? ¿Les soy sincero? Sí, tiene sentido. ¿Por qué tiene sentido? Porque la necesidad de tener una pantalla de más hercios nos la ha generado la nos nos la han generado las propias compañías.

    Nosotros no necesitamos una pantalla de más de sesenta hercios. De hecho, la gran mayoría de nosotros estamos trabajando con equipos que tienen pantallas de sesenta hercios, me refiero a ordenadores. Prácticamente nadie en el mundo de los ordenadores tiene una pantalla de más de sesenta hercios, y si la tiene es porque la tiene por tema de video juegos, porque tiene porque la usa para gaming, pero no porque a nivel de productividad la pantalla de más hercios vaya a resultar mejor. No, no se engañen, es una necesidad que se nos ha creado de la nada. Quiere eso decir que por precio, por el precio que te piden, Apple ya que está, debería de poner una pantalla de más hercios por lo menos como gesto?

    Hombre, pues sí, ¿vale? Pues sí, por el precio que te cobra, pues ya te podría haber puesto por lo menos una pantalla de noventa hercios. Pero, repito, es que es una necesidad el que tú o el que yo pensemos que mejor una pantalla de noventa, una de sesenta, no es más porque se nos ha generado esa necesidad. El propio marketing se ha mordido la cola a sí mismo, se ha pisado el pie a sí mismo, se ha pegado un tiro en el pie y ha dicho, vamos a generar esta necesidad de tener pantallas de más hercios porque, de hecho, Android tiene móviles de doscientos o trescientos euros que tienen pantallas de ciento veinte, pantallas de mierda pero que van a ciento veinte, ¿vale? Eso también es una coña bastante importante, ¿vale?

    Pantallas con una calibración penosa que se ven fatal, comparadas con una pantalla de, ¿vale? O sea, es como comparar una tele de cuatrocientos euros con una tele de dos mil cuatrocientos del mismo tamaño. Pues, obviamente, si te cobran dos mil euros más por la tele, no es por capricho de la marca, es porque la tecnología y la calidad que tiene esa pantalla están años luz. Ahora, si tienes un ojo enfrente del otro, te va a dar igual, ¿vale? Porque si no eres capaz de captar o de entender o de ver esa diferencia, pues, como decía aquel, pues cómprate la más única, ¿vale?

    Porque te va a dar igual que se vea como el culo, ¿vale? Porque tú lo vas a seguir viendo y para ti va a seguir siendo algo que se va a ver, bien, pues ya está. Aquí volvemos a lo de siempre, quiere eso decir que tú eres tonto porque ves una tele que se ve mal, no, al contrario, la calidad, el lo que es el el baremo de la calidad, lo pone cada uno. Lo que para mí es calidad, para otro no es calidad. Lo que para mí es algo que yo no paso por menos de esto, pues para otro necesitará más o necesitará menos, cada uno establece sus prioridades, y siendo tu prioridad, es como diría el maestro Miyagi si visto dentro de ti siempre el correcto, pues es así de simple.

    Entonces, pero lo que no podemos negar es que hay una diferencia y que una tele de dos mil cuatrocientos euros, obviamente, se va a ver mejor y tiene mejor tecnología que una de cuatrocientos a mismo tamaño, no es capricho de la compañía, ¿de acuerdo? Entonces, pues esas pantallas son lo que son, pero bueno, son ciento veinte hercios, ¿ok? Y además también tienen puerto USB C, y además USB C tres punto cero, ¿vale? Que esto es otro tema que veremos después con cuando hablemos de los puertos de comunicaciones. Entonces, ¿qué es lo que sucede?

    Que la realidad, y se lo dice una persona que tiene un iPhone catorce Pro con pantalla de ciento veinte hercios, y que tiene un iPad Pro con pantalla de ciento veinte hercios, y que ha manejado y probado gracias a los amigos de con con pantalla de ciento veinte hercios, señores, ¿que la pantalla de ciento veinte hercios no es un cambio que te cambie la vida? ¿Que mola más? Sí, que se ve más fluido, obviamente, que hace que trabajes mejor y tu vida sea más plena y los pájaros canten, las nubes se levanten, que sí, que no, que no, no, no, ¿vale? No. ¿En videojuegos?

    Pues, hombre, sí, el cambio de un sesenta hercios a un ciento veinte en un videojuego, con una Xbox, con una PlayStation que lo soporte, con un PC de buena calidad que lo soporte, pues hombre, ver un juego a ciento veinte hercios te permite, sobre todo cuando son juegos competitivos, tener un tiempo de reacción, mejor tener un tiempo de reacción en el que, como pasan más fotogramas por segundo y todo es más fluido y el movimiento es más fácil de captar cualquier tipo de cambio en la imagen, pues es una cosa que te ayuda a nivel competitivo. Pero, a nivel de trabajo, ciento veinte hercios que mejoran en una edición de vídeo, o en un flujo de programación con scode, que cuando muevo el código arriba y abajo en un scroll, el código del scroll se ve más fluido, pues si no lo voy a poder leer, si a la velocidad a la que mueves el scroll no, ¿qué vas a hacer? O sea, eres como Johnny número cinco que pasa el a la velocidad a la que se nota el cambio de los ciento veinte hercios? No, simplemente es un tema puramente estético, por lo que ya está bien de hacerle caso a ese mundo que ha creado esa necesidad totalmente absurda de tener una pantalla de más hercios, ¿de acuerdo?

    Ahora, repito, por el precio que están cobrando, ya se podían haber molestado, teniendo en cuenta que todas las demás compañías lo están haciendo, posponer una pantalla que tuviera algo más, simplemente, por no tratar como tontos a los compradores, porque ese es el verdadero problema de Apple en este sentido, que Apple está poniendo un puerto USB C dos punto cero en los iPhone quince y quince plus, por lo que la tasa de transferencia sigue siendo la misma que con Lightning, y está poniendo una pantalla de sesenta hercios. ¿Y por qué está haciendo eso? Porque lo siento en el alma, porque está tomando por tontos a la gente, no por tontos, los está tomando por gente que no le importa eso. Porque esa es la realidad, los ciento veinte hercios le importan a usted que me está oyendo porque como a a usted le gusta la tecnología, como a usted le apasiona y quiere saber cómo funciona por dentro, por eso está oyendo aquí a un señor divagando durante horas en un análisis y lo está gozando, ¿vale? Pero esto se lo pone usted a una persona normal del mundo y es un remedio excelente, mucho mejor que cualquier tipo de droga en el Cola Cao, para dormir, ¿vale?

    Se lo pone usted a cualquier persona y se queda sobadita a los cinco minutitos maravillosamente eso, o le da un dolor de cabeza que no se le quitan cinco años, ¿vale? Porque la mayoría de la gente, el noventa y cinco por ciento de la gente, no tiene ni puñetera idea de qué es eso de un hercio, ¿un hercio qué es? Sesenta hercios, ciento, ¿qué es que eso qué es? Pantalla promotion, y que, ay, mira, vi, payo, que el promotion, ¿y promotion qué es lo que es? Pues, el promotion, pues, es una cosa bonita, es bonito, ¿vale?

    Entonces, y todos ustedes que me escuchan lo saben perfectamente, la mayoría de la gente no ha no va a conectar jamás un puñetero cable a un iPhone, ni lo ha hecho en años. Si es que ni yo lo he hecho, yo solo he conectado mi iPhone a un ordenador, o sea, es decir, conecto con un cable para usar CarPlay, porque mi coche no tiene CarPlay inalámbrico, y para enchufarlo al ordenador cuando tengo que dar clase y quiero conectar el iPhone para que se vea en pantalla compilar, o el ejemplo que estamos haciendo, pues cómo se ve en el iPhone, cómo se pone, si no estoy viendo clase de realidad aumentada, pues para que vean la tierra y la luna moviéndose y lo hago con el teléfono, y para que pueda transmitir la imagen de lo que se ve en el teléfono, pues lo que hago es enchufarlo por cable, pero mi mujer no ha enchufado por cable su iPhone jamás en años, Mis hijos no han enchufado por cable el iPhone jamás en años. Y los iPad los enchufan por cable porque por ahora es la única forma que hay de cargarlos. Seamos sinceros, el noventa y cinco por ciento de la humanidad jamás va a enchufar un cable y jamás va a pasar datos a través del cable, porque si tienen que pasar fotos al ordenador, ya tienen pagando iCloud o tienen pagando, pues, yo yo que sé, Google o Dropbox o todos los servicios en la nube.

    El otro día me me compré la suite de de office, ¿vale? Pagué la licencia anual, ¿vale? Porque la necesitábamos para la empresa, pues me ha dado un tera de OneDrive y lo primero que me ha dicho al instalar OneDrive es, ¿quieres que haga copia de todas tus fotos? ¿Vale? Y y me las ponía en la nube, ¿vale?

    Me he dicho que no porque ya las tengo en iCloud drive. Y si necesito cualquier foto me la va a poner él solo ahí y si no, pues mando por airdrop y para mandar una foto airdrop es maravilloso. Ahora, no mandes trescientas fotos en ProRes, porque, pues eso, en ProRes, no, en en en Row, ¿vale? En ProRes Row, ¿vale? Porque no te las va a coger.

    Entonces, seamos sinceros, la gente normal no le da igual, ¿vale? Entonces, ese es el problema, que Apple juega al juego de la ignorancia de la gente, como la gente no entiende que es una pantalla, pues yo le pongo una de sesenta y no se van a dar cuenta. Como la gente nunca va a enchufar un cable, solo lo va a poner como mucho para cargar o el carPlay, le pongo el mismo la el mismo tipo de conexión y la gente no se va a dar cuenta, ¿vale? Eso a mí me parece mal, me parece mal, porque está jugando con la el desconocimiento de la gente, entonces, pues en ese punto a mí me parece mal que Apple haga esto, pero lo hace por eso, porque sabe que el noventa y cinco por ciento de la gente que se va a comprar un iPhone quince o un iPhone quince plus le da igual el tema de los sesenta hercios o el tema del USBC porque no sabe qué es eso, ¿de acuerdo? No es porque diga, bueno, no, es que a mí me da igual tener una pantalla de sesenta, yo con sesenta tengo de sobra, no, es que no sabe qué es eso, es que no sabe que hay una diferencia en la pantalla en la que la pantalla va a ciento veinte hercios en el Pro y a sesenta en el no Pro.

    Y lo único que vas a conseguir, y yo les invito a hacer la prueba, cogen ustedes una persona random, pónganla en un lugar y le digan, venga, usa este móvil que sesenta hercios y usa este de ciento veinte, ¿qué diferencia ves? Pues mira, va a haber gente que no va a notar diferencia, porque la va a ver, ¿vale? No todo el mundo tiene la misma capacidad visual. Gente que va a decir, este parece que va más rápido, esa es la sensación, parece que va más rápido, pues entonces el pro es que es mejor, porque hombre, es pro y tiene que ir más rápido, pero no te van a saber explicar por qué esa sensación de que va más rápido o de que va más fluido, ¿vale? Y cuando les digas, estarías dispuesto a pagar x cientos de euros porque la pantalla fuera más fluido, todos ellos te van a decir, pues no, me da igual, para que vaya un poco más fluido, que me cueste menos.

    ¿Qué es así? Solo los frikis del carajo, como nosotros, valoramos ese tipo de de de tonterías, tonterías que nos ha impuesto el marketing, ¿de acuerdo? En fin, así que eso sería un poco el resumen de las partes no principales de los iPhones, ¿vale? Todo lo que no tiene que ver con los otros tres bloques, que es donde vamos a entrar ahora. Puertos de comunicación, cámara de fotos y chip, ¿de acuerdo?

    Porque los chips es donde hay mucha telita que cortar y bastantes sorpresas y salseíto del bueno. Así que, pues, seguimos al siguiente bloque. Por fin, o tal vez no tan por fin, porque esto es una obligación que viene dada por la Unión Europea, donde si Apple vende productos que no utilicen puertos USB C a partir de diciembre del próximo año dos mil veinticuatro, no va a poder venderlos en Europa, por lo que de aquí a finales de dos mil veinticuatro, todos, absolutamente todos los productos que Apple venda tienen que tener obligatoriamente dos condiciones. Una, tener un puerto USB C para la carga, en caso de tener carga por cable, porque podría vender productos que no tuvieran cable para cargar y solo fueran inalámbricos dispositivos que tienen cable para cargar, tienen que ser con conector USB de tipo C. Y, además, otra cosa muy importante, y es que no puede vender los dispositivos con un cargador en la caja.

    Sí, sí, sí, sí, sí, lo que me están escuchando. La Unión Europea va a obligar a todos los fabricantes a no incluir el enchufe de carga en ningún dispositivo por el tema ecológico por el que Apple ya en su momento lo quitó. Que el tema ecológico es también algo bueno para ellos, en el sentido de que al no poner el cable, al no poner el enchufe, ¿vale? A ver, resolviendo la duda, que esto se entra en la página de Apple y ya se ve, el iPhone se vende con un cable, pues por supuesto, ¿vale? El iPhone viene el teléfono y viene un cable de carga, ¿de acuerdo?

    USB de tipo C. Por los dos lados, por el lado que conecta el dispositivo y por el lado que conecta el cargador, pero no viene con un cargador, no viene con un enchufe, esa es la diferencia. Si queremos comprar un enchufe y queremos el de Apple, cuesta veinte euros, por veinte euros tenemos un cargador de Apple de veinte watios que nos permite, pues cargar el dispositivo en una especie de carga semirrápida, ¿vale? No podremos llamarla carga rápida, pero estaremos cargando el iPhone a dieciocho watios, que es un poquito ligera, o sea, no es rápida, es ligera, ¿vale? Entonces, no sería carga lenta, pero sería una carga un poquito más ligerita, ¿vale?

    Entonces, sería ese el tema, ¿ok? El teléfono viene, todos los teléfonos vienen con el iPhone y el cable de carga, pero no vienen con el enchufe y es una, es la segunda condición que Apple obviamente ya cumple desde hace tiempo, que tienen los dispositivos para poder venderse en la Unión Europea, Europea, por lo que el cambio es a USB C, por mucho que Apple te diga, no, es que hemos decidido tal, mentira, se han visto forzados a cambiar por el tema de seguir vendiendo la Unión Europea, y ya que estaban, pues han dicho, bueno, venga, pues ya vamos a ponerlo en todos los dispositivos, y ya, pues, verde las han cegado, ¿vale? Perfecto. E insisto, todos los dispositivos de Apple, ¿vale? Ya cuenten con ello, este esta primavera del año que viene aparecerá en el mercado un nuevo iPhone SE, que si todo va bien será una réplica de los iPhones diez R, ¿vale?

    Diez R once, ¿vale? Un dispositivo con que tiene Face ID, que tiene todo pantalla, aunque los marcos son un poquito más gruesos porque es una pantalla Liquid Retina LCD, no es una pantalla OLED. Entonces, bueno, pues este nuevo iPhone SE, que sería un diez R remozado, que tendría muy probablemente el procesador A dieciséis que ya tienen los iPhone quince y quince Pro, y que valdría, pues, aproximadamente, unos quinientos, seiscientos euros, ¿de acuerdo? Que saldrá a la venta en primavera, vendrá con puerto USB y de aquí a finales de dos mil veinticuatro, tanto los airpods de tercera generación como los airpods Max, también saldrá una nueva versión que tendrán USB C. ¿Tendrán algo más que USB C?

    Pues eso ya está por ver, ¿de acuerdo? Entonces, con el tema del USB C, en esta presentación, Apple nos presentó, pues, todos sus dispositivos, todos, con el cable de carga USB C, ¿de acuerdo? Los Apple Watch tienen, que eso ya lo, si no recuerdo mal, ya lo tenían desde el año pasado, bueno, no no recuerdo exactamente, pero bueno, el caso es que viene con un cable de cargador de reloj, ¿vale? Que es un cable distinto, imantado, como ya saben, pero la terminación, en vez de ser un USB de tipo a, como era normalmente, es de USB de tipo c, pero lo importante es que los Apple, o sea, los iPhones, los cuatro vienen con puerto USB de tipo C. Y además, también Apple ha presentado unos AirPods de segunda generación, también con una caja, unos AirPods Pro, perdón, unos AirPods Pro de segunda generación, teóricamente los mismos, pero que vienen con una caja que, en vez de ser lightning, es USB de tipo C.

    Vale, pues, señoras y señores, prepárense para flipar. Los AirPods Pro de segunda generación no son los mismos los de la caja Lightning que lo de la caja USB C. Si ustedes cogen una caja USB C e intentan cargar los AirPods Pro de segunda generación que van en una caja lightning, no van a cargar, porque el modelo es distinto. Bien, ¿ya han terminado de flipar? Pues ahora agárrense a la silla.

    Los AirPods Pro de segunda generación con caja USB de tipo C, solo los que van a venir a partir de ahora con caja de tipo conexión de tipo USB C, soportan música en calidad los les sin pérdida. ¿Quiere eso decir que los AirPods de segunda generación también lo soportan? No, solo los AirPods Pro de segunda, es que de verdad es que es de coña, los AirPods Pro de segunda generación con la caja de USB C. Sí, señores, pero ¿saben en dónde van a estar habilitadas los la capacidad del audio los LED? Solo cuando usemos los AirPods Pro de segunda generación con el Apple Vision Pro.

    Hala, al suelo todos. En fin. A ver, esto es lo que Apple ha anunciado, ¿de acuerdo? Los AirPods de segunda generación con caja USB C van a poder conectar con los AirPods, perdón, con el con el Apple Vision Pro, y a través de los protocolos de conexión, que entiendo que será a través del Bluetooth, Bluetooth superior a cinco punto dos, será capaz de enviar sonido en calidad a los leds, por lo que podremos oír un sonido Dolby Atmos en calidad sin pérdidas hasta de veinticuatro bits en cuarenta y ocho kilohercios, que en formato Alac requiere aproximadamente entre setecientos sesenta y ocho kilobits y un megabit, ¿de acuerdo? En un formato losless de el propio Alac, ¿vale?

    ¿Quiere esto decir que solamente estos AirPods Pro de segunda generación con la caja USB C van a ser los únicos? A ver, mi teoría es que esto es como un asomo la patita, ¿vale? Porque, repito, a ver, son un modelo distinto porque están marcados como un modelo distinto, por eso los AirPods Pro que van en una caja USB C no van a cargar en la caja Lightning y los de la Lightning no van a cargar en la caja USB C, ¿vale? Porque están marcados como un modelo distinto, ¿vale? No están marcados con el mismo exacto modelo.

    Este esta noticia de lo que es el soporte de audio en los leds, de audio sin pérdida, pues guay, pero que esté limitado al Apple a el Apple Vision Pro, pues es un poco como me, ¿vale? Después de todo lo que llevamos esperando. Mi opinión, mi teoría basada en mi experiencia y en la bola de cristal, ¿vale? No está basada en absolutamente nada más, ¿ok? Me dice que, por lógica, esto se irá ampliando, que si el chip H dos, porque sigue siendo el chip H dos el que llevan los AirPods Pro de segunda generación, es capaz de enviar y, es capaz de, no de enviar, sino de recibir sonido en calidad sin pérdidas, pues cualquier otro equipo de Apple con el chip H dos será capaz de hacer lo mismo, por lo que, en fin, entiendo que ese chip H dos de audio será, pues eso, el que permita que se pueda emitir sonido en los leds.

    Claro, aquí el problema es que el único dispositivo a día de hoy que utiliza el chip H dos y que, además, incluye el U uno dentro de la carcasa para poder localizarlo de una manera más fácil, son los AirPods Pro de segunda generación, los AirPods Max, los AirPods de primera generación, de segunda, de tercera, los Bits Bit Pro, los Power Bits, los Power Bits Ball, los Power Bits Pro de Thinking, los Bit Solo Pro, etcétera, ¿vale? Salvo los últimos que hayan salido, pues todos tienen el chip H uno, por lo que si el los les está supeditado a el h dos, ya tienen ustedes ahí la actualización que habrá el próximo año de todos estos elementos, es decir, habrá unos nuevos AirPod Max que tendrán el chip H dos y puede que incluso el U dos, en vez del U uno, y a lo mejor usan el chip de banda ultra ancha también para la emisión de la música en los LEDs, porque no descarten que realmente la música o el sonido en los LEDs se esté transmitiendo a través del chip U uno, no a través del H dos, o que se esté usando ambos, ¿vale?

    De alguna manera, lo desconozco, pero es curioso que estos son los únicos que tienen el U uno, en los AirPods Pro de segunda generación, por lo que insisto, esperen el próximo año unos AirPods de cuarta generación con puerto USB C y el chip H dos, que sí serán nuevos porque tendrán un chip distinto, igual que unos AirPods Max, ¿vale? Tienen que llegar porque, primero, es obligatorio que el puerto cargue, que el puerto cambie, perdón, a un puerto USB de tipo C y no un Lightning, lo cual va a ser interesante porque, teóricamente, al cambiar a USB C podríamos usar cualquier cable que tenga la suficiente el suficiente ancho de banda para poder escuchar música en calidad sin pérdida directamente con los AirPods Max, cosa que ahora, como es lightning, pues hay que comprar el cable de Apple específico. Pero, insisto, también habrá unos airpods de cuarta generación, ¿vale? Por lo que esperen que el próximo año esto aparezca. De hecho, si hacemos caso de la rumorología, Apple estuvo a puntito de lanzar los airpods de cuarta generación y los AirPod Max en este evento, pero al final no salieron las las cuentas a nivel de suficiente, o sea, suficientes unidades producidas por la cadena de producción y que pudieran cubrir la demanda, etcétera, etcétera, entonces Apple ha preferido dejar esto para más adelante, ¿vale?

    Por lo que, insisto, podríamos verlo incluso en primavera del próximo año, en primavera del próximo año podríamos ver un evento o un mini evento o una nota de prensa con vídeo de veinte minutos sobre el iPhone SE con USB C, los AirPod Max con USB C, los AirPods de cuarta generación con USB C, los AirPods Max serían de segunda generación, todos con USB C y en esta vez ya sí todos con el chip H dos con la capacidad de los LEDs, con la capacidad de transmitir ese sonido que, repito, por ahora parece ser que estaría limitado solo a el Apple Vision Pro, pero que, en fin, yo entiendo que esto se tiene que activar con los iPads, los iPhone, etcétera, que tengan con los Mac, que tengan la capacidad de emisión necesaria para esto con los chips que sean necesarios. ¿Es algo bueno que hayamos pasado a USB de tipo C? Sí y no. Es algo bueno porque, bueno, pues tenemos un conector universal para todo, pero también es malo porque tenemos un conector universal para todo. Lo mismo, en lo bueno y en lo malo.

    ¿Por qué es lo bueno y en lo malo? ¿Por qué es lo mismo pero no igual? Pues, básicamente, porque no podemos olvidar que USB de tipo C es un conector, y dentro de ese conector tú puedes meter lo que te dé la gana, porque puedes tener distintos tipos de protocolos, distintos tipos de tipos de transmisión de datos e incluso capacidad de carga, por lo que no va a ser igual. Y fíjense qué curioso. Vamos a empezar a ver a gente quejándose en redes sociales diciendo, haz que me he comprado el cable de Amazon de no sé qué tal y cual y mi iPhone no carga.

    Madre mía. Van a llegar, haz que me he comprado el cable no sé qué tal y cual y es que cuando enchufo para cargar datos va muy lento, claro, porque te has comprado un cable que no es compatible, ¿vale? El problema es que USB C, dentro del USB C, cabe cualquier cosa, por lo que tenemos que ser muy claros a la hora de ver qué es lo que vamos a usar. Y fíjense, porque esto es un egredible, ¿vale? ¿Qué es lo que sucede?

    Bien, punto uno, los iPhone quince y quince plus solo serán capaces de transmitir datos a través de cable a la misma exacta velocidad a la que ya lo hacen los iPhones de anterior generación con puerto Lightning, es decir, tenemos dispositivos que funcionan en USB dos punto cero, ¿ok? Entonces, pues nada, dos punto cero son cuatrocientos ochenta megabits por segundo, lo que supone, pues, que la velocidad de transmisión, pues, no va a ser muy alta. Y claro, ustedes dirán, bueno, estos de Apple, tal, etcétera, etcétera. En fin, les recuerdo el Xiaomi trece Pro, mil trescientos noventa y nueve euros en tienda, es USB C sobre USB dos punto cero. El OnePlus once, ochocientos cuarenta y nueve euros en tienda, es USB dos punto cero sobre USB de tipo C.

    En fin, es lo que hay, ¿ok? O sea, entienden, ¿no? Que esto no es algo que sea simplemente de Apple. ¿Que está mal? Sí, me parece que lo hagan mal me parece mal que lo hagan, o sea, me parece mal que lo hagan mal todas las marcas, ¿vale?

    Pero todas las marcas juegan el mismo juego de Apple, como la gente no va a enchufar jamás un cable ni va a pasar datos a través del cable, le pongo el USB de dos punto cero y banquechutan, ¿vale? Por lo que, ¿está mal? Sí, pero Apple no es la única que hace esto mal. Lógicamente, el que otros lo hagan mal no justifica a Apple, ¿vale? Esto creo que queda claro cristalino.

    Pero, aparte de eso, tenemos otro tema interesante, y es que la carga de los iPhone quince y quince plus por cable no es carga rápida, está limitada a dieciocho watios, porque el cable que tiene el USB de tipo C no es capaz de transmitir más de veinte watios de electricidad. Pero, y aquí vienen las curvas, el Apple iPhone quince Pro y quince Pro Max viene con un cable USB de tipo C, que permite cargar en carga rápida y que es capaz de tener hasta treinta y cinco watios, si podemos llamar, a ver, teóricamente treinta y cinco watios podríamos llamar carga rápida, ¿vale? Hay quien diría que eso ni es carga rápida ni es nada, ¿vale? Pero bueno, ya saben que Apple, la carga rápida como tal, rápida rápida de el enchufe y aquello es como Flash cuando se enfada, ¿vale? No lo quiere porque ya saben que la carga rápida lo que hace es romper las baterías, ¿vale?

    Lo que hace es degradarlas, porque para que una batería cargada en carga rápida no se degrade, habría que ponerle ventilación activa, como tienen los coches eléctricos. Si yo enchufo un Tesla y lo pongo a cargar a ciento cincuenta kilovatios, pues sí, cargará muy rápido, pero verán ustedes cómo, aunque haya un frío del carajo, se encenderá el aire acondicionado muy probablemente, pero no para ponerles a ustedes fresquitos, sino para refrigerar las baterías, porque las baterías calentadas, ¿vale? Se degradan, ¿vale? Calentada, ¿no? Pues eso, rarette.

    Así que ese sería el tema, ¿ok? Entonces, ese es el cable que viene con los iPhones quince Pro y quince Pro Max, es un cable USB C de carga rápida desde el concepto de Apple. Pero, si ustedes usan el cable que viene con el dispositivo Para transmitir datos van a ir a USB dos punto cero. Sí, como están oyendo, el cable que viene con el dispositivo es un cable que está limitado a USB dos punto cero. Aunque el dispositivo, los quince Pro y quince Pro Max, soporten USB tres punto dos generación dos.

    Ese es el estándar que soportan los iPhone quince Pro y quince Pro Max, no USB tres punto cero. Soportan el estándar USB tres punto dos generación dos a través de puerto USB de tipo C, que tiene un límite físico de transmisión de datos de diez gigabytes por segundo. ¿Por qué es USB tres dos generación dos? Porque el USB tres dos generación dos tiene una segunda versión, que es la generación dos por, ¿vale? Generación dos por dos, que, básicamente, lo que hace es usar dos lines, dos pistas de datos para conseguir veinte gigas por segundo.

    Pero eso no lo tiene el puerto de los iPhone quince Pro y quince Pro Max, pero al ser USB tres punto dos generación dos, soporta también Thunderbolt tres y, por lo tanto, soporta la transmisión de vídeo, de señal de vídeo, a través del puerto USB de tipo C. Sí, señores, los iPhone quince, quince Pro, quince, o sea, los iPhone quince Pro y quince Pro Max tienen salida de vídeo. Salida de vídeo digital para conectar a un monitor cosa distinta, ¿de acuerdo? Del adaptador de HDMI, eso es otra cosa distinta, ¿de acuerdo? Lo que estoy diciendo es que es compatible con el estándar DisplayPort de Thunderbolt tres y, por lo tanto, es capaz de emitir una señal de vídeo que va a ser captada, que puede ser captada por un monitor externo, por lo que yo voy a poder enchufar el iPhone a una pantalla externa.

    ¿Para qué? Para que todo aquello que utilice el la librería de reproducción de vídeo se vea en una pantalla. Yo podría enchufar el iPhone a un monitor y ver la serie de Apple TV Plus en el monitor reproducida desde el iPhone por cable, sería posible, ¿vale? Esto, bueno, pues también podría implicar en un futuro futurible, pues que a lo mejor saliera algo parecido al Samsung X, ¿vale? Pero no lo veo yo muy claro en el siendo Apple, ¿vale?

    Pero bueno, el caso es que, insisto, soporta Thunderbolt tres en transmisión de vídeo e incluso si el monitor soporta la carga inversa, ¿vale? Si el monitor es capaz de, una vez yo conecto, lanzar la carga a nivel inverso, por ejemplo, en un monitor de Apple, ¿vale? El iPhone cargaría, ¿vale? Por lo que si yo conecto esto a una Apple Display, ¿vale? Pues podría directamente no solo cargar el iPhone mientras está conectado, sino que el iPhone emitiría la señal a este monitor, ¿ok?

    Perfecto. ¿Quiere eso decir que puedo hacer esto con el cable que viene con el iPhone cuando lo compre? No, no puedes, porque el cable que viene con el iPhone es USB dos punto cero. Si quieres transmitir datos a diez gigabytes o conectar el iPhone a un monitor externo, te tienes que comprar otro cable y ya está. ¿Tiene que ser un cable de Apple?

    No, no es necesario, no es necesario, pero lo que sí tenemos que tener en cuenta son dos detalles. Uno, si yo quiero poder sacar, o sea, poder transmitir datos al máximo de velocidad USB tres dos generación dos, tendré que comprar un cable USB de tipo C que sea compatible, ¿vale? Un cable que me permita hacer esa transmisión y que, bueno, pues funcione a esa velocidad y, por lo tanto, sea compatible con los con lo que serían con los iPhones, ¿vale? Un cable, bueno, pues podríamos encontrar este tipo de cables, pues, por menos de diez euros en Amazon, ¿vale? Ocho euros, diez euros, un cable de un metro, ¿vale?

    Aquí estoy viendo yo, por ejemplo, pues yo que sé, cables de ese tipo, pues un cable aquí que tengo pequeñito, cable USB C tres punto dos, hay algunos que son generación dos por dos, pero bueno, también serían compatibles, ¿vale? Aquí hay un cable, por ejemplo, yo que sé, premium core, tenemos cables, en fin, por unos diez euros más o menos, ¿vale? Aquí estoy viendo en un rango entre seis, entre siete euros y dieciséis, dependiendo de la longitud del cable, cables que van desde un metro en adelante, cables de diez gigabytes, USB tres punto dos generación dos, cable de carga y datos de USB tipo c de color negro, ¿vale? En Amazon por no más de de quince euros, ¿vale? Perfecto, pues ese tipo de cables son los que yo puedo usar, pero me los tengo que comprar aparte, no me sirve el cable de que viene con el iPhone, ¿vale?

    Tendré que comprar un cable aparte. Y si quiero tener carga inversa necesito un cable que sea Thunderbolt cuatro, que le puedo comprar el cable a Apple, que no es barato, ¿vale? O puedo comprar un cable que sea Thunderbolt cuatro en Amazon, ¿vale? Y entonces, bueno, pues ya está, buscaría ese cable Thunderbolt cuatro, lo compraría y a partir de ahí, pues bueno, pues ya está. Insisto, lo que tenemos que hacer es comprobar muy muy muy muy bien que el cable cumple con el estándar que estamos viendo y probando, ¿vale?

    Por ejemplo, tengo aquí uno que no sé lo bueno que será o no, por veinte euros, que es un cable USB C de cuarenta gigas, Thunderbolt cuatro, compatible con vídeo ocho k y carga de hasta cien watios, ¿vale? Pues este cable serviría para conectar. Aquí hay otro Belkin también, USB cuatro, cuarenta gigas, veintidós euros, ¿vale? O sea, no no es una cantidad de dinero que te vayas a volver loco, ¿vale? Por eso también Apple podía haberse dado el detalle de poner el cable bueno, pero claro, volvemos a lo de siempre, como la mayoría de la gente no lo va a usar, pues para eso te pongo cable baratejo y tú ya si quieres conectar el cable para transmitir datos, pues te compras otro que en Amazon los hay baratitos, ¿vale?

    O sea, estamos viendo que por diez euros tenemos un cable que sirve para transmitir y por veinte un cable que sirve para transmitir imagen y hacer carga inversa desde un monitor que lo soporte, ¿vale? O sea, no hace falta gastarse los noventa pagos que vale el cable Thunderbolt cuatro de Apple, ¿vale? Que el cable de Apple es mejor en calidad, en fabricación, está tiene una serie de test y tal que lo validan y que va a ser la leche y que te va a dar besitos por la noche y tal, sí, ¿vale? Y que además el trenzado es de pelo de unicornio, por eso también el precio, pero ojo, que hay cables de ese tipo que que son incluso más caros de otras marcas, ¿vale? Yo les invito a entrar en Amazon, buscar un cable USB Thunderbolt cuatro y se darán cuenta de que hay cables mucho más caros incluso que los de Apple, ¿vale?

    Porque ahí esto es como en el audio, ¿no? Que que no hay límite hacia arriba casi. Entonces, bueno, pues esa es la coña. Pero aparte, seguimos con el, ya finalizando la última parte, ¿vale? Sabemos, porque hemos visto el tema, ¿vale?

    Que el iPhone es capaz de ser conectado a un almacenamiento externo para grabar directamente el vídeo en ese almacenamiento externo. Bien, ese almacenamiento externo tiene que estar formateado en XFAT o APFS, si no, no va a ser reconocido por el dispositivo. Una vez esté formateado en este formato, el sistema creará una carpeta d c y m, como el de una cámara de fotos, e irá volcando ahí el vídeo. El vídeo que yo puedo volcar con el iPhone con un cable, que no es el que viene con en la caja, ¿vale? Y que puedo volcar para grabar en tiempo real el vídeo en un dispositivo externo, es un, es capaz de grabar hasta cuatro k a sesenta hercios, ¿de acuerdo?

    Es capaz de emitir, de grabar, perdón, cuatro k sesenta hercios, incluso en modo HDR, en modo log, puedo grabar ProRes en modo log, ¿de acuerdo? Quiere decir que el modo log es un modo que va entre comillas sin revelar, ¿vale? Es decir, el modo log es un modo en bruto, que es el equivalente a las fotos en RAW, que es un modo intermedio entre el cocinado de la señal que te hace un procesador de imagen y y lo que sería el proceso final, ¿vale? Es un modo que te va a permitir etalonar digitalmente el vídeo, etalonar es algo así como el revelado, es darle los colores, darle el brillo, darle el contraste, darle, pues, lo que es el el el retoque de color que haríamos con DaVinci Resolve, por ejemplo, de hecho, se ve en el vídeo de promoción de la propia Apple, el DaVinci Resolve y cómo están haciendo un un tema de de ajuste de color, ¿vale? De lo que es el vídeo que han filmado, pues ese ProRes en modo log, insisto, cuatro k sesenta FPS, hasta cuatro k sesenta FPS, se puede grabar con el iPhone quince Pro, quince Pro Max, y volcarlo directamente a este disco duro con este disco duro preformateado a APFS o XFAT, con un cable que no es el que viene con el teléfono, ¿vale?

    Bien. ¿Quiere esto decir que este sistema soporta dispositivos como los átomos, por ejemplo. ¿Qué son los átomos? Los átomos son monitores externos que permiten enchufar una conexión HDMI y que hacen que las cámaras se conviertan en cámaras pasivas, porque toda la gestión de grabación, toda la gestión de almacenamiento, etcétera, etcétera, lo lleva el átomos, no lo lleva la cámara. Por lo que aquí tenemos que distinguir algo muy muy importante, y es que cuando yo enchufo el iPhone para grabar vídeo y lo grabo en un dispositivo externo, el iPhone está sirviendo de cámara y además está procesando la señal de vídeo y la está enviando en modo ProRes o en modo ProRes log a este almacenamiento externo.

    Pero el iPhone es el que está funcionando como una cámara activa, está capturando y está procesando el vídeo a la vez, por lo que eso significa que yo lo que tengo finalmente en el disco duro es lo que el propio teléfono ha procesado. Si yo quiero que el iPhone sea un una cámara pasiva, ¿vale? Una cámara, pues, por ejemplo, yo los directos los hago con una cámara Sony Alpha. La cámara Sony Alpha está conectada por el puerto HDMI, mini HDMI, a una capturadora Can Link cuatro k. Entonces, ¿quién hace la codificación del vídeo?

    La hace el Mac a través de la Can Link, es decir, lo hace la Can Link cuatro k y es el Mac el que se encarga de recibir esa señal, porque lo que lanza la cámara Sony es su imagen en bruto a través del puerto HDMI con todo el ancho de banda, y esa es la diferencia, mientras el dispositivo va a estar comprimiendo y procesando el vídeo y por lo tanto restringiendo el ancho de banda para que quepa por los diez gigabytes, por HDMI, una señal de vídeo va sin compresión, porque las los cables HDMI tienen mucho más ancho de banda. Entonces, el kit de la cuestión es que lo normal en la industria es tener uno de estos átomos, es decir, un monitor pasivo, que lo que hace es que yo enchufo la cámara de fotos por HDMI a estos cacharros, veo a través de esos monitores lo que sale en la cámara de vídeo y luego estos monitores tienen la opción de conectarles cinco mil quinientos millones de de cositas tipo discos externos, tipo incluso micrófonos, tipo mil cosas, ¿vale? Y entonces nos sirven como una capturadora múltiple, donde te montas como un hombre orquesta toda un elemento para grabar al respecto.

    ¿Esto es compatible con los iPhone quince Pro y quince Pro Max? No si hablamos de la captura directa de dispositivo externo. Pero, ojo al dato, los iPhone quince Pro y quince Pro Max son compatibles con el adaptador USB C a HDMI de Apple. Entiendo que puede que funcionen con otros adaptadores siempre y cuando sean compatibles con, ¿con qué? Con cuatro k sesenta FPS.

    Quiere decir que yo puedo hacer que el iPhone tenga una salida pasiva HDMI conectando el adaptador para que, en vez de ser una conexión de vídeo Thunderbolt, lo que sería displayport, como lo que hemos visto de que yo puedo conectar el iPhone a un monitor externo, ahí el iPhone envía la señal al monitor y el monitor lo muestra. Aquí estaríamos hablando de conectar el iPhone a través de HDMI, por lo que aquí cambian las tornas. ¿Quiere eso decir que yo podría utilizar una átomos con este adaptador y poder capturar lo que sale de la señal de vídeo del iPhone como una cámara pasiva y trabajar en un flujo profesional? Pues no sabría decirles, porque todavía no sé, porque no está en ningún lado la documentación de Apple, qué es lo que saca a través de de ese HDMI. Si a través de ese HDMI sacara la señal de la cámara cuando está activa, perfecto.

    El problema es que no va a estar cargando, ¿vale? Ese es el principal problema, que cuando yo esté grabando con el iPhone y lo tenga conectado a un disco externo para grabar directamente a disco externo, no mientras no va a estar cargando, por lo que voy a estar gastando la batería, y si le enchufo el adaptador HDMI tampoco va a estar cargando, ¿vale? Bueno, no sé si el cargador HDMI tiene, o sea, si el adaptador de HDMI tiene puerto de carga, la verdad es que ahora me ha entrado la duda, ¿vale? Pero teóricamente no, ¿vale? Teóricamente no tendría esa opción, ¿vale?

    Por lo que, en fin, entiendo que, bueno, pues aquí tenemos el adaptador multipuerto de USB C a vídeo digital, que sería un cable que tiene, pues tiene el cable HDMI, tiene un cable USB C, ¿vale? Tiene la serie HDMI, cable USB C y cable USB de tipo A, ¿vale? Tiene los tres destros. Entonces, dice que con el adaptador multipuerto de puedes conectar un monitor HDMI a tu Mac o un iPad con USB C, ¿vale? Soporta para todos los dispositivos cuatro k los hay en Belking y los hay en otras marcas, ¿vale?

    Entonces, bueno, pues entiendo que esto, pues servirá de igual manera, ¿ok? Por lo que igual que ya estaba el adaptador lightning a AV digital ¿vale? Que también existía ¿de acuerdo? Lo que pasa que, bueno pues el cable Lightning a AV digital, pues estaba limitado a full HD, ¿vale? No se podía sacar más de una señal mil ochenta p, pues ahora con el nuevo se podrá sacar hasta lo que serían cuatro k sesenta hercios, pero lo que no sé es si serviría para cargar mientras estás sacando la señal y si se podría esa señal pasar por un átomo si capturar en bruto la señal que viniera de la cámara del iPhone, ojo, sin la interfaz, ¿vale?

    Porque, ojo la tontería, pero tendría que sacar la señal en bruto sin la UI de la cámara de fotos, ¿vale? Por lo que eso estaría por ver, ¿de acuerdo? Pero ya han visto cómo sería esta conectividad a través de USB de tipo c y las características que tiene este tipo USB USB de tipo c, ¿vale? En los iPhone quince, quince plus es USB dos punto cero a nivel de datos con el cable normal, y en los quince Pro y quince Pro Max viene el mismo cable que viene con los quince y quince Plus que es USB dos punto cero, por lo que si quiero sacar más velocidad de datos me tengo que comprar un cable aparte, ¿ok? Pero el nuevo iPhone quince Pro y quince Pro Max se puede conectar a un monitor externo directamente como un dispositivo.

    Y el adaptador HDMI sirve también para los iPhone quince, quince plus, no solo los quince pro y quince pro max, ¿vale? Porque ahí es simplemente una salida de vídeo y punto, pero entiendo que por la limitación, que esto es algo que no está en la documentación, entiendo que por la limitación tal vez esté limitado a mil ochenta, pero pero pero creo haber leído que soporta cuatro k sesenta, ¿vale? Por lo que esto habría que probarlo in situ, ¿vale? En fin, con el tiempo que hay y si los dispositivos en la calle, ¿vale? Pero todo lo que les estoy lo que les estoy contando es lo que viene en la documentación de Apple cuando escarbas y empiezas a buscar documentos de soporte, de Apple cuando escarbas y empiezas a buscar documentos de soporte de los que han ido lanzando, ¿vale?

    Así que eso es lo que hay, ese es el puerto USB de tipo C que ha llegado a los iPhones y eso es todo lo que teníamos que contar al respecto, por lo que vamos al siguiente bloque, que sería el de las cámaras de fotos. Antes de empezar a hablar de las cámaras que hay delita marinera con esto, porque Apple no ha dado toda la información al respecto de los iPhone quince, quince Plus, quince Pro y quince Pro Max, Nosotros, a ver, teóricamente, estamos esperando lo que sucede, lo que, bueno, lo que sucedió el año pasado, que fue que, en esencia, las cámaras de los trece Pro y trece Pro Max llegaron a los catorce y catorce plus. Pero no fue del todo así, porque no fue simplemente un me quito la cámara teleobjetivo y ya, sino que había algunas pequeñas diferencias. Y este año ha pasado igual, es cierto que las cámaras de los iPhone catorce pro y catorce pro Max tienen pixel binning. Entonces, vamos a ir viendo ciertos conceptos de fotografía para ir introduciéndolos e ir entendiéndolos de una manera más clara.

    El Pixel Binning hace que los iPhone catorce Pro y catorce Pro Max, con sensores de cuarenta y ocho megapíxeles, sean más luminosos que los sensores de doce megapíxeles que tenían los los modelos anteriores Pro, los trece Pro y trece Pro Max. ¿Cómo es posible? Porque tenemos que tener en cuenta una cosa, la superficie del sensor, ¿vale? Las cámaras tienen una lente y luego tienen un sensor, que es el que captura. Esos sensores tienen píxeles que captan la luz.

    Si yo en una superficie, tengo un sensor de doce megapíxeles, el tamaño de mis sensores, de mis subpíxeles de luz, los que capturan la luz en los distintos en el distinto espectro del color, de forma que utilizan lo que se conoce técnicamente como una matriz de filtros Bayer Filter. Es una matriz donde el cincuenta por ciento, o sea, es decir, cada píxel que captura luz está compuesto por subpíxeles. Cincuenta por ciento de los subpíxeles verdes, veinticinco rojos y veinticinco azules, de forma que están en un patrón de dos por dos en el que sería verde, rojo y debajo azul y verde. Esto se repite a lo que es el largo y ancho del sensor. La razón de tener más supíceres verdes que azules o azules se basa en la filosofía del ojo humano.

    Nuestros ojos son más sensibles al color verde, por lo que al darle más peso al verde, las imágenes capturadas se perciben como más nítidas y detalladas. Después de que el sensor captura la luz utilizando esta matriz, la cámara, ¿vale? O el software que lo procesa posteriormente, utiliza un proceso llamado demosesising o interpolación, lo que hace es reconstruir la imagen completa en colores completos para cada píxel r, g y b, de forma que así utiliza la información de subpíxeles vecinos para calcular los valores para cada pixel, ¿vale? Utiliza esa información y la que tiene anexada. Es importante que, a ver, la matriz Bayer es la más común, es la que utilizan los teléfonos móviles, ¿vale?

    Como la mayoría de cámaras digitales que utilizan esta tecnología, y lo que han hecho los fabricantes como Apple es optimizar el proceso, el procesamiento de estas imágenes, y utilizar algoritmos avanzados de machine learning y de interpretación de las imágenes, el ISP, etcétera, para interpretar estos datos del sensor y producir las imágenes con más calidad, ¿vale? Dividiendo por capas, como ya sabemos, ¿vale? Entonces, todo esto, además, estaría unido a las mejoras que Apple ha ido introduciendo nitidez, los datos del sensor para mejorar la calidad de la imagen, la nitidez, el rango dinámico, etcétera, ¿vale? Todo esto, pues, lo usan a partir de estos valores del sensor con matriz Bayer, ¿vale? Que combina con algoritmos avanzados para producir los resultados que necesita.

    Perfecto, todo esto nos queda muy claro, pues bien, cada sub píxel que está compuesto por estos cuatro elementos que capturan, vale, es decir, lo he dicho mal, cada píxel que está compuesto por estos cuatro subpíxeles, ¿de acuerdo? El tamaño de cada píxel que captura, que a su vez dentro tiene cuatro, en el caso de los de un sensor, ¿vale? De doce megapíxeles, ¿de acuerdo? Como el caso de el dispositivo, que sería el iPhone trece pro y trece pro Max, que tiene una un sensor de doce megapíxeles, tiene por tamaño un tamaño de medido en micrones de uno coma nueve micrones por tamaño de píxel. Eso quiere decir que estos uno coma nueve micrones, cuanto más grande es el píxel, más luz es capaz de captar con el mismo tiempo de exposición, por lo que aquí buscamos que el tamaño del píxel sea mayor.

    Sin embargo, esto es posible porque el tamaño de doce megapíxeles hace que existan x mil millones de de píxeles, ¿vale? Habría que hacer ahí una una una división y al final se reparte en todo esto, ¿vale? Entonces, ¿esto cómo sería? Vamos a ver, si cada píxel de un sensor de doce megapíxeles, que son doce millones de píxeles, tiene la matriz Bayer con cuatro subpíxeles donde un algunos de ellos se comparten, ¿no? Para conseguir la información del color, ¿vale?

    Cada píxel tiene un color asociado, no tiene tres subpíxeles, en cambio se utiliza la información de los píxeles vecinos para interpolar y obtener la información de color completa para cada píxel, ¿vale? Por lo tanto, dentro de lo que es la estructura de los subpíxeles tendríamos doce millones de píxeles. Si en el mismo espacio tenemos doce millones de píxeles, obviamente el tamaño de esos píxeles será de un tamaño x. Pero si yo en el mismo exacto espacio, en el mismo espacio, pongo un sensor de cuarenta y ocho, quiere decir que son cuarenta y ocho millones de píxeles, por lo que el píxel va a ser cuatro veces más pequeño. Entonces, por mucho que la gente diga, ay, es que claro, yo quiero una cámara que tenga más megapíxeles, es que Apple no vea, es que sigue con los doce megapíxeles, ¿a dónde vamos?

    Que me dé más resolución, ya, pero es que no se puede físicamente, es que no cabe más dentro del teléfono móvil. Por lo tanto, como no cabe más dentro del teléfono móvil, si tú pones un sensor con más megapíxeles, lo que estás haciendo es hacer que los píxeles del sensor sean cada vez más pequeños, y cuantos más pequeños son, menos luz captan y, por lo tanto, peores fotos vas a hacer. Esto es así de sencillo y así de simple de entender. Por lo que Apple, de pronto, se paró a pensar el año pasado y dijo, bueno, ¿cómo soluciona este problema? Pues soluciona este problema porque el sensor de doce megapíxeles de los iPhones trece Pro y trece Pro Max tiene un tamaño de píxel de uno con nueve micrones, de forma que si ahora ponen un sensor de cuarenta y ocho megapíxeles, ¿qué es lo que sucede?

    Pues sucede lo inevitable, que el sensor de cuarenta y ocho megapíxeles de los iPhone catorce Pro y catorce Pro Max es un poco más grande que el sensor que tenían los trece pro y trece pro Max, por lo tanto, no va a ser una división entre cuatro, ¿vale? Pero sí es cierto que, aunque sea un poco más grande, al ser cuarenta y ocho megapíxeles, el tamaño de los píxeles va a ser de uno con veintidós micrones, no uno con nueve. Imaginen la absoluta y brutal pérdida de, pues, de posibilidad de mitad, pero es un porcentaje, será algo así como el el sesenta, sesenta y cinco por ciento, aproximadamente, de lo que realmente era. Por lo que ahora, con este sensor, con este tamaño, cuarenta y ocho megapíxeles con un tamaño de subpíxel de uno con veintidós micrones, no vamos a ningún sitio porque no es capaz de hacer bien las fotos, ¿de acuerdo? Porque tiene menos luz, por lo tanto, las fotos tendrán más ruido, saldrán más oscuras y serán mucho peor, sobre todo teniendo en cuenta que la mayoría de cámaras de la competencia están ya en tamaños de uno con ocho, uno con nueve, uno con siete micrones, incluso generaciones anteriores, Apple no puede sacar un móvil que haga fotos peores que el año pasado, o sea, que la generación anterior.

    Así que, ¿qué es lo que hacen? Lo que hacen es la tecnología que contamos de el pixel binning, lo que hace es coger y juntar en este nuevo sensor de cuarenta y ocho megapíxeles, que tiene un tamaño de píxel de uno con veintidós micrones, lo que hace es juntar cuatro en uno solo, por lo que, aunque el sensor sea de cuarenta y ocho megapíxeles, en realidad es un sensor de doce, funciona como uno de doce. Dicen, pero es de cuarenta y ocho, sí, es de cuarenta y ocho, pero las fotos las hace como si fuera de doce porque junta en un patrón dos por dos cuatro píxeles del sensor de cuarenta y ocho para conseguir un solo píxel de tamaño más grande, por lo que, ¿qué es lo que consigue? Dos con cuarenta y cuatro micrones de tamaño de píxel, que desde luego es mucho más que uno con nueve y, por lo tanto, consigue tener un sensor que sea más luminoso. Esto, como ya explicamos el año pasado, no es perfecto porque en lo que es la separación de los píxeles hay huecos, pequeñitos, pero huecos, donde la luz no se capta, por lo que eso le resta nitidez a la fotografía.

    Es como si miráramos a través de una mosquitera enfocando la imagen, por lo que yo, a través de una mosquitera, puedo hacer una foto y la mosquitera no va a verse, pero la mosquitera está reduciendo la cantidad de luz que está pasando a través de ella, por lo que mi foto va a salir con peor definición y, sobre todo, un poquito más oscura, ¿de acuerdo? Porque no va a captar la misma luz que captaría un píxel que fuera completo de dos con cuarenta y cuatro micrones, porque aquí estamos juntando cuatro para hacer un solo elemento. Pero, bueno, Apple lo pone en la balanza y decide que esto funcione bien, que esto va bien, que esto da un buen resultado y perfecto. Entonces, lógicamente, este año esperábamos que los iPhones quince heredaran heredaran esta cámara principal de los iPhone catorce pro y catorce pro Max, y así ha sido en parte, porque aquí hay algunas cosas que son un poco raras. Me explico, la cámara de los iPhone catorce Pro y catorce Pro Max es una cámara de cuarenta y ocho megapíxeles con una apertura focal de veinticuatro milímetros y un f uno punto setenta y ocho.

    Perfecto. De hecho, esta característica es exactamente igual que la del iPhone quince Pro y quince Pro Max, cuarenta y ocho megapíxeles, apertura focal, distancia focal de veinticuatro milímetros, apertura f uno punto setenta y ocho. Sin embargo, los iPhone quince y quince plus tienen un sensor de cuarenta y ocho megapíxeles, pero con una distancia focal de veintiséis milímetros, no de veinticuatro, es decir, es un poquitín más de zoom en uno x que el iPhone catorce pro o el iPhone quince pro, es decir, un iPhone quince o quince plus en modo uno x va a tener un poquitín más de zoom que los iPhone quince pro, porque tiene una distancia focal mayor, y resulta que el iPhone quince quince plus tiene una apertura f uno punto seis, que es una apertura que es más pequeña que la f uno punto setenta y ocho que tienen los sensores de cuarenta y ocho megapíxeles tal cual entonces. Esto es lo que es un poco extraño, ¿de acuerdo? Es decir, si partimos de la base que los iPhone catorce y catorce plus tenían un sensor de doce megapíxeles de veintiséis milímetros, ¿de acuerdo?

    Y con una apertura f uno punto cinco, y ahora tenemos un iPhone quince y quince plus que tiene un un sensor de cuarenta y ocho, también de veintiséis, pero con una apertura un poco más grande, de f uno punto cinco a f uno punto seis, ¿vale? Hablamos de aperturas más pequeñas cuando la f se reduce, y hablamos de aperturas más grandes cuando la f es más grande, ¿ok? Entonces, si yo parto de la base de este de estos datos, resulta que la cámara de los iPhone quince y quince plus no es la cámara del iPhone catorce y catorce Pro Max, es la cámara de los iPhone catorce y catorce Plus convertida en un sensor cuarenta y ocho megapíxeles con píxel binning. Pero no escoger, porque la cámara del catorce Pro y catorce Pro Max principal es la misma cámara que está usando el iPhone quince Pro y quince pro Max, el mismo sensor, ¿vale? Más que lo que es la cámara, ¿vale?

    Pero el sensor en los iPhone catorce pro, catorce pro Max, quince pro y quince pro Max sería el mismo, ¿vale? ¿Es exactamente el mismo, el mismo, el mismo, es mismo? A nivel de características, sí. Ahora, que sea exactamente el mismo que le ponen al iPhone catorce Pro y ahora se lo ponen al iPhone quince Pro, eso ya obviamente no podremos saberlo si es una versión mejorada, si tiene más lentes, si ha mejorado en algo, etcétera. Pero las características son las mismas, por lo que la cámara principal de los iPhone catorce Pro y catorce Pro Max, teóricamente, van a hacer las fotos exactamente igual que la cámara principal de los quince Pro y quince Pro Max, no va a haber diferencias.

    ¿Cuál es la diferencia? La diferencia va a estar en el postprocesamiento que haga la lo que serían, en fin, el propio hardware, ¿vale? Lo que es cada procesador, en este caso, en el caso de los iPhone quince Pro y quince Pro Max tendríamos el procesador a diecisiete Pro, del que hablaremos luego, pues teóricamente este tiene un nuevo Smart HDR, que creo que ya va por la versión cinco, que habrá mejorado, que procesará mejor las imágenes, por lo tanto, hará que el mismo exacto sensor a nivel hardware tenga un poquito mejor de calidad en las fotos. Así que ojo a este dato, porque sobre los datos que tenemos aquí, la cámara del iPhone quince y quince plus no es la del catorce Pro y catorce Pro Max, y de hecho Apple dijo, es una nueva cámara, pues efectivamente, es una nueva cámara, porque es la cámara que tenían los catorce y catorce plus, pero ampliada a un sensor de cuarenta y ocho megapíxeles con píxel Binning, que por este cambio conserva la distancia focal, pero sube un pelín de f uno punto cinco a f uno punto seis, lo que sería la apertura. Bien, vamos a ir un poco a las bases, ¿vale?

    ¿Qué es la apertura de una cámara? La apertura de una cámara se refiere a la abertura del diafragma dentro del objetivo de la propia cámara, que es lo que permite que la luz pase al sensor y se mide, como ya hemos hablado, en valores o números f, ¿de acuerdo? Términos de f. ¿Cómo se representa? Pues supongo f partido y seguido un número, por ejemplo, f uno punto cinco, f uno punto ocho, f dos punto ocho, ¿vale?

    Cuanto más pequeño es la f, cuanto más pequeño es el número de la f, indica una apertura más grande, ¿ok? Por lo que, ¿esto de qué va a depender? Va a depender de la cantidad de luz, una apertura más grande, una f uno punto cuatro, permite que entre más luz al sensor en comparación con una apertura más pequeña como f ocho, ¿de acuerdo? Por lo tanto, esto nos permite saber cómo es el funcionamiento, ¿vale? Es decir, aquí estoy haciendo memoria, no sé si lo he dicho mal hace un rato, ¿vale?

    Porque en fin, estos apuntes técnicos son bastante complejos. Entonces, aquí estaríamos hablando que las aperturas más pequeñas serían las que aumentarían los f. Una apertura f ocho, por ejemplo, sería una apertura más pequeña que un f uno punto cuatro, que es un número menor, pero la apertura es más grande. Entonces, esto nos permite, obviamente, hacer mejores que se que se cierra, ¿vale? La velocidad de obturación cuando yo hago con un sensor que está cerrado, lo que hago es abrirlo para dejar que pase la luz y luego lo cierro.

    Si yo tengo una mejor capacidad, tengo una apertura más grande que deja pasar más luz en el mismo tiempo, cuando la obturación, cuando el sensor se abra durante un tiempo concreto, a mayor apertura, más luz captará en el mismo espacio de tiempo, a mayor tamaño de píxel más luz captará dicho píxel en el mismo espacio de tiempo, que es la velocidad de obturación, ¿vale? Que de cosas aprendemos. Por lo tanto, una apertura más grande nos va a permitir que la luz, que la imagen sea más luminosa, Aparte, la apertura también es la que hace que funcione la profundidad de campo, ese maravilloso efecto en el que conseguimos que un elemento esté destacado y el fondo esté desenfocado. Una apertura más grande produce una profundidad de campo más reducida, lo que significa que una parte específica de la imagen va a estar en foco, va a estar enfocado, mientras que el resto estará desenfocado, estará borroso. Esto es ideal para retratos, por ejemplo, ¿vale?

    Para hacer retratos reales, no retratos con el modo retrato que tenemos ahora, que además es un retrato inteligente en el que si tenemos varias focos de varias personas en varios planos, podemos elegir incluso después de hacer la fotografía qué elemento es el que tiene, ¿vale? Es un modo de retrato mejorado que incorporan estos nuevos iPhones Pro, que lo que permiten es, pues eso, poder procesar la imagen, posteriormente hacer la foto y, entonces, con un proceso que es, obviamente cien por cien digital, no tiene nada que ver con la profundidad de campo real de una lente, ¿vale? Si ustedes, por ejemplo, ¿vale? Yo lo he hecho, ¿vale? Si tú te vas a una, bueno, pues, por ejemplo, con el modo macro, ¿vale?

    Si te acercas a algo con modo macro, verás cómo, pues, lo que hay en primer plano está más destacado y lo que hay en el fondo menos, y consigues un efecto que no es de desenfoque artificial, es un efecto de desenfoque real, ¿vale? Por lo que, en este caso, una apertura más pequeña, ¿vale? Un número F más grande, ¿de acuerdo? Recordemos que está con esta proporción, un número f más grande da una mayor profundidad de campo, lo que es útil, pues, por ejemplo, para que, pues, se hagan, yo qué sé, dependiendo de lo que queramos hacer, ¿vale? Si queremos hacer fotografías que tengan más efecto de desenfoque, pues tendríamos una f más pequeña.

    Si queremos hacer paisajes, etcétera, pues una apertura más pequeña, ¿vale? Un f ocho, un f once, ¿vale? Algo mucho más amplio, pues sería lo ideal y para retratos, pues un f uno punto cuatro, f dos, etcétera, ¿vale? Entonces, pues ahí tendríamos ese ese elemento, ¿vale? Por lo tanto, la apertura de una cámara controla la cantidad de luz que llega al sensor y la profundidad de campo de la imagen.

    Dependiendo de la situación y el efecto deseado, se puede optar por una apertura más grande o más pequeña y es, pues, una de las herramientas esenciales para controlar la exposición y, sobre todo, la estética de la imagen, ¿ok? Bien. Pues, con todo este rollo de lo que es cómo funcionan las cámaras en sí y viendo este elemento, nos encontramos con esta curiosidad, y es que, efectivamente, el lo que es la cámara de los iPhone quince y quince plus sería la versión con con pixel vinning de el catorce, y por lo tanto el catorce, que tenía una apertura de uno punto cinco, tendríamos con el quince, quince plus una apertura de uno punto seis, mientras que los iPhone catorce Pro, catorce Pro Max coinciden con los quince Pro y quince Pro Max con el tema de las f, que en este caso es uno setenta y ocho. Pero los iPhone catorce y quince tienen una distancia focal de veintiséis milímetros y los Pro, tanto los quince como los catorce, de veinticuatro milímetros en el en lo que es la lente principal. Entonces, una de las cosas que Apple nos está vendiendo es que en este teléfono hay un cambio importante en cuanto a las focales.

    Tenemos que entender que estas focales no son más que una transposición a nivel de tamaño de lo que es realmente una lente grande. Yo quiero una focal de ciento veinte milímetros en una cámara profesional, lo que hago es poner un pedazo de objetivo enorme, ¿por qué? Pues porque necesito ese espacio para que las lentes se muevan y, por lo tanto, mientras capturando, etcétera, si yo tengo capturando, etcétera, si yo tengo más espacio para que esa lente se mueva adelante y atrás, consigo mayor o menor distancia focal. Cuanto mayor es la distancia, cuanto más separado está una lente de la otra, mayor zoom, mayor acercamiento a una imagen es lo que tengo, es así de simple, en lo que hablamos de zoom óptico. No hay que confundir que los iPhone quince pro y quince pro max, igual que los catorce pro utilizan la, y ahora esto también lo hace el iPhone quince, ¿vale?

    El iPhone quince y quince plus te venden, ¿vale? Que tiene un zoom óptico de de dos x, ¿vale? Entonces, tenemos que darnos cuenta que el zoom del iPhone catorce es un recorte que pierde resolución, porque en realidad son doce megapíxeles y, por lo tanto, lo que queda es muy malo. Pero como ahora en el iPhone quince sí tenemos un sensor de cuarenta y ocho megapíxeles, ahora sí se puede hacer un recorte como el que hacían iPhone catorce Pro y catorce Pro Max, es decir, que cogen la foto a veinticuatro megapíxeles, ¿vale? Lo que hacen es coger la foto de cuarenta y ocho que tiene menos iluminación, ¿de acuerdo?

    Ojo al dato, cuando yo hago la foto, ya lo hemos visto, si hago la foto en doce juntamos cuatro píxeles y, por lo tanto, conseguimos una luminosidad mayor, tenemos dos con cuarenta y cuatro micrones, pero si no tendríamos uno con veintidós, por lo que no podemos olvidar que uno veintidós es bastante poco, así que para poder utilizar este recorte tenemos que usar el sensor de cuarenta y ocho y sobre la foto que haga de cuarenta y ocho lo que hacemos es recortar en el centro justo, por lo que al final nos quedaría una foto de veinticuatro que se interpolaría, se haría el efecto de pixel vinning, pero en vez de por un dos por dos, sería por un uno por uno, interpolando valores, etcétera. Básicamente, es hacer un una foto normal de cuarenta y ocho megapíxeles y luego recortarla y posprocesarla para darle un poquito más de luz, etcétera, ¿vale? Pero sería como hacer una foto normal de cuarenta y ocho, ¿vale? Si yo hago la foto de doce, se usan cada cuatro píxeles y se hace la foto de doce, ¿vale? Sumando los píxeles.

    Si hago la foto con la distancia focal de, en este caso, cincuenta y dos milímetros, que es el teleobjetivo que tienen los iPhone quince, que no tienen los iPhone catorce, ¿vale? Los iPhone quince tienen este, entre comillas, falso teleobjetivo, que es una distancia focal de cincuenta y dos milímetros con la misma apertura f uno punto seis, que básicamente es, insisto, coger el cuarenta y ocho y recortarlo, por lo que si yo recorto el cuarenta y ocho y me quedo con la foto, que sería de veinticuatro, pero luego la proceso a doce, pues entonces tendría esa distancia focal que me permitiría tener, pues eso, está este zoom por dos, que es un zoom, pues eso, un zoom in, pues ahí apañado óptico que me daría este efecto. Por lo tanto, esto es algo que los iPhone quince incorporan que no tenía el iPhone catorce. Tener un teleobjetivo dos x óptico, pero basado en el recorte del sensor, ¿ok? Perfecto.

    Además, Apple dijo que este la parte el modo de recorte del sensor de veinticuatro también es el que se está utilizando para grabar vídeo a cuatro k sesenta, ¿ok? Luego, cuando yo tengo lo que sería el los modelos Pro y los modelos Pro Max, el modelo Pro, ¿de acuerdo? El modelo Pro tiene un teleobjetivo igual que el del año pasado, tiene un teleobjetivo de doce megapíxeles con una apertura, o sea, perdón, con un con una distancia focal, en este caso, de setenta y siete milímetros, que nos daría hasta en f dos punto ocho, ¿vale? Es una distancia focal más grande, por lo tanto, cuanto más distancia focal, menor también es la apertura que puede tener este, digamos, esta esta lente, ¿vale? Entonces tendríamos estos doce megapíxeles en hasta en un tres x, que serían setenta y siete milímetros de distancia focal f dos punto ocho, olvidarnos que todos estos dispositivos, tanto los catorce, quince, catorce Pro, Pro Max, quince Pro, Pro Max, tienen el mismo ultra gran angular, bueno, el mismo entre comillas.

    Los catorce y los quince tienen el ultra gran angular, que sería una distancia focal de trece milímetros en doce megapíxeles, con una apertura de dos con cuatro, f dos con cuatro, mientras que los iPhone catorce pro y catorce pro max tendrían una apertura f dos punto dos, ¿vale? Igual que los quince pro y quince pro max. El caso es que si comparamos el iPhone catorce pro catorce pro max y el iPhone quince Pro, las cámaras son prácticamente idénticas, tienen las mismas exactas características, las mismas exactas aperturas y lo mismo exacto todo. Y esto es algo que me llama poderosamente la atención, porque independientemente de que Apple diga que le ha puesto un nuevo nuevo chip de procesamiento de imágenes dentro del A diecisiete Pro y, por lo tanto, hace fotos de más calidad, el problema es que, en realidad, el hardware de las cámaras sobre el papel es exactamente el mismo del iPhone catorce Pro y catorce Pro Max al del quince Pro, no cambia nada, es exactamente igual. La cámara principal, los dos, cuarenta y ocho megapíxeles con píxel binning, veinticuatro milímetros de distancia focal f uno punto setenta y ocho.

    La cámara ultra gran angular, los dos doce megapíxeles, distancia focal trece milímetros, con capacidad de macro y apertura f dos punto dos, y el teleobjetivo, ese falso teleobjetivo de recorte que hemos contado que tiene el iPhone quince, que esto es una idea que ya tenían los iPhone anteriormente, este falso teleobjetivo recortado del cuarenta y ocho, que también existe en los modelos quince Pro y quince Pro, catorce Pro, catorce Pro Max, de cuarenta y ocho milímetros, exfe uno punto setenta y ocho, que insisto, es el recordado a veinticuatro megapíxeles de la cámara principal, y luego tiene un teleobjetivo que sigue siendo igual, tres x, doce megapíxeles, tres x, setenta y siete milímetros de distancia focal f dos punto ocho, ¿vale? Por lo tanto, es exactamente igual todo, ¿vale? La única diferencia es que el el iPhone catorce pro catorce pro max tiene el smart HDR versión cuatro y el iPhone quince pro tiene el smart HDR versión cinco, ya está, esa es toda la diferencia, por lo que, en fin, y eso sin contar con la cámara frontal, que es exactamente la misma en todos los modelos, la misma cámara Trudeth de doce megapíxeles con una apertura de F uno punto nueve, la cámara de, bueno, pues la cámara de selfies, ¿no?

    Que se llama coloquialmente. Esa cámara es exactamente la misma que ya tenía el iPhone catorce, que tiene el iPhone catorce Pro, el Pro Max, el catorce Plus, el quince, el quince plus, el quince Pro, el quince Pro Max, todos los modelos del año pasado, y de este año tienen exactamente la misma cámara frontal, la misma exacta. En fin, bueno, independientemente y hablando de la cámara frontal, ya sabemos y hemos visto que el iPhone quince quince plus la gran diferencia que tiene es que sí incorpora la Dynamic Island, la isla dinámica, que es donde, bueno, pues es una especie de cambio dentro de lo que es o de lo que era el notch para aprovechar ese espacio y poner ahí información que los desarrolladores pueden poner, incluso las aplicaciones del propio iPhone, y que, bueno, pues los desarrolladores suelen tardar uno o dos años en empezar a sacar rendimiento de esta de esta funcionalidad, ahora que tenemos también la posibilidad de poner el iPhone gracias a iOS diecisiete en modo apaisado mientras carga, que sería el el modo mesita de de noche, ¿vale? Pues también habrá más widgets en Swift UI al respecto y bueno, pues esa es la principal diferencia del quince y el quince plus.

    Pero insisto, el iPhone quince Pro y el iPhone quince catorce pro y catorce pro Max tienen exactamente el mismo conjunto de cámaras, insisto, sobre el papel. La única diferencia es a nivel de software. No sé si luego será una lente que tendrá más o menos en principio no dicen nada. Aquí la novedad está solo en los quince Pro Max, solo en los modelos más grandes. ¿Por qué solo en los modelos más grandes?

    Pues porque Apple ha necesitado hacer el sensor más grande, y ese sensor más grande hubiera dejado sin espacio al hardware en el iPhone quince Pro, por lo que por espacio, el único lugar donde hay realmente un cambio, porque en el quince Pro Max la cámara principal, el ultra gran angular y el teleobjetivo recortado tramposo de la cámara principal es exactamente igual en el Pro, pero el quince Pro Max es el que cambia. Cambia con lo que Apple ha llamado una cámara con lente treterdapapa, a ver si soy capaz de decirlo. Tetraprisma, es que telita, Tetraprisma. El tetraprisma, básicamente, son cuatro espejos que hacen que rebote la luz antes de llegar al sensor, ¿de acuerdo? Entonces, ¿qué significa esto?

    Significa que Apple no ha podido hacer la famosa y rumoreada lente periscopica. La lente periscopica funciona exactamente igual que un periscopio, por eso se llama así. Es una lente que lo que hace es que como el móvil tiene un ancho, ¿vale? Lo que es el móvil, el ancho que tiene desde el sensor hasta la lente es muy poco, por lo que muchos móviles, hace ya unos cuantos años, por ejemplo, los Huawei, etcétera, emplearon una tecnología de cámara periscopica que lo que hace es colocar el sensor por debajo de la lente y hacer un conducto vertical que sube desde el sensor hasta la lente con una serie de espejos que permiten hacer esa distancia focal para conseguir un zoom óptico más eficiente. ¿Qué es lo que sucede?

    Pues que, finalmente, Apple no ha tenido sitio donde poner esta lente periscópica porque hubiera tenido que probablemente mover la batería o hacerla más pequeña o cambiar de posición algún componente en la placa lógica del iPhone, y como ahí está todo más apretado que los tornillos de un submarino, ¿vale? Pues no cabe ni el pelo del sobaco de un grillo, por lo que al final Apple no ha podido, por diseño, coger y poner una lente periscópica porque no les cabe en el teléfono. Así que, ¿cuál ha sido su solución? Pues lo que han hecho ha sido generar una lente que tiene esos cuatro espejos, un prisma, en realidad tiene cuatro prismas como espejos, que lo que hacen es rebotar la luz, obviamente al rebotar la luz pierde luz, ¿vale? En cada paso va perdiendo un poquito de luz por el camino, pero consigue hacer con una lente apertura f dos punto ocho, igual que la teleobjetivo tres x, conseguir una distancia focal que pasa de setenta y siete milímetros a ciento veinte milímetros, lo que supone un zoom óptico real cinco x, lo cual es un equivalente, y ponemos mil millones de comillas, a una a un objetivo de ciento veinte milímetros profesional que sería mucho más grande.

    ¿Da el mismo resultado? Obviamente no, físicamente es imposible, que esperemos que un móvil que está emulando esa distancia focal a base de una lente mucho más pequeña, consiga la misma calidad y, obviamente, esas fotos que yo haga con ese zoom de cinco x con el Pro Max no van a ser muy buenas si no está excelentemente bien iluminada la escena, pero, desde luego, es un avance y esto sí es innovación, porque nadie ha hecho este tipo de aproximación a buscar la solución para aumentar el zoom óptico. Esta es la primera, esto es una técnica que ha inventado la propia Apple y que ha sorprendido a un montón de profesionales el decir, oye, pues oye, está muy bien pensado, esto está muy bien tirado, si esto está haciendo que estos cuatro prismas reboten la luz y consigan un efecto que moviéndolo mínimamente de manera, pues obviamente con el espacio que tiene, poquito a poquito, pero consigue poder llegar a ese zoom de cinco x, que sería una un equivalente a una distancia focal de ciento veinte milímetros, pues oye, chapó por Apple, ¿no? Chapó porque, hombre, esto es algo que es bastante impresionante, por lo que en un iPhone quince Pro Max tendríamos siete distintas distancias focales, hasta el punto de que iOS diecisiete va a incorporar en el en el indicador normal que nosotros vemos, donde yo puedo elegir el uno cero x, el uno dos, puedo aumentar o disminuir el zoom, etcétera, y lo que veo son los aumentos, Ahora, en ese elemento, si yo pulso, también voy a ver la distancia focal, por lo que voy a poder elegir directamente la distancia focal equivalente a cada uno de los elementos, por lo que el trece Pro Max es capaz de hacer fotos en macro, ¿vale?

    Que sería un modo macro hecho con el ultra gran angular, ¿vale? El ultra gran angular de trece milímetros es el que se encarga de sacar las fotos macro. Luego, en el siguiente, en la siguiente distancia focal tendríamos un trece milímetros, que sería el ultra gran angular, que tiene una una apertura de f dos punto dos, no es tan luminoso, pero, bueno, más o menos se defiende de manera correcta. Después tenemos la cámara principal, que tiene una distancia focal de veinticuatro milímetros, es la cámara principal en uno x. Después tendríamos una distancia focal de veintiocho milímetros, que es la, bueno, pues es más o menos como un estándar, ¿vale?

    Entonces, nos iríamos a un equivalente a un uno punto dos x, y luego nos iríamos al uno punto cinco x, que es todo, jugando con la cámara principal y haciendo distintos recortes del sensor para conseguir las distintas cuarenta y ocho cuarenta y ocho milímetros, que sería el dos x que ya hemos comentado que también es recortado, y luego tendríamos el teleobjetivo que daría hasta un ciento veinte milímetros, por lo que tendríamos estas siete distintas distancias focales, ¿vale? Entendiendo que la distancia focal es la distancia que hay entre las dos lentes dentro de un objetivo y que a mayor distancia más se acerca la imagen, más zoom, más aumentos tengo a nivel óptico, ¿de acuerdo? Por lo que, bueno, esta sería el funcionamiento de esta cámara principal. ¿Merece la pena el cambio si somos, si nos gusta la fotografía? ¿Merece la pena el cambio a los iPhone quince Pro y quince Pro Max, si ya tenemos un catorce Pro y catorce Pro Max?

    Vamos a obtener un cambio que va a, bueno, que nos va a merecer la pena? Pues, sinceramente, la respuesta está muy clara, no. No, tal cual, lo único que vamos a conseguir es tener un teleobjetivo cinco x óptico que nos va a permitir llegar más lejos con una distancia focal más grande y punto pelota, y solo con el con el quince Pro Max. Que las fotos van a salir mejor, hombre, sin duda, porque tenemos un Smart HDR cinco, que es, pues, versión superior al cuatro, por lo tanto, es el mejor smart HDR hasta la fecha, qué bonito, y entonces, pues, obviamente, el postprocesado de las fotografías será mejor, pero quince el quince pro tiene el mismo exacto hardware con las mismas exactas características. Repito, no sé si es el mismo exacto hardware, pero desde luego las características de las lentes y los sensores son exactamente las mismas.

    En todo, teleobjetivo, teleobjetivo recortado, ultra gran angular, cámara principal, las tres son iguales. Cambia el iPhone quince Pro Max porque tiene este teleobjetivo, por lo que este año, si nos interesa por fotografía, igual que otros años yo he dicho, bueno, si te gusta la fotografía, pues merece la pena el cambio, tal, no sé qué. Este año no. Este año no. Este año las cámaras poco más porque, volvemos a repetir, si es que esto es como los propios teléfonos en sí, es que poco más hay ya donde rascar, es que de dónde más sacas, ¿vale?

    Si lo que han hecho con el teleobjetivo cinco x, con este tetraprisma, es absolutamente un milagro tecnológico a nivel físico, ¿vale? Pues es que ya no puedes dar más de sí, es que ya no se da más de sí, es que ya hemos tocado techo en muchos otros aspectos, yo lo he repetido un millón de veces, el smartphone, el smartwatch, los los las tabletas, los televisores, la la los microonard, o sea, todo esto toda esta tecnología ha tocado techo hace muchos años, ya poco más tiene que ofrecer, ¿vale? Por lo que, bueno, en este caso, las lentes. ¿Son las mejores lentes son las mejores cámaras hasta la fecha puestas en un iPhone? Pues sí, hombre, como va a ser peores, ¿no?

    Es lógico. Pero realmente no merece la pena. Merece más la pena por el hecho de poder hacer grabación de vídeo en ProRes log o en ProRes, directamente a un dispositivo externo, porque tenemos USB C y merece mucho más la pena si somos fotógrafos profesionales que nos apoyamos en el iPhone, ¿vale? Porque cualquier fotógrafo profesional que tú le digas, no, es que es un fotógrafo profesional pero solamente usa el iPhone, te va a decir, pues entonces no es un fotógrafo profesional, ¿vale? O sea, pero sí es cierto que hay muchos fotógrafos profesionales que se apoyan en el iPhone para muchas cosas, porque no es lo mismo meter un iPhone en una zona que es complicada a la hora de enfocar, a la hora de hacer una foto que tenga un, en fin, una toma un poco especial, etcétera, pues no es lo mismo meter un pedazo de objetivo que meter una cámara más pequeña como tiene un teléfono, por lo que hay muchos profesionales en la fotografía que se apoyan en un iPhone como una cámara de apoyo para cierto tipo de circunstancias, donde las cámaras DSLR no dan la talla por su tamaño, porque son más complicadas a la hora de manejarlas, a la hora de meterlas en ciertos espacios, etcétera, pues se apoyan en estos móviles.

    Si yo soy un fotógrafo profesional, hago muchas fotografías, muchas de ellas, las hago en en en ProRestrow y por lo tanto luego las las etalono dentro de mi ordenador usando el el Adobe este de las fotos que no me acuerdo cómo se llama, el del catálogo, ¿vale? Que usa todo el mundo. Pues, entonces, sí, ¿vale? Sí puede merecer la pena, ¿por qué? Porque tengo un puerto USB C que me va a permitir sacar las fotos de del teléfono, todas las cientos de fotos que haya hecho en el teléfono, pues sin tener que echarme a dormir a esperar a que termine, porque es un puerto USB dos punto cero.

    Es que ese es el bebé, entiéndanme, o sea, la cámara este año merece más la pena porque tiene un puerto USB C que hace que podamos sacar las fotos más rápido si compramos un cable aparte, por supuesto, porque el cable que viene con el teléfono no permite USB tres punto cero, no es tres punto cero, ya hemos dicho es tres punto dos generación dos de hasta diez gigas por segundo, así que Y luego tenemos la opción de que si queremos grabar vídeo, que también volvemos a lo mismo, si yo no puedo meter la cámara y tal para ciertos planos puede ser interesante grabar con el iPhone. El iPhone tiene muy buena calidad de vídeo, todos lo sabemos y está muy por delante de la competencia en ese sentido. En fotografía no, ¿vale? En fotografía es muy bueno pero no es el mejor, pero en vídeo todavía sigue siendo el mejor. Entonces, si queremos usar este vídeo, pues bueno, podemos conectarlo a un almacenamiento externo y grabarlo ahí directamente y esto sí es algo que puede ser importante, es una diferencia operativa importante, que puede ser lo suficientemente importante como para que muchos fotógrafos o videógrafos profesionales, creadores de contenido, etcétera, etcétera, se declinen por los iPhones quince Pro y quince Pro Max, insisto, no por las cámaras porque son las mismas salvo el teleobjetivo del Pro Max, sino por la capacidad de conexionado del USB C, que permite sacar las fotos más rápido y la posibilidad de poder grabar vídeo directamente en un almacenamiento externo y no en el almacenamiento del propio iPhone, ¿vale?

    Estos son cambios que, desde luego, son muy muy interesantes, ¿ok? Eso y que luego bueno pues si si hemos grabado un vídeo aunque sea dentro del almacenamiento del iPhone, pues el iPhone se puede conectar, como ya hemos dicho, si yo me compro el nuevo adaptador USB C para HDMI, yo puedo conectar mi iPhone a una pantalla externa a través de HDMI y tengo salida HDR diez y Dolby Vision, por lo que si soy un profesional del vídeo que usa el iPhone como cámara de apoyo junto a todas las demás, desde luego, puede ser interesante que desde el propio iPhone pueda sacar la señal de imagen a una tele, a un monitor de referencia y ver cómo ha quedado, ¿vale? Simplemente, porque ahora los iPhones ya tienen también salida de vídeo, ¿vale? Cosa que antes también tenían, pero mil ochenta ahora es 4k, sesenta FPS, hasta Dolby Vision, HDR diez, etcétera. Por lo tanto, pues es un cambio importante.

    Así que eso sería un poco esta pequeña master class, pequeña master class sobre las cámaras, la fotografía, las diferencias, las diferencias en los modelos, etcétera, etcétera, para intentar de alguna manera que todas estas características queden lo más claras posibles, ¿de acuerdo? Que queden lo más claras en cuanto a las capacidades que tenemos en los distintos modelos, etcétera, etcétera, porque desde luego, bueno, pues, en fin, luego, a ver, aparte de todo eso, características características de los propios dispositivos, ¿vale? Características de lo que serían los iPhone quince pro en este caso, pues a ver, lo normal, ¿vale? Si aquí estaríamos hablando de lo típico, ¿no? A ver, tiene un zoom digital de hasta x veinticinco, ¿vale?

    Mejor no echemos el zoom, mejor no usar el zoom digital, ¿vale? También, y esto es importante, el el del objetivo cinco x al tener una apertura, claro, entiéndanme, si yo tengo una apertura de ciento veinte milímetros, ¿vale? Es una apertura, no, una distancia focal de ciento veinte milímetros, eso significa que si yo intento, o sea, si yo muevo mínimamente el teléfono, me voy a mover terriblemente, ¿vale? Esto me lo explicó mi abuelo hace muchos años, que cuando tú estás en un telescopio y te enfocas y ves la luna y tienes un aumento muy grande, un simple toque en el telescopio, lo que para ti son milímetros, se multiplica en ese a nivel de lo que es el el trigonometría básica, ¿vale? Entonces, si yo muevo ese eje, yo muevo unos milímetros, pero eso está proyectado en la distancia, por lo que cuanto mayor aumento tengo, más representa en el movimiento real hacia el elemento que estoy viendo, por lo que el teleobjetivo cinco x tiene una estabilización óptica de imagen por desplazamiento del sensor en tres d con enfoque automático, ¿vale?

    Tiene una una óptica de estabilización nueva que permite que esta estabilización funcione mucho mejor, ¿vale? Las la estabilización óptica de las cámaras del quince pro y quince pro max son con óptica de imagen por desplazamiento del sensor, ¿vale? Que según Apple es de segunda generación, ¿vale? Pero este es de desplazamiento del sensor en tres D con enfoque automático contra el diseño de Tetraprisma, ¿vale? Luego ya, pues, todo lo demás, ¿no?

    Modo noche, HDF inteligente, captura en no sé cuántos miles de formatos, captura de imagen también en formato DNG, ¿vale? Modo cine, tenemos eso, pues modo, el modo cine llega hasta 4K HDR a treinta, ¿vale? No llega a cuatro k a sesenta, pero en lo que es la grabación se puede grabar a cuatro k a sesenta, mil ochenta, setecientos veinte, tiene un modo de acción hasta dos coma ocho k a sesenta FPS, ¿vale? Que recordemos que el modo acción es un modo recortado, ¿vale? Para conseguir esa estabilización en posproducción, ¿vale?

    Y luego, pues, en fin, todas las características que normalmente tiene de enfoque automático, píxeles, no sé qué, Animojis, Apple Pro Row, bla bla bla bla bla bla, ¿vale? De ese tipo de cosas, ¿de acuerdo? Así que, bueno, pues eso sería, en esencia, todo lo que tendríamos que comentar, que no ha sido poco, con respecto a las cámaras de los iPhones quince, quince plus, quince pro y quince pro Max. Y con esto entramos al último bloque, el chip A diecisiete Pro, que obviamente no vamos a volver a hablar de la dieciséis, pasamos a hablar solo de la diecisiete Pro. ¿Sientes que el mundo del desarrollo Apple es un laberinto?

    ¿Te has topado con promesas de convertirte en un desarrollador en unas pocas semanas y has terminado decepcionado? ¿Estás cansado de quien no profundiza en el conocimiento o te intenta contar todo a la vez creando el caos? Tengo algo que contarte. En Apple Coding Academy entendemos que ser un iOS developer no es un camino fácil ni rápido, es una carrera de fondo, pero ¿y si te dijera que en solo cuatro meses puedes obtener las bases necesarias para impulsar tu carrera y adquirir las habilidades que las grandes empresas demandan? Sí, es posible.

    Es posible obtener esa base a partir de la cual puedes empezar a trabajar y convertirte en todo un desarrollador. Presentamos el Swift Developer Program dos mil veintitrés. Aprende a crear código nativo de calidad para entornos Apple abriendo las puertas del App Store para tus proyectos. No importa si eres un veterano buscando perfeccionar tus habilidades o ponerte al día o si estás dando tus primeros pasos en el mundo del desarrollo, este programa está diseñado para ti. Aquí no solo aprenderás a programar, te sumergirás en el mundo del desarrollo Apple, el más riguroso.

    Con nuestra formación sentarás las bases para tu especialización como desarrollador de iOS siguiendo las directrices más estrictas, las de Apple. Aprende Swift cinco punto nueve y programación funcional para aprender el lenguaje de Apple desde cero, concurrencia y asincronía con ASYNAwait para manejar tareas en tiempo real y conexiones de red de forma eficiente. Aprende Suite UI en su versión cinco, desarrollo de apps en iOS y iPad OS, incluyendo retrocompatibilidad y las novedades del WWW DC dos mil veintitrés y, por supuesto, una introducción a visión OS. Adétrate en la apuesta del futuro de a visión OS, adéntrate en la apuesta del futuro de Apple y su próximo gran producto. Y lo mejor de todo, este programa está basado en trabajo y experiencia real, guiándote paso a paso, desde lo más simple hasta ¿Te interesa?

    ¿Te suena bien? Genial. Las clases serán desde el dos de octubre de dos mil veintitrés hasta el treinta de noviembre de dos mil veintitrés, más dos meses más de proyecto, de lunes a jueves de siete de la tarde a once de la noche. Para más información visita acoding punto academy barra SDP veintitrés. No pierdas esta oportunidad única de aprender con los mejores y de convertirte en un verdadero experto en desarrollo Apple.

    Te esperamos y date prisa porque quedan pocas plazas. Entramos en la parte más densa, creo yo, porque tenemos que entender qué es el A diecisiete Pro. Y antes de nada, les voy a decir algo que probablemente les sorprenda, pero tiene su explicación, es algo que no depende de Apple y, por lo tanto, tenemos que entender esto de una manera muy clara. Sabemos que Apple diseña sus propios chips desde el A cuatro en el año dos mil diez, ya, o sea, Steve Jobs seguía vivo para fortuna de la humanidad en aquella época y se encargaba de, bueno, pues él desde el primer momento quiso que Apple tuviera sus propios chips, y según cuentan las leyendas, ¿vale? Porque esto es algo que no he podido confirmar nunca, pero se cuenta a nivel de leyenda, parece ser que Steve Jobs dejó dicho que año tras año fueran probando los chips de serie A de los iPhones, diseñados por la propia Apple, en los Mac a ver qué tal iban y que en el momento en el que viera que funcionaran, le dieran la patada a Intel, porque veía Intel, y esto sí es algo que está más confirmado, Steve Jobs veía a Intel como una etapa de transición, él no quería depender de Intel, pero no por Intel, no quería depender de ningún fabricante, porque al final depender de un fabricante de tercero te hace depender de un montón elementos y entonces él cuantas más cosas dependieran solo de él y pudiera, por lo tanto, tener más controlados sus ciclos de evolución, pues mejor.

    Bien, cuando, bueno, pues, en fin, Apple, como digo, viene diseñando, diseña los chips desde el A cuatro, luego hizo un cambio importante en el A siete a sesenta y cuatro bits, luego hizo el cambio a la arquitectura Big Little en los A diez, poniendo núcleos de alto rendimiento y núcleos de eficiencia energética, en los A once crea el system una chip Bionic, que tiene dentro un motor neural, que tiene dentro una serie de componentes, memoria, etcétera, que ha llegado hasta nuestros días, el A catorce es el que dio pie a la llegada de los M uno, el A quince es el M dos, el A dieciséis se va a quedar ahí en tierra de nadie, y este a diecisiete Pro se supone que es la versión Lite de lo que serán los m tres en un futuro, pero como veremos ahora, no es realmente así, y tenemos que entender que este A diecisiete Pro, que le han puesto el Pro con un motivo muy claro, es un system, una chip de transición, no es el chip real que Apple hará sacando todo el partido de los tres nanómetros, y dirán ustedes, bueno, entonces, ¿qué pasa?

    Que este chip no es tres nanómetros, sí, es tres nanómetros, pero es un chip de transición porque, y oigan bien lo que voy a decir, el A diecisiete Pro es prácticamente idéntico, sobre todo en su CPU, a la dieciséis. A grandes rasgos, el A diecisiete es el A dieciséis, construido en tres nanómetros y con una nueva GPU, el espacio de más que ha dado el aumento o el cambio del la el proceso de fabricación, ha permitido a Apple cambiar la GPU de una GPU no profesional a una GPU profesional, una GPU que normalmente pondría, y de hecho estoy convencido, que esta GPU, la GPU, no el system nachip, la GPU, ese diseño de GPU, sí estará en los M tres. Pero bueno, acabas de decir que los M tres van a ser distintos, no van a estar fabricados en estos tres nanómetros, no entendemos nada. A ver, tenemos que diferenciar muy claramente lo que es el diseño de un chip y su fabricación, son dos cosas que no tienen nada que ver. Yo Yo puedo tener el mismo diseño de chip y para diseñar un chip hay una serie de procesos, que ahora explicaremos, que tienen que darse para que este chip consiga lo que tiene que hacer.

    Es decir, cuando yo diseño un chip no es algo tan simple, no es algo O sea, si yo cuando diseño un programa estoy supeditado a que haya errores y luego tengo que ir a corregir esos errores, ¿se imaginan lo que es diseñar un chip? Que básicamente es como un programa a base de unos y ceros, porque todos son circuitos por donde pasa o no pasa la electricidad y donde se preprograma antes de la impresión, ¿vale? Antes de sacarlo en las obleas, pues se hace una especie de preprogramación, no es una programación como tal, pero sí es ir configurando los circuitos para que sean aquello que se espera que sea, para que esté ahí la CPU, para que esté la GPU, para que tengan las instrucciones que tienen que tener, para que soporten lo que tienen que hacer, o sea, el proceso no son realmente conscientes. Yo creo que en toda nuestra vida, en cuatro vidas juntas, ni siquiera yo puedo llegar a ser realmente consciente de la absoluta total y de locura complejidad que tienen definir y diseñar chips, por lo que llegar a una versión de chip que sea funcional a partir de un diseño es un trabajo titánico absoluto, titánico absoluto, de muchas y muchas y muchas y muchas iteraciones y de muchos cambios, etcétera.

    Por lo que cuando se ha conseguido el diseño de un chip, ese diseño ya está probado, ese diseño ya está hecho. Si yo hago un programa nuevo, lo tengo que hacer desde cero y ese programa puede tener errores y empiezo de nuevo desde cero. Normalmente, hago programas que están basados en otros o uso librerías que utilizan otros o actualizo esas librerías, pero imagínense lo que es cuando Apple crea un chip nuevo y tiene que ponerlo dentro de con los distintos componentes, o sea, es una auténtica locura, por lo que tenemos que ser de ser conscientes que en un ciclo anual como el que tenemos ahora mismo y con las circunstancias que tiene ahora mismo la fabricación de chips, que ahora las vamos a contar, Apple haya decidido, por lógica, mantener el diseño del chip de la dieciséis para construirlo en tres nanómetros, lo cual les va a dar una ventaja competitiva importante al chip, porque al estar fabricado en tres nanómetros va a conseguir que el mismo diseño sea más pequeño, funcione mejor, consuma menos energía, se pueda dar más potencia, se le pueda poner a más velocidad, como se ha hecho, por lo tanto, tenemos que tener presente este hecho, ¿de acuerdo?

    Entonces, Apple lo único que ha hecho ha sido crear el A dieciséis tal cual ya estaba, pero puesto en una litografía de cinco en proceso de fabricación de cinco nanómetros, y lo que ha hecho ha sido cambiarle la GPU dentro del diseño, dejar el resto de componentes y y y reimprimirlo, ¿vale? También ha mejorado el motor neural, ¿de acuerdo? Porque el motor neural va unido a la GPU, ¿vale? Por lo tanto, estos son los dos componentes que no coinciden con el diseño del A dieciséis, pero todos los demás componentes, la propia CPU entre ellos, son el mismo exacto diseño del A diecisiete, perdón, el A el A diecisiete y el A diecisiete. De hecho, a nivel interno, la propia Apple, la identificación dentro del software con los drivers del sistema, identifica a este chip como una variante de la dieciséis, ¿de acuerdo?

    Bien. Entonces, ¿qué es lo que sucede con la construcción de los semiconductores, ¿de acuerdo? El problema es que estamos en medio de un renacimiento dentro de lo que es el diseño de los de los semiconductores provocado por los cambios a nodos de tres nanómetros en la construcción. A medida que la ley de Moore se desacelera, porque ya no es posible, ya hemos llegado a un punto en el que la ley de Moore, en el que yo voy haciendo en una fase lo que es la miniaturización y en la siguiente fase hago la mejora de dicha fabricación de la miniaturización para que sea más eficiente y luego vuelvo a cambiar y hago de nuevo una miniaturización, ya estamos llegando a un punto en el que esta ley se desacelera, ¿vale? El ciclo que teníamos hasta ahora es imposible de seguir llegando porque estamos llegando los límites físicos de los propios materiales, por lo que el diseño ahora se orienta hacia arquitecturas heterogéneas que sean más especializadas.

    Pero esto tiene un problema, y es que en esta estrategia de especialización de los chips, los costos fijos de su fabricación están explotando, están subiendo a unos niveles brutales y los volúmenes para estos diseños están disminuyendo drásticamente, por lo que la fabricación de las obleas se ha convertido en un ciclo que implica definir características con litografía, construirlas con deposición, grabado y otros pasos, y cada capa de las que se hacen para lo que es la fabricación y el conjunto de todas esas capas y las distintas máscaras que van unidas hacen que el costo de estos conjuntos esté aumentando rápidamente, de forma que cuanto más nos acercamos a los tres nanómetros o al ya anunciado proceso de dos nanómetros en el que se está trabajando a nivel de I más D, pues hace que todo sea cada vez más caro, porque además la validación y verificación de los diseños son cruciales, como hemos comentado, no me sirve hacer un diseño como tal si no puedo validarlo, porque igual que un software, yo hago un software, creo que funciona, lo pruebo o no funciona, pues puede ser que un diseño de chip lo pruebe y no funcione y tenga que corregir dicho diseño, y en ocasiones esos diseños llegan a litografía, se mandan, se imprimen, se recuperan y resulta que no funcionan, que hay un componente que no va o que tiene un error, como por ejemplo sucede con los A once Bionic, los A once Bionic se han quedado fuera de iOS diecisiete porque iOS porque porque los A once Bionic tienen un error de hardware que permite hacer Jill Brake a los dispositivos y dejarlos así de manera permanente, y al ser un error de hardware, pues el problema es que, pues no es parcheable, no se puede corregir de ninguna manera, ¿de acuerdo?

    Entonces, esto es un problema porque a medida que la industria de semiconductores avanza hacia nodos de proceso más pequeños, los desafíos y los costes asociados innovar, para avanzar, etcétera, cada vez hay más riesgo y es esencial que las empresas tengan en cuenta esto a la hora de incorporar dentro de sus procesos de diseño, etcétera, etcétera, ¿vale? Entonces, ese es un poco el tema, ¿vale? Cuando yo lo que hago es imprimir una oblea de silicio, ¿vale? Cuando hago estas litografías, esa oblea lo único que tiene son millones, miles de millones de micro transistores, pero para que esto funcione yo primero tengo que haber diseñado el chip. Antes de que se diseño detallado del chip utilizando un software especializado, un diseño que lo que tiene que especificar es cómo se tienen que organizar y conectarse los transistores y el resto de componentes para que el chip haga lo que tiene que hacer.

    Y una vez eso está diseñado, una vez ya está correcto, ¿vale? Una vez ya tenemos ese diseño hecho, se manda a la fabricación de la oblea, y en ocasiones esas obleas se hace, pues, como una subida preproducción de un software que, de pronto, pues, está ahí, lo probamos y de un software que de pronto, pues, está ahí, lo probamos y resulta que no y tenemos que tirar para atrás, etcétera, pues, a veces también pasa a nivel de pruebas. Cuando ya tenemos hecho el diseño, se coge la oleada de silicio, que es básicamente un disco delgado de material semiconductor, y durante el proceso de fabricación se usan técnicas de litografía para imprimir patrones dentro de la oblea que determinen dónde se van a ubicar los distintos micro transistores y los otros componentes. Para que esto funcione, se hace a través de un proceso llamado de dopado. Lo que se hace es que se introduce material dopante en áreas específicas de la oblea para modificar las propiedades eléctricas del silicio y crear regiones conductoras, que se llaman de tipo n, y regiones no conductoras, que sean de tipo p.

    Y esto es lo que hace que se programe el chip a base de estos circuitos, a base de a base de estos elementos en donde pasa o no pasa la electricidad. Luego se crean los transistores, se forman dentro de la oblea utilizando las regiones dopadas, de forma que estos transistores actuaran como interruptores, controlando el flujo de la electricidad y, por lo tanto, lo que es la programación, es decir, la lógica del chip. Siguiente paso, las interconexiones. Tenemos que, una vez que se han formado todos los transistores, todos los micro transistores que se quieren poner, se crean capas de metal en la oblea para conectar estos transistores entre sí y con otras partes del chip, haciendo que todo el conjunto esté interconectado para que los transistores trabajen juntos y realicen las funciones complejas para las que tienen que estar programados, que esto también tiene que estar dentro del diseño. Y una vez está todo esto hecho, se pasa a prueba, se pasa a prueba para que, una vez se ha fabricado el chip, se prueba para asegurarse de que todo funciona correctamente y, si hay defectos, el chip se tiene que descartar y, en algunos casos, se puede llegar incluso a reparar según el caso.

    Por último, corte y empaquetado. Una vez que la oblé ha sido probada, se corta en chips individuales y estos se montan en paquetes que proporcionan las conexiones físicas, como los pines o almohadillas, para conectar el chip a una placa base y que esta funcione, ¿vale? Por lo tanto, lo que se hace es eso, es decir, no es que se directamente se programe igual que se programa un software, ¿vale? Pero sí es cierto que se indica en este proceso y luego aparte puede ser que en ciertos casos, como una CPU, tengan algo llamado microcódigo, que es una capa de instrucciones de bajo nivel, que esa capa sí puede ser actualizada para variar el comportamiento del chip en una especie de parte lógica programable donde los las conexiones no estén fijas, sino que puedan programarse de alguna manera entre uno y otro, ¿vale? Por lo tanto, bueno, pues tendríamos este elemento, por ejemplo, una de las cosas que se usan, ¿vale?

    Este material dopante que se utiliza en la litografía para los dopantes de tipo n que permiten el paso de la electricidad serían, por ejemplo, el fósforo, es uno de los que pueden utilizarse, ¿vale? Que tiene cinco electrones en su capa externa, uno más que el silicio, y los o dopantes de tipo p, que serían los que crean la falta de electricidad, los huecos, podrían utilizarse, por ejemplo, elementos como el boro, ¿vale? Por lo tanto, bueno, pues tenemos este elemento, ¿vale? El dopado es la parte esencial para la de dispositivos semiconductores, como diodos transistores, circuitos integrados, etcétera, y permite a los ingenieros controlar y modificar las propiedades eléctricas del semiconductor acuerdo? Entonces, Apple ha tenido forzosamente que utilizar el mismo diseño de chip del A dieciséis, construido en cinco nanómetros, en el A diecisiete, repito, salvo la GPU y el motor neural.

    ¿Por qué ha tomado esta decisión? Pues porque resulta que, ¿recuerdan aquello que decíamos que el proceso de TSMC de los tres nanómetros iba a llegar, como el millennialismo, y que, por lo tanto, se iba a conseguir? No ha llegado. Señores, el proceso de tres nanómetros no ha llegado, ¿vale? Es decir, vamos a ver, el A diecisiete está fabricado Pro, ¿está fabricado un tres nanómetros?

    Sí. ¿Es el proceso de tres nanómetros? No. Me explico. El proceso de tres nanómetros tiene cuatro distintas fases de fabricación.

    El N tres B o proceso base, el N tres E o proceso extendido o proceso mejorado, perdón, que sería la opción, el enhanced, el proceso p de potencia y el proceso e de extreme. Son cuatro distintos procesos de fabricación. Y ustedes dirán, pero vamos a ver, espérate, espérate, espérate que me estoy construido el sobre el que se ha construido el A diecisiete Pro es el proceso N tres b, un proceso que es el nodo base transitorio hacia los verdaderos tres nanómetros. ¿Quiere eso decir que los tres nanómetros no se están utilizando? Sí, se están utilizando, pero un proceso de fabricación es la unión de dicho proceso unido a la eficiencia dicho proceso, y el problema es que los tres nanómetros de TSMC que se están usando ahora mismo tienen varios problemas.

    Primero, TSMC ha tenido retrasos en los envíos de las obleas de fabricación para tres nanómetros, ¿vale? Confirmando que, por parte de TSMC, que los envíos de obleas de tres nanómetros se comenzarán a usar en el primer trimestre de dos mil veintitrés. Esto fue lo que dijo TSMC, ¿vale? Para decir que iba a tener este elemento, pero esto ya era un retraso, ¿vale? Un retraso porque se supone que TSMC había mantenido que iba a tener una fabricación a gran escala de los de los tres nanómetros desde la segunda mitad de dos mil veintidós, sin embargo, el inicio de producción no pudo hacerse de una manera correcta, y como es además el inicio de producción no es lo mismo que los envíos, porque tú estás produciendo y en el tercer trimestre de dos mil veinte, ¿vale?

    Luego, TSMC se ha encontrado con problemas de la complejidad del proceso, ¿vale? Los tres nanómetros es muy complicado tanto en tecnología de procesamiento como en diseño de producto para los clientes. TSMC ha trabajado con Apple y decidieron comenzar la producción en la segunda mitad, ¿de acuerdo? De el próximo año, no en este. ¿Esto qué quiere decir?

    Pues que los tiempos de ciclo, a medida que se que se avanza hacia tecnologías de proceso más nuevas, el número de pasos de proceso requeridos para fabricar el chip aumenta, por lo que el N tres de TSMC tendrá alrededor de entre treinta y treinta y cinco exposiciones de EUV por oblea, lo que significa que la fabricación de obleas de tres nanómetros llevará bastante más tiempo que la de cinco nanómetros, es decir, la litografía es más lenta, al ser más lenta es más costosa. El coste por oblea DN siete era aproximadamente de diez mil dólares, el DN cinco era de dieciséis mil quinientos, el DN seis se espera que supere los veinte mil dólares. Sí, a ver, hay una mejora, pero telita marinera, ¿vale? Y si tenemos en cuenta que el proceso litográfico en el que yo utilizo esta tecnología de EUV, ¿vale? Que básicamente es la forma ¿vale?

    El EUV es el Xtrina ultravioleta ¿vale? O ultravioleta extremo, es una tecnología avanzada de litografía que utiliza, que se utiliza en la fabricación de semiconductores, ¿vale? Litografía es el proceso mediante el cual se imprimen patrones en una oblea de silicio para definir las estructuras del chip, y lo que estructuras del chip, y lo que estamos haciendo es utilizar capas de ultravioleta extremo, que se refiere a las capas individuales de un chip que se definen la tecnología de litografía lleguen a permitir la la tecnología de litografía lleguen a permitir la fabricación de los chips más densos, más potentes, pero también presenta desafíos en términos de coste y complejidad. ¿Por qué? Pues porque los tres danómetros requieren hasta diecinueve capas EUV.

    ¿Y qué quiere decir eso? Pues que cuando yo imprimo, cuando yo uso diecinueve capas de ultravioleta, lo que nos referimos es al número de capas individuales en el chip que se definen utilizando la litografía, cada capa representa un conjunto específico de patrones que se imprimen en la oblea durante el proceso de fabricación y que determinan la ubicación y la función de los transistores, las interconexiones y los componentes del chip, por lo que son, si una conexiones y los componentes del chip, por lo que son, si una oblea tiene diecinueve capas, significa que durante el proceso de fabricación la máquina litográfica se utiliza diecinueve veces para definir diecinueve capas diferentes para que estas capas terminen de incluir todos los caminos críticos para transistores, interconexiones y estructuras, y por lo tanto hagan que el chip esté completo. Es como si yo, para verlo de una manera muy muy muy burda, es como si yo tuviera que dar diecinueve pases a cada folio para que al final me saliera el folio bien impreso, ¿de acuerdo? Ese es el el proceso, esa es la complejidad que tenemos a este respecto, ¿vale? Por lo que eso lo que hace, obviamente, es aumentar la complejidad, aumentar el coste, aumentar el tiempo que cuesta, o sea, aumentar el tiempo en el que se imprime la litografía, en fin, todo es mucho más caro, ¿vale?

    Por lo que surgen preguntas, ¿vale? Surgen preguntas porque hay otras tecnologías, como la tecnología de Samsung de dos nanómetros, etcétera, que podrían llegar a ser mejores o no. Esto hace que tenga un impacto directamente en Apple, porque al ser uno los socios principales en la introducción de nuevos procesos, un retraso en los envíos de obleas de tres nanómetros afectaría los planes de Apple para los dispositivos de este año y los y, de hecho, los ha afectado porque ya hemos visto que el veintiséis de septiembre se presentará, saldrá la al directamente macroS Sonoma, eso lo que significa es que hay una muy alta probabilidad de que este año no haya más presentaciones de Apple, porque han llegado a duras penas a tener todos los A diecisiete Pro necesarios para ponerlos en los iPhones, ¿de acuerdo? Y si tenemos problemas de producción, pues, en fin, todos los problemas que tenga PSMC con los tiempos y con que se necesita el suficiente tiempo para que todo funcione, pues hace que, en fin, estemos trabajando, ¿con qué? Con un proceso base de tres nanómetros que tiene un índice de eficiencia en la fabricación de los chips del cincuenta y cinco por ciento.

    Es que estén locos, es que resulta que el casi la mitad de las, casi la mitad de la oblea que se litografía, hay que tirarla a la basura porque no sirve, porque oblea que se imprime, donde cada oblea vale veinte mil dólares y donde normalmente el fabricante se lleva la oblea completa y paga la oblea completa, ¿vale? A veinte mil dólares la oblea, resulta que solo poco más de la mitad trae chips correctos que se pueden usar, el resto no sirven, hay que tirarlo a la basura. Normalmente, como los índices son mucho más altos, como los índices son por encima de un setenta, un ochenta por ciento, cuanto mejor es el proceso de fabricación, cuanto más pulido está, esos son los procesos de fabricación que hemos estado hablando, sabemos que la catorce se hizo en el proceso N cinco, es el proceso base, el equivalente al n tres b, pero en cinco, ¿vale? El n cinco es el proceso base de cinco nanómetros. Luego el A, el A quince y los M dos están hechos en el siguiente proceso, que es el N cinco p, que es el de cinco nanómetros plus plus, que es el que mejora el proceso.

    Esa mejora de proceso no es más que conseguir un porcentaje de mejor eficiencia en, uno, los costes, dos, los tiempos, de lo que tarda en imprimirse la oblea, y tres, que el porcentaje de la oblea sea más usable, ¿de acuerdo? Porque cuanto más pulido está un proceso de fabricación, mejor. Así que tenemos este este pequeño gran problema por parte de TSMC, así que el N tres B, que es el sistema que se ha usado, tiene una tasa, insisto, del cincuenta y cinco por ciento, hasta el punto de que Apple le ha dicho a TSMC. Vale, señores, a ver, ¿recuerdan eso de que el fabricante paga la oblea entera y se come con patatas, la parte de la oblea que no funciona? Bien, pues yo no lo voy a hacer.

    Así que solo les voy a pagar a ustedes por el porcentaje real de chips que funcionan, por lo que si la oblea de tres nanómetros vale veinte mil dólares, Apple solo va a pagar por ella once mil, porque el resto no lo va a pagar, porque el resto son cosas que no van a funcionar, esto es algo que normalmente se hace porque, repito, los índices de eficiencia, los índices de los elementos que sí funcionan, ¿vale? Dentro de la oblea, pues suelen ser bastante más altos, de hecho. Y esto es algo que ya hemos visto mucho, ¿por qué el famoso m uno de los iMac o de los de los iMac base o de los mapbook Air más pequeñitos, vale? Resulta que tiene una GPU de menos, ¿vale? O que tiene un núcleo de menos o dos núcleos de menos en algo.

    ¿Por qué? Porque esos chips están hechos sobre las partes de la oblea que están más a los bordes, porque cuanto más nos alejamos del centro en la litografía de la oblea, menos eficiencia, peor funcionan los chips comparativamente porque nos vamos acercando a las partes que ya están rotas y no funcionan, por lo que si yo cojo los elementos de los de las esquinas de la oblea donde hay componentes que no funcionan, pues así yo puedo hacer que, sabiendo la eficiencia que tiene a nivel de fabricación y sé que a partir de cierto punto la oblea va a empezar a fallar, ahí coloco elementos como los núcleos y tal que puedo descartar para que luego cuando ponga el chip esos elementos no estén activados porque no sirven, porque no funcionan, porque están en partes litográficas que no se pueden usar, porque están mal, porque el índice de eficiencia es bajo en ese sentido, pero como el del n tres b es tan tan tan tan bajo, ¿vale? Apple ha puesto esta condición en la TSMC, mira, no te voy a pagar la oblea entera hasta que me des al menos un setenta por ciento de eficiencia en la fabricación, y como están en un cincuenta y cinco, lo que ha pasado es que, pues eso, Apple está pagando menos, ¿vale?

    Por eso no ha por eso no ha necesitado incrementar el precio de los iPhones, ¿vale? Porque si las obleas le hubieran costado veinte mil dólares por oblea, como es el precio completo, pues hubiera tenido que subir el precio de los iPhones. Sin embargo, ha podido solventar esto porque como el índice de fabricación, el índice de eficiencia de TSMC es tan bajo en este proceso base, ha dicho no no no no, esto te lo comes tú con patata, yo te pago solo la parte del porcentaje que realmente funciona, ¿vale? Así que ese es el kit de la cuestión. Por lo tanto, en la hoja de ruta de los tres nanómetros, al igual que hay una serie de procesos que van unidos y que van siendo nanómetros, ¿vale?

    Insisto, el n tres b, el n tres e, el n tres p y el n tres x, ¿vale? ¿Cuál es cada uno de ellos? El n tres b, que es el base, ¿de acuerdo? Es el que está utilizando, repito, el a diecisiete pro, que es un, digamos, un proceso de tres nanómetros que no está pulido y que se ha sacado a, vamos a llamar, producción, a quien los clientes pueden utilizarlo, a pesar de saber que no está correctamente terminado, ¿ok? Por lo tanto, es como eso, como una etapa de transición, es algo que no debería existir, es como una beta del n tres, ¿vale?

    Porque tiene este índice de eficiencia tan bajo. En se espera más o menos ¿vale? Más o menos que para mediados primeros de dos mil veinticuatro se pueda empezar a fabricar en el N3E, que es la versión de tres nanómetros que más va a utilizar o que se prevé que más vayan a utilizar todos los fabricantes, ¿vale? N tres E es un proceso de diecinueve capas EV que no depende de un doble patrón a la hora de imprimir la litografía, que reduce por ello la complejidad y reduce el coste con respecto a el n tres b, y ofrece una, eso sí, menor densidad lógica, aunque tiene el mismo tamaño de celda SRAM que el nodo n cinco de TSMC. Por lo tanto, lo que han hecho básicamente es que ciertos componentes no sean tan pequeños ni estén tan miniaturizados para que así el proceso sea más eficiente, y este va a ser el proceso de verdad que podríamos llamar de tres nanómetros, porque en e tres b podríamos llamarlo como una beta, el verdadero equivalente al n tres, al en este caso al n cinco de los cinco nanómetros, sería este n tres e, que es el que va a estar disponible a partir, para empezar a fabricar, ¿vale?

    Creo que es a finales de este año, y comenzará sus entregas a clientes a partir de primeros de dos mil veinticuatro, por lo que yo no contaría con cambios en los chips y con salidas de los M tres, etcétera, hasta el próximo año. Hecho esto, el siguiente es el de el siguiente paso, ¿vale? Ya sería el tercera generación, que en realidad sería como un segundo, que sería el N3P, que es mayor rendimiento y densidad de transistores. N3P se basa en el N3E, pero ofrece unas características de transistores mejores, permite a los diseñadores de chips aumentar el rendimiento en un cinco por ciento o, esto ya lo hemos hablado alguna vez, o aumentas el rendimiento un cinco por ciento o reduces el consumo de energía entre un cinco y un diez a las mismas frecuencias, ¿vale? Es decir, cuando yo tengo un procesador, una CPU, un chip, una GPU que está fabricada en un proceso de fabricación más óptimo, yo tengo un porcentaje de ganancia en la potencia, es decir, en las mismas frecuencias, el mismo diseño, con una fabricación mejor, tendrá una reducción en el consumo de energía x, o ese consumo de energía me lo puedo llevar a aumentar el rendimiento y quedarme con el mismo consumo que tengo ahora, ¿de acuerdo?

    ¿Qué es lo que ha hecho Apple con el A diecisiete Pro? Ha cogido el chip que funciona a tres con cinco gigahercios el A dieciséis, y lo ha aumentado a tres con ocho, a tres con setenta y siete, por lo que ha aumentado la frecuencia de reloj haciendo que en las pruebas de la propia CPU tenga un aumento aproximado de un diez por ciento en potencia, pero en las pruebas sintéticas de Geekbench seis, que hace una prueba mucho más mucho más homogénea de todo el conjunto del SOC, estamos hablando de un aumento de más del veinte por ciento, veinte por ciento porque allí está uniendo el rendimiento de la GPU, de la el motor neural y del resto de componentes, no solo centrándose principalmente en procesos de la propia CPU, ¿vale? Por lo que se estima con los git, con los test que se han ido filtrando, que la diecisiete pro tiene una mejora del diez por ciento aproximadamente en potencia la CPU y un veinte por ciento en total. De hecho, los resultados que está dando la diecisiete Pro, para que se hagan una idea, son casi, casi, casi, casi, casi idénticos al M uno.

    Estaríamos hablando de un chip de móvil que es capaz de llegar a la potencia y velocidad en distintos procesos, a través de pruebas sintéticas, que ya sabemos que, en fin, tienen sus peguitas, ¿vale? Pero en pruebas sintéticas estaríamos hablando de un chip móvil, el INE diecisiete Pro, que se podría equiparar al M uno. Oye, pues no está nada mal, teniendo en cuenta que es un chip de móvil, ojo, no es un chip de escritorio, ¿ok? En fin, por lo tanto, insisto, esto, volviendo al tema, ¿vale? El L3P, permitiría aumentar la densidad de micro transistores en un cuatro por ciento y se espera que esté listo para producción en la segunda mitad de dos mil veinticuatro, por lo que las entregas serían a partir de dos mil veinticinco.

    Esto estaríamos hablando probablemente del proceso de fabricación del futuro M cuatro o del futuro A, ya no A dieciocho, ¿vale? Porque la producción sería a partir de la segunda mitad, estaríamos hablando probablemente de el a diecinueve, ¿vale? Por lo que el a dieciocho estaría fabricado en n tres E, que es el proceso en el que se tenía que haber fabricado el diecisiete si hubiera estado antes ese proceso, que es el proceso de tres nanómetros que usará la gran mayoría de fabricantes y que es el que usará el M tres. El N tres P será para la siguiente generación, y luego tenemos un último proceso ya planificado que estará listo en producción para dos mil veinticinco llamado el N tres X, diseñado para aplicaciones de computación de alto rendimiento y permitiendo que se diseñen CPUs y GPUs que tengan un funcionamiento exponencial más alto comparado con N3E y en el comparado con el proceso N3E, N3X ofrece al menos un cinco por ciento más de velocidad de reloj que el N3P, ¿vale? Por lo tanto, tendríamos ese cambio, ¿de acuerdo?

    Y sin embargo tiene un aumento significativo en la fuga de energía, lo que ha lo que lo hace adecuado para procesadores, ¿vale? Para procesadores de tipo HPC, y entonces preguntarán ustedes, bueno, pero ¿y qué es un procesador HHPC? Pues es un high performance computing, ¿vale? Es un sistema que está diseñado específicamente para tareas de computación de alto rendimiento, tareas que requieren una gran cantidad de cálculos y procesamiento de datos en paralelo, ¿vale? Por lo tanto, los procesadores HPC no es que sean un tipo específico de de procesador, sino más bien una especie de categoría basada en el uso y en la capacidad, por lo que muy probablemente los el proceso de fabricación N tres x solo se usaría para los, ya lo están pensando ustedes, los futuros M cuatro Pro, M cuatro Max y m cuatro Ultra, porque ¿quieren que les cuente una historia muy bonita y muy ilusionante con respecto a este futuro?

    Pues este futuro pinta de una manera curiosa, ¿por qué? Porque hay una cosa maravillosa llamada el M dos Xtreme, que no ha llegado a salir nunca, a que ustedes no lo han visto. Pues bien, ¿saben por qué Apple ha tenido que sacar un Mac Pro que es exactamente igual que un Mac Studio M dos Ultra? Con la única diferencia de que el Mac Pro permite la conexión de dispositivos PCI Express cuatro punto cero, porque tiene los puertos de expansión, pero pero, ¿qué es lo que sucede con esos puertos de expansión? Pues lo que sucede es que estos puertos solo sirven para colocar aceleradoras de vídeo, aceleradoras de audio o almacenamiento externo, pero no permiten conectar GPUs porque los Apple Silicon no tienen drivers para controlar GPUs externas como AMD, Nvidia, etcétera.

    Entonces, claro, la diferencia de precio por la torre, etcétera, es absolutamente brutal, es una vergüenza porque, básicamente, el precio de casi dos m dos ultra Mac Studio es lo que cuesta la torre, por lo que no tiene puñetero sentido. ¿Por qué Apple se ha visto forzada a hacer esto? Pues bien, cuanto menos vende de un producto Apple, más caro tiene que ser ese producto. Esto es uno de los motivos por los que el Mac Pro o el Apple Vision Pro son tan caros, porque cuando hay una como cuando hay una previsión de venta de un producto muy baja, tú lo que no puedes hacer es fabricar cinco millones de productos y empezar a venderlos, no no no no, tú tienes que saber de una manera previa cuántos vas a vender, y en función de cuántos vayas a vender, entonces dices, bueno, pues si tengo una previsión de que voy a vender, yo que sé, cinco millones, pues fabrico dos millones, ¿vale? Para cubrir más o menos el cuarenta por ciento de la de la demanda, y si la cosa veo que se empieza a vender bien y tal, pues ya encargo a producción que haga más, ¿vale?

    Esto es así. De hecho, el año pasado se empezó, ¿vale? Se se corrió el rumor de que en los iPhone catorce plus se estaban dejando de fabricar prácticamente en el momento en el que se estaban empezando a vender y la gente decía, iPhone catorce plus es un fracaso, fíjate Apple, de las necesidades o de las previsiones que tiene de venta, y si cuando el producto sale a la venta, ya prevé y ya tiene datos reales y según sus pues entonces dirá, oiga, deje usted de fabricar, porque si pues entonces dirá, oiga deje usted de fabricar, porque si yo tengo una estimación y tengo en fábrica cinco millones de dispositivos y resulta que en mis estimaciones de aquí a junio del año que viene yo voy a vender esos cinco millones, pues, oiga, paren máquinas, paren, nos nos fabriquen más porque con lo que ya he fabricado tengo suficiente para cubrir la demanda, por eso dejo de fabricar el a nadie y sea un fracaso de ventas, es que hay que intentar entender las cosas, viéndolas en perspectiva y entendiendo cómo funcionan los negocios, ¿de acuerdo? Por lo tanto, tenemos esa esa visión, ¿no? Esa perspectiva.

    Entonces, partiendo de esa base, como los productos que menos se venden, el producto que ahora mismo, el producto que menos vende Apple de todos con diferencia es el Mac Pro. El Mac Pro es lo que menos vende Apple de todo, Por lo tanto, no puede hacer grandes inversiones de I más D en ese producto porque es un producto que casi no se vende, es un producto que está más ahí por la necesidad de estar, por la necesidad de existir, que porque sea un producto que realmente tenga un retorno de inversión, que realmente sea rentable para la empresa. Por lo que esa rentabilidad, como le pasa al Apple Vision Pro, que Apple sabe que va a vender poquísimas y, por lo tanto, está fabricando muy pocas y eso hace que el coste suba y por eso valen tan caras, entre otros muchos motivos, ¿vale? Pues claro, es lo que hay, ¿vale? Entonces, cuando el Mac Pro sale, Apple hace pruebas de intentar crear el M dos Extreme, que es coger dos M dos Ultra y conectarlos en paralelo.

    El m dos Ultra es dos m dos Max con estar conectados en paralelo a través de una conexión que une los dos dais, los dos chips, existen una chip en uno solo, con un puerto de de comunicación que permite el ancho de banda suficiente para que todo pueda funcionar en paralelo, siendo dos chips en paralelo, ¿vale? No uno solo. Pues bien, se probó el M dos Xtreme, pero el M dos Xtreme sobre la construcción de cinco nanómetros plus plus no funcionaba correctamente, se calentaba demasiado, por lo tanto generaba Telmarthrotelling, por lo tanto, aún metiéndolo dentro de la torre del Mac Pro, aquello no había manera de que funcionara bien, y el rendimiento que daba no era ni de coña el esperado, por lo que Apple tuvo que descartar, y al final tuvo que sacar esto con el M dos Ultra. ¿Que hubiera sido mejor no sacarlo, probablemente, pero si tenían cierto tipo de cliente profesional de alto nivel que requería este tipo no solo se use para los m cuatro Pro, no solo se use para los m cuatro Pro Max y Ultra, sino que permita, probablemente incluso podría ser permitido por el n tres e o el n tres p, no lo sé, pero con este n tres x desde luego se podría llegar a ese m cuatro Extreme, que fueran cuatro dais m cuatro max puestos en paralelo y que ya, pues aquello sería como de locos, ¿vale?

    Estaríamos hablando de equipos que podrían llegar a tener, ojito a lo que voy a decir, quinientas doce quinientos doce núcleos de GPU, o sea, estamos locos, o sea, yo creo que con eso te llevas al espacio a toda la flota de todos los países del mundo mundial, ¿vale? O sea, madre mía de mi vida, ¿vale? También, pues en fin, luego alguien se lo comprará para llegar por Safari y jugar al ajedrez del del Mac, ¿no? En fin. Pero bueno, el caso es que, desde luego, Marquis Braulio seguro que se lo pilla.

    Entonces, bueno, pues ese sería un poco el tema, ¿vale? Por lo tanto, después de todo este rollo que me he marcado, creo que ahora pueden llegar a entender qué es realmente el chip a diecisiete pro. El chip a diecisiete pro es un chip que es, bueno, pues en algunas cosas parecido, muy parecido, distinto, otras, en fin, vamos a ver las diferencias. El Apple A dieciséis Bionic, como yo comenté, es un chip, es el primer chip de Apple que utiliza el conjunto de instrucciones ARMV nueve de sesenta y cuatro bits, ¿de acuerdo? Es el primer chip que tiene el conjunto de instrucciones, conjunto ISA, de esas características, ¿vale?

    El a diecisiete Bionic y el A diecisiete Pro, los dos tienen ese mismo conjunto de instrucciones, obviamente. Entonces, los dos tienen seis núcleos de procesamiento, los dos tienen seis hilos, porque el ARM de Apple tiene un hilo de procesamiento por cada núcleo, ¿vale? En el caso de Intel, por ejemplo, los procesadores P, los procesadores las los núcleos de tipo P, que son de potencia, tienen dos threads por cada núcleo, por lo que hay dos hilos de ejecución por cada núcleo. En Apple, para ahorrar energía, es solo un hilo por cada núcleo, siempre ha sido así. Utilizan la arquitectura híbrida o Big Little que permite tener frecuencias de núcleo distintas, por lo que la frecuencia máxima del A dieciséis Bionic es de tres con cuarenta y seis gigahercios, mientras que la diecisiete Pro es de dos con veinte, por lo que tendríamos que la diferencia o la mejora de eficiencia energética provocado por el cambio del proceso de fabricación, aunque no sea igual de eficiente, se lo han comido aumentando la potencia, ¿vale?

    No han hecho porque, repito, si no tocan la potencia y sacan un chip que tenga la misma velocidad de tres con cuarenta y seis gigahercios y dos con cero dos que el Apple A dieciséis Bionic, hubieran conseguido un chip al que la batería le durara un diez por ciento más, al menos en lo que tiene que ver con el consumo del procesador. Pero de pronto llegaría la gente con los Geekbench y diría, ay es que Apple no innova, ay es que fíjate es que el chip no corre, ay de verdad esto es de Apple es ya están hundidos, ay, fíjate. En fin, lo normal, ¿vale? El comportamiento normal de la persona normal estándar dentro de x, en fin, lo estándar. Así que ese sería el problema, ¿vale?

    Faltaría decir, mi, mi, mi, mi, mi, mi, por lo mismo. Entonces, a mí me parece muy triste, ¿vale? Si yo, claro, pero hay que tener conocimiento para entenderlo, ¿vale? Yo entiendo perfectamente que ellos piensen que si el chip va más lento, pues es que es peor, ¿no? ¿Sabes qué?

    Hombre, yo quiero un chip que vaya más rápido, ¿no? Como, ay, que si no es más rápido, no es mejor. Pues esto es un poco lo que pasa en los cines, ¿vale? En los cines hay cines que confunden calidad de sonido con volumen, entonces cuanto más volumen, más calidad de sonido, no perdone usted, cuanto más volumen, más sordo salgo, más distorsiones el sonido, más rompes la frecuencia y más te cargas todo, o sea, ¿qué estás haciendo? ¿Vale?

    Pues igual la gente confunde lo lo que es la potencia de un chip con que sea mejor, pues en fin, no. Entonces, si Apple hubiera sacado un Apple diecisiete Pro a tres con cuarenta y seis gigahercios en los núcleos de alto rendimiento y a dos con cero dos en los de eficiencia energética, hubiera conseguido un chip que hubiera tenido una un beneficio de eficiencia energética para ese chip, pues eso, de un diez, quince por ciento, que es lo que ha tenido a nivel de potencia, pero como no se lo ha dado, pues ya está, pues se lo ha chupado con la potencia para que la gente pueda decir que el chip es más rápido, ¿vale? Que puedan decir y aún así te van a decir, pues hay que ver lo de Apple, que que es que solo es un diez por ciento más rápido, ¿y qué ve? Qué malo, están perdiendo ya la innovación. De verdad, que alguien haga algo.

    Bueno, el caso es que, partiendo de esta base, esa mejora se la han comido en potencia, pero también tenemos que tener en cuenta, como ya hemos dicho antes, que hay una mejora en dos componentes, en el motor neural y en el procesador gráfico. El motor neural ha pasado de ser un motor neural de dieciséis núcleos con capacidad de realizar diecisiete TOPS, ¿vale? Diecisiete A ver, TOPS significa tera operations per second, es decir, operaciones de tera por segundo, la métrica que se utiliza para medir la capacidad de un de procesamiento de un chip especializado, en este caso, en aprendizaje automático, ¿vale? TOPS mide cuántas operaciones de punto flotante o, fin, a veces pueden ser de de operaciones de enteros, pero normalmente se mide por operaciones de punto flotante, que puede realizar un chip por segundo, y lo hacen en el rango de los billones, en el rango de los teras, por lo que cuando yo hablo de diecisiete TOPS, en el contexto de la inteligencia artificial, lo que estamos diciendo es que hace diecisiete billones de operaciones por segundo. Sí, sí, diecisiete billones con b.

    Cuando ven los los vídeos de Apple verá que pone diecisiete trillions, ¿vale? Pero es que volvemos al problema de los Estados Unidos o el problema de Europa con respecto a Estados Unidos, que para nosotros en Europa mil millones, o sea, nosotros sí tenemos los los millardos, ¿de acuerdo? Que es decir, para nosotros lo que para los Estados Unidos es one billion, en realidad son mil millones. Numéricamente los los americanos llaman al billion lo que en realidad es un millardo, que son mil millones, ¿de acuerdo? Por lo que cuando una película te dice no, esta película ha superado el billón de dólares de recaudación, en realidad lo que está diciendo es que ha superado los mil millones de recaudación de dólares.

    Por lo que como estas cifras que da Apple van sobre la no existencia del millardo y de usar los billions como mil millones, tenemos que reducir en tres ceros todo lo que ponen, por lo que no estaríamos hablando de de diecisiete trillones, sino diecisiete billones con b, ¿vale? Sí, puntualización como dura cualquiera. El caso es que el procesador, el motor neural, ¿vale? De los a dieciséis pro, o sea, perdón, los a dieciséis, no pro, de los a dieciséis que tienen los los iPhone catorce pro y catorce pro max, que los tienen solo estos chips, ¿vale? Recordemos que estos chips solamente están en los iPhone catorce Pro y catorce Pro Max, no están en ningún otro lugar, pues tiene, insisto, estos diecisiete billones de operaciones por segundo.

    Pues bien, el a diecisiete pro, pro lo duplica prácticamente. Tenemos treinta y cinco billones de operaciones por segundo, estamos locos en un chip de móvil. ¿Por qué? Porque la GPU tiene un nuevo tiene una nueva función que está unida a esta nueva GPU, porque la GPU de la de la dieciséis Bionic es una GPU no profesional, es una GPU de gama consumo de cinco núcleos, mientras que la GPU de la diecisiete Pro es una GPU de gama profesional, por eso se llama Pro. ¿Por qué es una GPU de gama profesional?

    Porque incluye dos características que son fundamentales. La primera es la aceleración por hardware del cálculo de los ray de lo que es el ray tracing, ¿vale? El rey tracing o trazado de rayos, ¿de acuerdo? Y si ustedes pensaban que se iban a quedar sin saber lo que es el rey tracing, para eso estamos aquí, para eso estamos. Así que, ¿qué es el ray tracing?

    Pues bien, imaginen que estamos en una habitación oscura con una linterna, ¿vale? Si yo enciendo la linterna, la luz ¿qué hace? Que viaja en línea recta hasta que golpea un objeto, y dependiendo del objeto la luz puede o no reflejarse, puede refractarse o incluso puede ser absorbida por ese objeto. El raytracing no es más que una técnica que simula este comportamiento de la luz para crear imágenes digitales, en lugar de en lugar de calcular cómo la luz sale de una fuente, lo que hace es calcular cómo un rayo de luz podría llegar a tu ojo, a lo que es la cámara, después de rebotar o refractarse en varios objetos y, por lo tanto, tener ese, bueno, pues esa conversión en su comportamiento. Esto lo que hace es generar un realismo en la iluminación de las escenas tres d, que permite que todo funcione de una manera, que todo se vea de una manera mucho más realista y que casi ni parezca generado de manera digital, ¿vale?

    El tema es que los procesadores de Apple ya soportaban la lo que es el uso de raytracing, pero el raytracing lo hacían en emulación por software, ¿vale? Todo el proceso de cálculo se realiza utilizando la CPU y, en algunos casos, la GPU, pero sin unas instrucciones específicas dentro de la GPU para raytracing, ¿vale? Como se intenta simular el comportamiento de la luz con lápiz y papel calculando manualmente cada rebote y cada refracción, por lo tanto va a tener mucho más tiempo y esfuerzo, y va a ser más costoso a nivel energético y no va a en el cálculo del ray tracing, pues esto obviamente acelera, pero en el cálculo del ray tracing, pues esto obviamente acelera. Pero si estas instrucciones no están acompañadas de un hardware dedicado, todo se está emulando, ¿vale? Esta es la diferencia.

    El conjunto de instrucciones metal sí tiene instrucciones que ayudan a el cálculo del raytracing, pero luego, para hacer ese cálculo, no tienen un hardware dedicado, por lo que se sigue haciendo, ¿vale? A través de software, por lo que no es la manera más óptima, ¿vale? Como si tuviera una calculadora que te estuviera ayudando para hacer los cálculos de luz en vez de hacerlos con lápiz y papel, ¿vale? Por lo que, lo primero de todo, lo que hubo en los en los los procesadores de Apple antes del A trece, era un reiteraising en emulación por software, donde no hay un conjunto de instrucciones específicas y donde todo se hace calculando con la CPU y, en algunos casos, con instrucciones no dedicadas con la GPU. Cuando llegan los a trece Cuando llegan los a trece, los a trece incorporan raytracing, pero incorporan raytracing en la en la ayuda del cálculo del raytracing, pero para hacer ese cálculo no tienen un hardware dedicado, por lo que están ayudando a ese cálculo, pero no están haciendo ese cálculo como tal, ¿de acuerdo?

    Cuando el raytracing, que es lo que incorpora el A diecisiete Pro, está acelerado por hardware, significa que ya hay circuitos específicos en el chip diseñados para manejar los cálculos del raytracing, como tener una máquina que está específicamente especializada cuando le das todos los detalles de una escena, todo todo. Tú le das la escena y él te lo devuelve ya hecho, ¿vale? Por lo tanto, como el raytracing es un es un elemento que es es computacionalmente muy intensivo, cada rayo de luz puede rebotar muchas veces y cada rebote requiere cálculos, y si intenta hacer hacer esto en tiempo real, como en un videojuego, necesita que sea lo más rápido posible. Por eso Apple nos puso una un juego donde el juego iba a tirones, ¿vale? Porque iba todo con un cálculo no especializado acelerado por hardware, mientras que la Pro sí tiene esa aceleración por hardware que permite que el ray tracing funcione en tiempo real, ya que le dan las escenas ya renderizadas y te devuelve las escenas con las imágenes más realistas, con reflejos, con sombras, con refracciones precisas, etcétera, etcétera, ¿vale?

    Por lo tanto, al incorporar el cálculo en tiempo real de raytracing por hardware, lo que estamos haciendo es permitir que el equipo sea infinitamente más eficiente a nivel de funcionamiento, a nivel de hardware y, sobre todo, de lo que es una técnica de de última generación, ¿vale? Por lo tanto, esta consola tiene de la este última generación, ¿vale? Por lo tanto, estaríamos hablando de esto, ¿vale? Este es el tema de lo que es reite listening y por qué es tan importante a la hora de ponerlo, ¿ok? Entonces, y la otra gran, el otro gran elemento que tienen los nuevas GPUs profesionales, es el tema de los procesos de deep learning para realizar procesos de super sampleo.

    A ver, los iPhones tienen distinta resolución, pero si yo intento hacer que un juego, ¿vale? Esta es la misma técnica que va a utilizar la Nintendo Switch dos, ¿ok? Si yo intento que un juego se renderice a un, aproximadamente, mil cuatrocientos cuarenta p, que vendría a ser más o menos la resolución de un iPhone Pro, de un iPhone Pro o un Pro Max, ¿qué es lo que sucede? Pues que, hombre, cuanto más resolución tenga, más cantidad de gráficos tengo que calcular, más costoso es y, por lo tanto, ya sabemos que cuanta más resolución, menos frames por segundo, más difícil es calcular la escena, etcétera, etcétera, etcétera. Pero ¿qué pasa si yo puedo renderizar todos mis juegos de Apple a setecientos veinte p, ni siquiera mil ochenta?

    A setecientos veinte p. Si yo puedo hacer que mis juegos funcionen a setecientos veinte p, lo más probable es que con la potencia de los iPhone quince Pro y quince Pro Max y el quince y tal, o sea, bueno, en este caso sería Pro y Pro Max con el A diecisiete Pro, lo que estaría consiguiendo es que ese chip a setecientos veinte p en sesenta FPS te va a ir fijo, por lo que tendrías, ¿vale? Para que se hagan una idea, un Apple TV está capado a treinta FPS. Yo no puedo poner un juego en Unity en un Apple TV, un Apple TV con una doce, a más de treinta FPS, porque está acapado porque no es capaz de tirar con más de esto, ¿vale? El de la quince sí, el de la quince ya sí es capaz de ir a sesenta, pero tienes que cambiar la configuración de lo que son los perfiles de Unity en este caso, ¿vale?

    Entonces, cuando yo me llevo el juego a un juego que sea setecientos veinte p, sesenta fps, pues va a funcionar perfecto fluido porque la cantidad de información es mucho menor, pero alguno diría hombre, que poner un juego de setecientos veinte p en una pantalla mil cuatrocientos cuarenta es escalarla al doble, es una locura, es una ver pixelado. Claro, hasta el momento en el que pones la tecnología de super sampling, hasta el momento en el que tienes una tecnología como la que tiene Nvidia llamada DLSS, Dob Deep Learning Super sampling, o la que tiene AMD, que es el FSR, ¿vale? El súper resolution, ¿vale? El el fly no sé qué, súper resolution, ¿vale? Que básicamente lo que hacen son dos técnicas que usan aprendizaje profundo para calcular en tiempo real cómo será el resempleo de una escena de un juego tres d, para hacer que esa escena que está renderizada, pues, en setecientos veinte o en mil ochenta, se vea a mil cuatrocientos cuarenta o a cuatro k, si viene de mil ochenta, con una calidad en el que sea prácticamente inapreciable la diferencia de si estuviera renderizada nativa en cuatro k.

    Pero la diferencia a nivel de procesamiento es una locura la diferencia, por lo que tú, si tú ves un juego a setecientos veinte p escalado a a mil cuatrocientos cuarenta y ves el mismo juego a mil cuatrocientos cuarenta, no te vas a dar cuenta en la noventa por ciento del tiempo de que uno es nativo y el otro no. Sin embargo, tiempo de que uno es nativo y el otro no. Sin embargo, el que no es nativo, mil cuatrocientos cuarenta, al ser a setecientos veinte, va a funcionar infinitamente más eficiente, va a ir mucho más rápido, porque al final ese proceso de reescalado hecho por Deep Learning ni siquiera lo está haciendo la GPU, lo está haciendo el motor neural, por eso tiene treinta y cinco billones con b de operaciones por segundo, para poder soportar esta tecnología de reescalado por super sampleo, ¿vale? Por lo tanto, esto es un cambio, pues que hombre, primero ya era hora que Apple metiera esto y segundo es los juegos de la Switch y diré, joder, qué bien se ve el juego si es el mismo, los juegos de la Switch y diré, joder, qué bien se ve el juego si es el mismo cartucho.

    Claro, porque tendrá esta tecnología y parecerá que el juego de pronto funciona en cuatro k o funciona en mil cuatrocientos cuarenta p, cuando en realidad lo que está haciendo es reescalarlo a través de inteligencia artificial, así de simple. La frecuencia de la, o sea, en este caso la tecnología del chip, ¿vale? Sería de tres nanómetros, el de la diecisiete, no es cuatro, es cinco, ¿vale? Sería cinco de la última generación, lo que pasa que TSMC lo llamó n cuatro p, pero en realidad es de cinco, ¿vale? Tiene un canal simple de memoria, memoria ldpdr d r cinco a seis mil cuatrocientos, ¿vale?

    Ya no es una memoria a menos velocidad, esta memoria tiene la misma velocidad que un chip de escritorio, no obstante, el ancho de banda máximo es de cincuenta y uno con dos gigas, ¿vale? No podemos olvidar que el ancho de banda de un m uno, por ejemplo, era de sesenta y ocho con seis gigas, o el Dellum M uno Pro es de cien gigas, o el de un M dos también es de cien gigas, ¿vale? Un ordenador de escritorio tiene un ancho de banda mayor porque puede pasar más información en el mismo tiempo y, bueno, pues eso también calienta el chip, ¿vale? Por lo tanto, con un ancho de banda de cincuenta y un gigas por segundo va que chuta. Una caché de nivel dos de veinte megas, caché de nivel tres de veinticuatro, esto es exactamente igual, es los dos chips, pero el A dieciséis Pro tiene un TDP, un consumo medio de ocho con cinco watios, y el del A diecisiete Pro ha bajado a siete coma cinco watios, ¿de acuerdo?

    Así que bueno, pues esto es el chip, el chip que tenemos para los iPhone quince Pro y quince Pro Max. Este primer paso en el nodo de tres nanómetros base sobre una construcción, más bien en fase beta, que no es la construcción real, que veremos cómo evoluciona, que creo que esto va a significar que ya no va a haber más lanzamientos durante todo el año, y así entienden bien todo lo que es la información al respecto de este chip. Así que ahora sí, después de esto, hemos terminado, así que poco más. Y poco más, ¿vale? Poco más de verdad, ¿vale?

    Poco más de verdad porque, en fin, ustedes están oyendo un programa de más de cuatro horas, pero la paliza que ha sido a nivel de dialéctica, de exposición, a nivel de intentar ordenar las ideas, que espero haber sido capaz de ordenarlas de la mejor posible, de la mejor manera posible. Sé que habré cometido errores, probablemente algún patinazo mientras he estado hablando, cruzando algún dato en la cabeza, si es así, por favor, perdónenme, porque son demasiados datos y puede que alguno se me haya cruzado o haya, o esté pensando que iba a decir dieciocho y he dicho veinte, o esté pensando que iba a decir TPU y he dicho KPU, vale, cosas así, vale, y estas son cosas que obviamente pues no puedo ponerme a revisar toda la grabación porque entonces no acabaría nunca, ¿vale? Para sacar este programa adelante pues prácticamente he echado pues varios días de investigación desde el mismo día doce de septiembre del evento, a partir del día siguiente, y principalmente una, pues lo que sería todo el fin de semana para poder recopilar la información, procesar la información, entender la información, que es muy importante, porque si yo no la entiendo no puedo explicársela a ustedes, ¿vale?

    Yo soy así, si no entiendo algo yo no se lo puedo explicar a alguien, ¿vale? Por lo tanto, yo tengo primero que entenderlo y, por lo tanto, aplicar mi propia dialéctica a todo esto. Recopilar toda la información, contrastar la información, porque no toda es veraz, porque no toda es TSMC, con la extrapolar toda la información que tiene que ver con TSMC, con la fabricación de los chips, etcétera, etcétera, etcétera. Así que, bueno, pues, si han aguantado hasta aquí, muchísimas, muchísimas, muchísimas gracias por estar ahí sin ustedes, este podcast no estaría cumpliendo su décima temporada. Muchísimas gracias a todos los que nos siguen, a todos los que nos comparten, a todos los que dan likes en todos los lugares de redes sociales.

    Si quieren contactar conmigo, lo tienen muy fácil, pueden hacerlo en mypublic inbox. Ahí tienen todos los enlaces a todos los lugares donde pueden encontrarme e incluso una forma de comunicar directamente. En mypublic inbox punto com, el servicio de Chema Alonso, que la verdad que me parece muy muy interesante. Pues bien, pueden encontrarme en mypublic inbox punto com barra jcf munoz. Ya saben que estamos en x, en arroba jcb munov, estamos en varios lugares, también en LinkedIn, perdón, con LinkedIn, estamos en LinkedIn, ¿qué decir Linkin?

    Bueno, se puede decir Linkedin, así gatitos, gatitos, se puede decir Linkedin, aquí sí es Linkin, stop of favor. Entonces, pues, en fin, ya ven que me patina en la neurona ya a estas horas después de todo lo que llevo dicho. Entonces, bueno, pues, también estoy en Linkedin, en Linkedin punto com barra in barra jc f unoz, donde estoy muy activo, ¿vale? Si hay dos redes donde estoy mucho más activo que lo normal es en LinkedIn y en X, ¿vale? En X, Twitter, antiguo Twitter para los mortales, y ahí pueden encontrarme sin ningún problema.

    Así que poco más, recordarles que, bueno, pues tendremos programas martes y jueves. Tenemos programas Apple Coding Daily que también están en YouTube, pueden seguirnos en YouTube punto com barra arroba Apple Coding, que también grabaremos pronto, probablemente, la próxima semana, un nuevo café Swift con nuestro amigo Arturo Rivas, que lo pueden encontrar tanto en Honda punto com barra café guion Swift con dos f, como también en YouTube, ¿vale? En el canal de Apple Coding Academy, en YouTube punto com barra arroba Accoding Academy. Entonces, ahí tienen toda la información al respecto. Y bueno, pues eso, poco más.

    Muchísimas gracias de verdad, espero que les haya gustado, espero que hayan aprendido y espero sus comentarios, espero que lo compartan y de verdad, les pido de corazón que me echen una mano para poder difundir la palabra de Jobs, que es un poco lo que queremos. Por lo tanto, les pido que, bueno, pues que compartan el episodio, compártanlo con la gente que conozcan, compártanlo con la gente que a las que aprecien y creen que les puede interesar, compártanlo con sus enemigos para joderlos con cuatro horas de programa, no, me lo he dicho mal, perdón. En fin, compártanlo con todo el mundo, muchísimas gracias, y nos oímos pronto si Jobs quiere. Así que hasta entonces, muchísimas, muchísimas, muchísimas gracias desde esta décima temporada de Apple Coding. Nos oímos pronto y hasta entonces un saludo, e go Apple Coding.

    Gracias por escuchar Apple Cody, un podcast perteneciente a la red independiente de podcast Wonda. Suscríbete en Wonda punto com barra Apple guión com, o síguenos en nuestras redes

    Puedes escuchar más episodios de Apple Coding en Wanda punto com. Descubre nuevos podcast en Wanda punto com, la comunidad de podcast independientes en español.

    Episodios recientes