6.212 oyentes
Nos adentramos en el fascinante mundo del aprendizaje automático y la innovación tecnológica, centrándonos en las últimas herramientas desarrolladas por Apple: MLX y AXLearn.
Exploramos cómo estas plataformas están revolucionando el campo del Machine Learning (ML) y Deep Learning (DL), con un enfoque particular en su integración y optimización para el potente hardware de Apple Silicon.
Este episodio es una inmersión profunda en el estado actual y las perspectivas futuras de la tecnología de aprendizaje automático en el ecosistema de Apple.
Profundizamos en MLX, un framework de array para aprendizaje automático diseñado específicamente para el silicio de Apple, destacando sus APIs familiares, su eficiente manejo de la memoria y la capacidad de realizar cálculos de manera perezosa para optimizar la eficiencia.
Luego, cambiamos nuestra atención a AXLearn, una biblioteca construida sobre JAX y XLA, que se especializa en el desarrollo de modelos de aprendizaje profundo a gran escala, abordando los retos de ingeniería de software en el aprendizaje profundo y aprovechando la capacidad de procesamiento distribuido y eficiente.
Convierte en un Senior iOS Developer con el Swift Full Stack Bootcamp. Encuentra toda la información aquí: IV Swift Full Stack Bootcamp 2024.
Descubre nuestro canal de Twitch en: twitch.tv/applecoding.
Descubre nuestras ofertas para oyentes:
---------------
Consigue las camisetas oficiales de Apple Coding con los logos de Swift y Apple Coding así como todo tipo de merchadising como tazas o fundas.
---------------
Tema musical: "For the Win" de "Two Steps from Hell", compuesto por Thomas Bergensen. Usado con permisos de fair use. Escúchalo en Apple Music o Spotify.
Transcripción
Wanda, la comunidad de podcast independientes en español. Hola y bienvenidos a un nuevo episodio de Apple Coding Daily. En muchas ocasiones, cuando hablo del machine learning, de la inteligencia artificial, en el último año, de hecho, literalmente, porque el pasado treinta de noviembre fue cuando la inteligencia artificial explotó y llegó a las grandes masas Con el lanzamiento de ChatGPT, pues, básicamente, cuando hablo de machine learning o inteligencia artificial, Siempre hay alguien que dice, ¿y dónde está Apple? Es que Apple está dormida. En fin.
Tenemos que tener en cuenta que Apple, junto a Meta, junto a Open AI, junto a Google, son Una es una de las empresas que más dinero invierte en inteligencia artificial. Desde hace muchísimos años, principalmente, desde su primer lanzamiento de librería de machine learning en el año dos mil diecisiete con Core ML, pero ya venían trabajando previamente en ello y se ha ido implementando dentro de los sistemas operativos y, además, es una de las empresas que mejor controla, maneja e implementa en sus sistemas todo lo que tiene que ver con el deep learning. Claro, el problema es que desde el treinta de noviembre de dos mil veintidós parece que el deep learning ya no existe, solo existe la IA generativa. Pues bien, Apple, lógicamente, está en ese mercado, como ya hemos comentado en otras ocasiones, y ahora acaba de dar un paso más en esa dirección con el lanzamiento de dos frameworks o librerías que ponen a Apple de nuevo en el punto necesario para todo lo que está por venir el próximo año. Vamos a hablar de ello.
Disculpe, señor Ramírez, Tienes un momento.
Sí, claro. Pasa, pasa, pasa, y cierra. ¿En qué puedo ayudarte?
Vala, es que ella lleva unos años en Esta empresa, pero sigo siendo Junior y me preguntaba, ¿cuándo se reseño?
A ver, Paco, ¿cómo te explico este home? Cesenio, en esta empresa es un sentimiento, es algo que se arraiga en el alma y en tu forma de sentir la vida. No te suerdo,
No será.
Es tener conocimiento para volar más harto.
¿Y cómo vuelo más alto?
Bajito Orión, tú tienes estudio. Sabes que debes conocer, Pase semi. Anda, a ver aquí, toma, Estudiate, mira. Yuai kil, zuel yuan, t del delta, esto de servidores que no sé Que pone papas de agua o algo así, no sé, esto también. Arquitectura, que son muy importantes por aquí, muy importantes.
Seguridad, que no queremos lío, ah, ¿y
¿Tú sabes que es eso de la realidad, aumentando? Sí, eso de los Pokémon, ¿no? Que los cazaba en la calle, ¿no?
Muy bien, Pues Ale, también el Vice un Frog, que no va a venir bien para proyecto y alguien tiene que hacerlo. Estos niños que hay que llevarlos de la manita, es que no me crecen y no me crecen. Ay, qué disgusto.
No, esta no es la empresa ideal, ¿verdad? Pero al menos el señor Ramírez tenía razón en algo, aunque sea de casualidad. El conocimiento es lo que te abrirá las puertas para mejorar en tu carrera profesional, conocimiento y experiencia. ¿Quieres avanzar en tu carrera profesional apostando por el desarrollo móvil en entornos Apple? En Apple Coding Academy tenemos lo que estás buscando.
Presentamos la cuarta edición de nuestro Swift full stack bootcamp, un bootcamp diseñado para convertir a cualquier desarrollador, Sea cual sea la tecnología o lenguaje donde trabaje, en un senior iOS Developer con conocimiento en todo lo que en cualquier empresa o consultora piden, lo que necesitas para montarte por tu cuenta si quieres trabajar por ti mismo. En el Swift full staff bootcamp encontrarás Swift como elemento común a Todo el desarrollo y la formación. A partir de ahí aprenderás concurrencia de procesos, asincronía, arquitectura de proyectos para que ninguna combinación, sea cual sea, se te resista. Todo ello, por supuesto, aprendiendo UIKID y SWIFT UI al completo, cómo aplicar test y una aproximación basada en TDD cien por cien, Seguridad, desarrollo del lado servidor, machine learning y, por supuesto, todo un módulo dedicado al próximo paso en el desarrollo en entornos Apple, Apple Vision Pro y Vision OS, un bootcamp único pensado tanto para desarrolladores en otras tecnologías, junior o senior que quieran reinventarse y dar un cambio en sus vidas hacia el muy demandado sector del desarrollo en entornos Apple, O para aquellos desarrolladores que ya trabajen con Apple pero quieran especializarse y cubrir todas las lagunas que puedan llegar a tener O ponerse al día con las últimas novedades y actualizaciones para iOS diecisiete y el resto de sistemas lanzados por Apple en el año dos mil veintitrés.
Tienes toda la información en nuestra web, acoding punto academy barra bootcamp, y descubre las distintas formas de financiación Hasta en treinta y seis meses o, incluso, en doce meses sin intereses. Nunca ha sido más fácil apostar por invertir en ti mismo para llegar más lejos, da el paso y apuesta por tu formación, apuesta por ti, por ese senior ios developer que llevas dentro y que encontrarás en el Swift food camp book camp de Apple Coding Academy. Está claro que si hablamos de machine learning, hablamos de deep learning, hablamos de funciones que ya estamos acostumbrados a ver en nuestros dispositivos Y que, por lo tanto, hemos, entre comillas, perdido la perspectiva, ¿no? De alguna manera de que eso es inteligencia artificial. Ya estamos acostumbrados a hacer fotos en modo retrato, estamos acostumbrados a cambiar el lo que es el modo retrato y darle mayor o menor campo, menor profundidad de campo, todo eso se hace con un modelo de segmentación, un modelo de deep learning.
Cuando yo entro dentro de mi carrete de fotos en el iPhone, también funciona en Google Photos, obviamente, el resto de servicios de fotografías, Las fotos son reconocidas a nivel de contenido, yo puedo entrar en en mi aplicación de fotos o en Google fotos Y buscar cosas que aparezcan en las fotos. Yo, por ejemplo, sabía que mi hijo tenía una foto cuando era muy pequeño Con una camiseta de Superman y simplemente busqué Superman, y aparecieron todas las fotografías donde aparecía el logo de Superman o la figura de Superman. ¿Por qué? Pues porque todas las imágenes que tenemos en nuestras bibliotecas fotográficas, insisto, tanto en Android como a través de Google Photos, como en Apple están etiquetadas, están etiquetadas a través de machine learning, Igual que el reconocimiento de caras, que es una cosa que Apple tiene de desde hace muchísimos años y que es capaz de distinguir a una persona según va creciendo, yo tengo etiquetado a mi hijo y no lo he tenido que hacer yo, simplemente darle, de vez en cuando decirle ¿quién es? ¿No?
Para que más o menos aprenda las diferencias y es capaz de etiquetarlo en toda su evolución, desde que te era un bebé Hasta ahora que tiene más, tiene dieciséis años, ¿vale? Entonces es capaz de saber qué es él porque ha aprendido por refuerzo lo que es la imagen de la cara de mi hijo y, por lo tanto, es capaz de etiquetarlo en las fotos. Como eso, por ejemplo, las típicas pegatinas, esto Que se viralizó también en el que yo puedo pulsar, ¿no? En una imagen y mandarla como pegatina y ponerla, eso de nuevo es un algoritmo de segmentación basado en nerf. También tengo lo que son redes de radiación neural, entonces, campos de radiación neural, entonces todo eso es IA, IA que está integrada en los sistemas, incluso en la última versión de IOS, el Lo que es el diccionario, el que me permite ir escribiendo de manera predictiva, funciona a través de Transformers, con un modelo Parecido, mucho más pequeño, pero parecido a GPT, ¿vale?
No, insisto, no es GPT, pero es un modelo basado en Transformers para que cuando yo estoy escribiendo, todo el contexto de la conversación pueda ser entendido y pueda Darme predicciones de lo que tengo que escribir en base a toda la conversación que estoy teniendo, ¿vale? O sea, son cosas que, insisto, pasan desapercibidas y parece que ya no existen, parece que lo único que ahora existe es la ya generativa que sea capaz de hablar conmigo de una manera que no habíamos hecho hasta la aparición de GPT Tres, y los modelos de conversación con los cuales, como ya he contado alguna vez, yo ya estoy trabajando desde mucho antes de ChatGPT, a través de la propia API, porque tenías tú que montar el modo conversación, luego ya ChatGPT lo montó y empezó a darle esteroides, a ponerle plugins, etcétera. También todo el tema de la visión computerizada, que permite, que esto es algo que ya se podía hacer, ¿vale? Lo que pasa que ahora, Con mucho más nivel, yo antes podía pasar una foto a través de un modelo de Deep Learning y me decía que había en la foto. Ahora, los modelos de lenguaje, unidos a los modelos de interpretación de imágenes, son capaces de darme descripciones mucho talladas de lo que hay en una imagen, no solo decirme que hay un gato, que hay un perro o que hay un coche rojo, ¿de acuerdo?
Entonces, obviamente, todo esto va evolucionando Y Apple sigue ahí. El problema es que Apple tiene sus tiempos y Apple también, y esto no se puede negar, le ha pillado a pie cambiado. Apple, como el resto de la industria, no estaba preparado para que una compañía como OpenAI, de pronto, reventara el mundo tecnológico y lo cambiara por completo como ellos hicieron en dos mil siete con el lanzamiento del iPhone. Por lo tanto, Apple estaba mirando otro sitio, Y ese es el motivo que lo comenté el otro día en nuestro directo del sábado, por el que Apple Vision Pro ha pasado desapercibida, entre comillas, no ha tenido toda la atención Que a Apple le hubiera gustado, pero obviamente no podían retrasar el lanzamiento porque ellos ya tenían un timeline prefijado, Y lo que no podían prever es que meses antes del lanzamiento de su nuevo dispositivo, que pretende cambiarlo todo nuevamente, como ya lo hizo el iPhone, pues resulta que todo el mundo está, ¿cómo? Mirando para otro lado, están mirando para la guía generativa, por lo que no prestaron atención Ah, el tema de la realidad virtual, la realidad mixta, etcétera, etcétera, porque ahora la gente lo que quiere es hiagenerativa, lo que quiere son modelos de lenguaje, lo que quieres son modelos generativos de imágenes, lo que quieres son modelos de trabajo con vídeo, etcétera, etcétera.
Pero si nos asomamos a todo este mundo en el que la gente puede decir, no, haz que Apple, como he dicho antes, ¿no? Que está durmiendo, ¿no? No, no, Apple no está durmiendo. Apple no va a hacer, como ha hecho, por ejemplo, Meta, o como ha hecho cualquier otra compañía, Apple no va a lanzar productos inacabados, es que, de verdad, miren ustedes todos los modelos de machine, Todo modelo de guía generativa que ha buena que haya ahora mismo, y salvo Midjourney, salvo ChaGPT, salvo Dalí y, últimamente, tampoco es que vaya muy allá. O sea, hay muy pocos productos que realmente podamos clasificar como un producto terminado, pero es que ni siquiera ChatGPT es un producto terminado, porque ChatGPT, como bien sabemos, se equivoca y mucho.
No solo eso, es que te lo pone incluso cuando vas a usar ChatGPT y te dice, oye, que esto puede no ser cien por cien eficiente, ¿por qué? Pues porque ChatGPT es una aleatoriedad que su propósito es construir texto en base a ser coherente gramatical, declamaticalmente y a nivel de contenido, no es una IA inteligente que te contesta y que, oh, Dios mío, hemos descubierto que no, que ChatGPT no es más que un constructor aleatorio, repito, Aleatorio, que lo que hace es rellenar, completar texto en base a lo que ya tiene y, obviamente, como tiene mucho, porque no es que tenga mucho conocimiento, es que ha sido entrenado con muchísima información, pues obviamente es capaz de completarte, pero tú piensas que te está hablando y contando ciertas cosas, pero a ChatGPT Es muy fácil hacerle cambiar de opinión, es muy fácil engañarlo, es muy fácil que tenga lo que se conoce técnicamente como alucinaciones, que son Cosas que no son reales y puedes llegar a convencerlo de que alguien, pues, como hizo Chema Alonso, que lo convenció de que Chema Alonso había la cárcel, cuando no es cierto, etcétera, ¿vale? Y puedes incluso llegar a llegar a engañarlo, engañarlo para que haga cosas que, en principio, no debería de poder hacer.
ChatGPT, como servicio para ser un producto terminado, debería tener Un modelo generativo, o sea, no no generativo, sino un modelo enfrentado como si fuera una Gang, ¿vale? Una regenerativa adversaria que supervisara, que no sé si lo tendrá ahora mismo, pero desde luego no lo tiene al nivel que sería necesario, una regenerativa adversaria que Supervisara todos los resultados que ChaGPT da para evitar que ChaGPT, primero, dé información o hable o cuente de cosas que no debería, por tema ético, moral, sexual, etcétera, y por otro lado, que también haya una, bueno, pues pues una comprobación, ¿no? Yo cuando uso HGPT para buscar información o para documentarme, lo primero que hago, una vez ya tengo toda la información, es hacer, como haría cualquier científico, una verificación por pares, porque no me puedo fiar de lo que me diga Chart GPT porque puede engañarme, ¿vale? Puede, en en En ese completado aleatorio puede ser que me dé información que no sea precisa, que no sea correcta, ¿vale? Y entonces eso me puede provocar un problema.
Así que, Ahora mismo lo que tenemos que entender es que toda la IA generativa son aplicaciones en beta. Yo no ¿puedo con Midjourney generar una imagen y luego generar otra que siga el mismo patrón de la imagen anterior? Si lo consigo, Es casi de chiripa y haciendo mil millones de trucos de todo tipo, ¿por qué? Porque el producto en sí lo que hace es generar imágenes aleatorias, ¿vale? Por lo tanto, esto es lo que tenemos, y esto obviamente también le pasará a Apple cuando saque sus modelos, pero claro, Apple tiene que tener un producto acabado.
Yo cuando alguien me dice, no, es que Apple está durmiendo, bueno, y y Google no lo está, porque Google, ¿qué ha sacado? Bart, que funciona mil quinientos millones de veces peor, es que yo creo que no podríamos llamarlo ni siquiera versión preview, ni siquiera versión alfa de lo mal que va Google Bart, o el propio llama al modelo de meta, que sí, que puedes hacer cosas, pero igualmente está a mucha distancia de lo que es Chart GPT, porque OpenAI está a mucha distancia del resto de la competencia, ¿vale? Entonces, plantada esta semilla a nivel de opinión, Lo que queremos contar hoy es cómo Apple sigue trabajando, pero sigue trabajando en sus tiempos concretos, Y sus tiempos concretos son en los que ellos deciden cuándo van a sacar algo que sea lo más parecido a un producto Tatado, no todo el mundo puede usar ChatGPT, porque para usar ChatGPT tienes que, uno, saber que tienes que Hacer verificación por pares de cierta información, y dos, que es lo más importante, ser capaz de expresarte para que ChatGPT te dé las cosas. ChatGPT no se puede usar, lo hemos dicho mil veces, no se puede usar como si fuera Google, no es un buscador.
ChatGPT es como un becario que sabe un montón de cosas, pero que le tienes que dar todas las instrucciones de una manera absolutamente precisa, y si no, no te va a dar el contenido que tú quieres. Con ChatGPT podemos hacer, literalmente, milagros. Yo el otro día, tratando información con un JSON A partir de un CSV conseguí una transformación de un fichero de cerca de noventa megas de fliparlo, pero tuve que darle un detalle en el que cada petición era, como mínimo, de quince líneas de descripción de todo lo que tenía que hacer paso por paso, para que me fuera dando la solución paso por paso en el procesamiento de los archivos que yo le iba dando. Por lo tanto, sí, podemos hacer cosas increíbles. Yo, en media hora, fui capaz de hacer algo que normalmente me hubiera llevado Tantos días que ni siquiera habría intentado hacerlo, ¿de acuerdo?
Pero hay que saber, y no todo el mundo, volvemos a lo mismo, Los modelos de IA generativa, ¿quiénes quién era capaz de generar imágenes con IA generativa antes de que Dalí pusiera, Dalí integrado en ChatGPT pusiera un nivel más fácil de entrada en el que los proms los genera el propio GPT. Pues muy poca gente, porque había que hacerlo en inglés, porque había que ser muy preciso, porque había que saber construir los proms, había que ser el famoso Prome Engineer no estaba a la altura de cualquiera, ¿de acuerdo? Lo que Apple está haciendo con lo que Apple está trabajando es intentando que la idea generativa Llegue al máximo número posible de personas, que cualquier persona, desde mi hija, mi suegra, mi madre, la abuela de tu tía o tu tía Clarita, sean capaces de usar la I degenerativa de una manera que sea totalmente, pues eso, producto Apple intuitiva, fácil, que no tengan que tener ningún tipo de conocimiento técnico, etcétera, ¿vale? Ese es el objetivo. Con ese objetivo, Apple acaba de lanzar dos librerías que Lo ponen a la capacidad a nivel de herramientas con todo lo que es Apple Silicon para poder trabajar de una manera mejor.
La primera de ellas es una librería llamada MLX. MLX es una librería que es un framework para machine learning Desarrollado por Apple y que está, de alguna manera, intentando proporcionar una forma de que Todos los desarrollos que al día de hoy se hacen, basados en frameworks como PyTorch, como NumPy, como o TensorFlow, etcétera, puedan ser ejecutados de manera nativa dentro de Apple Silicon. MLX es un framework que está centrado en lo que sería el entrenamiento y el despliegue de los distintos de las distintas librerías y, de hecho, tenemos una serie de ejemplos que directamente nos permiten ejecutar los modelos de Llama, que es el modelo de lenguaje de Meta, nos permite ejecutar Stable Diffusion, nos permite ejecutar Whisper, nos permite ejecutar varios modelos que son tanto de lenguaje, como de generación de imágenes, como de, En fin, hay varios ejemplos que directamente podemos utilizar con muy pocas líneas y que nos permiten ver cómo Estos entrenamientos, o cómo estas generaciones, corren directamente, y esto es lo más importante, en el hardware de Apple Silicon, porque Este este MLX tiene una API muy familiar para todo aquel que ya esté trabajado, esté acostumbrado a trabajar con NumPay, Con lo que es la librería de de gestión de cálculos de arrays, etcétera, de Python, y que sigue la forma en la que están construidos frameworks como PyTorch de Meta para lo que es todo el trabajo con machine learning.
Lo que hace es permitir, a través de ejecución nativa en Apple Silicon, de transformaciones de funciones componibles, de computación de tipo perezoso para que solamente Se ejecuten los cálculos computacionales cuando son invocados, la construcción de grafos dinámicos, la ejecución multidispositivo o, y esto Es muy importante el uso de lo que es la arquitectura de memoria unificada, que es lo que caracteriza a Apple Silicon, de forma que así nos permite una forma mucho más práctica de poder hacer entrenamientos de machine learning con cualquiera de los modelos, porque eso es un poco el objetivo, que yo pueda tener modelos generales hechos en Python, en TensorFlow, que utilizan Numpai, etcétera, y que podamos coger esos modelos y, de una manera muy simple, con muy poco código, Podamos adaptarlos para que se puedan entrenar con toda la aceleración por hardware que tiene Apple a nivel de los metal performance shaders, que serían los Aceleradores de cálculo computacional que tienen las GPUs de Apple Silicon y la ejecución por lo que sería la inferencia de modelos A través de los motores neurales, por lo tanto, aprovecha el cien por cien del hardware que Apple tiene en los chips Apple Silicon para poder realizar todo tipo de Trabajo de programación científica y de investigación en los campos del deep learning y todo lo que es, pues, cálculo computacional, ¿de acuerdo?
Entonces, de esa manera, ya podremos trabajar con Apple de manera nativa, con modelos que no tengan por qué estar desarrollados para entornos Apple, pero que aún así sean muy fáciles de implementar, ejecutar y no tener que hacer ningún tipo de transformación extraña, porque sigue los patrones de, insisto, Acción extraña porque sigue los patrones de, insisto, otras librerías a nivel de cómo está desarrollado, como PyTorch, NumPy, etcétera, por lo que La transformación para poder adaptar este framework de a raíz de cálculo computacional es muy sencillo. Apple también ha lanzado la librería AX Learn, una librería construida sobre las librerías JAX y XLA. JAX es una librería que amplía el uso de la librería Numpai y que está destinado a operaciones de álgebra de alto nivel para modelos de gran escala, y XLA es un compilador que forma parte de, está creado por Google, forma parte de TensorFlow, pero puede usarse aparte y que permite, pues, el uso de compilación y cálculo lo paralizado de todo lo que se hace con Jacques, etcétera, para el cálculo para la creación de modelos de gran escala. Modelos grandes, ¿qué es un modelo grande? Pues un modelo grande es GPT, un modelo grande es Dalí, un modelo grande es cualquier modelo de gran escala que permite, pues, un entrenamiento a alto nivel Y que ahora, gracias a esta librería AX Learn, también pueden ser entrenados de manera local y pueden ser ejecutados de manera local dentro de Apple Silicon.
Esto es una cosa que también es muy muy interesante, muy importante, y que, digamos, que Pone el foco de una manera muy clara en que el objetivo de Apple no es la nube, ya saben que es la Diferenciación que Apple quiere y la diferenciación que Apple, de alguna manera, quiere tener con el resto de la industria, mientras el resto de la industria, Open AI, Microsoft, Meta, etcétera, intentan que todo se ejecute en la nube para quedarse con nuestros datos, Apple lo que quiere es que todo esto se ejecute en local, que todos estos modelos puedan ser trabajados por cualquier tipo de científico de computación que quiere utilizar estas herramientas y que pueda hacerlo todo de manera local en su máquina, aprovechando los equipos Ultra, los equipos Macs, etcétera, etcétera, ¿vale? Para poder tener una forma mejor de trabajar Y no tener que depender de alquilar una nube, de cogerle servidores a Azure o Amazon Web Service o a Google Cloud, etcétera, ¿vale? Ese es el objetivo, que toda la gente que quiera trabajar con machine learning y con todo este tipo de entrenamientos de modelos, etcétera, etcétera, tenga las herramientas para poder, entre ellos la propia Apple, que está haciendo públicas estas librerías porque las dos Son de código abierto, ¿de acuerdo?
Pues estas librerías permitan que cualquier científico de computación, cualquier persona que desarrolle deep learning, Cualquier persona que esté interesada en en trabajar o ejecutar estos nuevos modelos generativos que hay en él lo que es el la propia Internet y que han revolucionado todo el tema de Laia, puedan también ser entrenados, ejecutados, trabajados, desarrollados dentro del hardware de Apple Silicon. Por lo tanto, como podemos ver, Apple no está dormida, simplemente que Apple tiene sus tiempos, y Apple, obviamente, todo esto que está haciendo Tiene un objetivo, que es lanzar un producto final, un producto usable, no un producto a medias, como el noventa Cinco por ciento de todo lo que hoy día se lanza en el mundo del machine learning, que yo veo cosas, flipas, dice, qué maravilla, Luego entras y aquello no es utilizable ni de coña, no sirve para nada, más allá que el meme De turno porque no es un producto acabado, es un producto en fase de desarrollo, y esto es la realidad, pero además es que es normal. Todos los productos necesitan una una fase, el problema es que esas fases de desarrollo, la el resto de compañías las hacen públicas y las lanzan como si fueran productos ya terminados y la gente va y paga por utilizarlos, pero en realidad no son productos terminados, son productos que están en desarrollo y que nosotros estamos utilizando, pues como los juegos de Steam que no están terminados y que yo pago por el early access para empezar a jugar, aunque sé que el juego puede tener errores y con eso soy un beta tester más, e incluso pago por ello, pues esto es lo que estamos haciendo todos con el noventa y cinco por ciento de todos los todas las herramientas de IA que hay ahora mismo en el mercado, que muchas, la gran mayoría, no son prácticas o para obtener un resultado práctico tengo que intentarlo varias veces o tengo que modificar el resultado que me han dado, porque lo que me dan directamente no me sirve, no son herramientas como podría ser un Word, un Keynote, un Numbers, un un Excel, un lo que sea, herramientas de Resultado final, ¿vale?
Estas no lo son, ¿ok? Por lo tanto, pues bueno, aunque las estén integrando, Hay ciertas herramientas que sí lo tienen muy bien integrado todos estos temas, pero hay otras que no. Por lo tanto, insisto, hay como un cinco, diez por ciento de herramientas que sí funcionan, cosas, pues, que ha incluido Da Vinci Resolve, cosas que están dentro de Photoshop, cosas que están dentro de, en fin, ciertas herramientas que sí tienen Un uso final, pero la mayoría están en fase de desarrollo, y eso es lo que Apple no hace. Apple no saca cosas, En ese plan no saca productos finales, si saca librerías como estas o, como ya sacó en su momento y anunció, El lanzamiento de Matrioska Diffusion Models, del que hablamos en un programa que os dejo por aquí, si queréis verlo, que es el modelo generativo de imágenes de la propia Apple, que consigue una forma muy interesante de mejorar los modelos generativos de imágenes tipo Stable Diffusion, Dalí, etcétera, y que es de la propia Apple y que estará integrado en los sistemas de Apple a partir de verano de el próximo dos mil veinticuatro. Así que ese es el tema, Apple no está dormida.
Por favor, dejemos de decir esta estupidez. Apple está trabajando, y cuando terminen los trabajos los iremos viendo. Nada más. Y poco más. Esto, pues, básicamente, Yo lo que pretendo, de alguna manera, es visibilizar, que esa es mi función como evangelista, visibilizar el trabajo que, en este Caso está haciendo Apple para que veamos de una manera clara con pruebas empíricas que Apple no está parado, que Apple no está viendo pasar por la puerta de su casa mucha y degenerativa, y ellos ¿No pasar por la puerta de su casa a mucha y a generativa y ellos están a huevas y a pipas?
No, ellos están trabajando en lo que ya están trabajando, que es Pro, los nuevos sistemas, etcétera, etcétera, pero son muy conscientes de este cambio, como ya hablamos en su momento con todo lo que era Ajax, etcétera. Vienen trabajando prácticamente desde antes del lanzamiento de ChatGPT, desde otoño del año dos mil veintidós, Y después de un año y medio de trabajo intensivo, en el que se han visto pequeñas cosas como lo que hemos contado hoy, Finalmente, tendremos un cambio que Apple ya ha dicho de manera pública, que será el cambio más importante que ha habido en los sistemas operativos a nivel de manejo de usuario En toda la historia de Apple. Esperemos que esto no sea mucho hype y luego se quede en nada y realmente sea así y veamos algo Muy importante como producto final integrado en los sistemas operativos que nos permita, respetando nuestra privacidad y respetando Toda información, ser mucho más productivos con todas estas nuevas herramientas que nos permitan trabajar de una manera mucho más fiable Y, sobre todo, de una manera mucho más productiva. Poco más, si les ha gustado, por favor, suscríbanse, déjennos un like, si están en YouTube, etcétera, O algún comentario en x como arroba j c fimo note, ya saben que pueden nombrarnos, y nos oímos pronto si dios quiere.
Hasta entonces, un saludo Y Google, Apple Code. Puedes escuchar más episodios de Apple Coding en Wanda punto com, la comunidad de podcast independientes en español.