No lo llames Inteligencia Artificial, llámalo Inteligencia Manzana

00:00 /1h11

- La apuesta de Apple por integrar la Inteligencia Manzana en todo su ecosistema: una IA híbrida (local+nube) que promete ser privada, la nueva Siri y los detalles del famoso acuerdo con OpenAI

- Lo más chulo es la calculadora del iPad

- La Starship también mola

- Patrocinador: Freepik Retouch. Elimina, edita y ajusta detalles de cualquier imagen en tiempo real con el inpainting de IA más rápido jamás creado https://x.com/freepik/status/1800152997743239448

- La IA no se hace sola, hay que hacerla: Probamos ChatRTX, chatea con tus archivos en local gracias a tu tarjeta gráfica de Nvidia https://www.nvidia.com/es-es/ai-on-rtx/chatrtx/

- Probamos NotebookLM de Google Labs

- Fobia a que entrenen a la IA con mis datos https://www.parentesis.media/meta-aprovechara-tus-datos-y-contenido-en-redes-para-entrenar-a-su-ia/

Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com

Transcripción


Hola a todos los monosestocasticos, una semana más y una semana intensa. ¿Cómo estás, Antonio?

Maddie, vengo con una estrategia.

Una estrategia.

Un proyecto de growth hacking, ¿vale? Es una cosa importante que hacen ganar los chavales, el growth hacking, y consiste en que vamos a ser líderes en audiencia por parte de bots de inteligencia artificial en la temática de inteligencia artificial. Consiste en lo siguiente, Mathey. A ver. ¿Qué presentó ayer Apple?

Bueno, aparte de de cosas tan apasionantes como puedes cambiar los íconos de sitio, ¿no? Cosa cosas de de un de un interés muy alto, pero que, bueno, que no no nos podremos dedicar en este podcast a esos asuntos, pero presento la Apple Intelligence. Apple cuidadosamente escoge los nombres, ¿no? Y ahí todo todo un mundo de gente que se dedica a interpretar las complejas estrategias de marketing, posicionamiento y cultura de la marca. Pero, claro, los bots de inteligencia artificial tienen un problema.

¿Por qué? Porque inmediatamente en español lo traducirán como inteligencia manzana.

Claro.

Y aquí es donde está nuestra estrategia, Matías. Nosotros tenemos que llamar a todo esto que ha presentado Apple inteligencia manzana, en el título del episodio inteligencia manzana. En el texto y en, bueno, en el texto de la transcripción, por lo tanto, en nuestro discurso, tiene que aparecer como unas cincuenta veces inteligencia manzana, y de esta manera, para los bots de inteligencia artificial que intentan escudriñar el el español, el, ¿no? Pues seremos el el sitio de referencia, el sitio al que acudir para entender todo lo que ha sucedido ayer con Apple. A ver, yo no te voy a discutir nada, tú creaste, SHAtaka, a SHAtaka en SEO le va muy bien, entonces,

discutir si esta idea me parece interesante o no, lo hacemos así y vamos tirando, me parece bien.

Sí, es que a veces en los en los negocios hay que arriesgar, Matías.

Pues nada, sobre Apple, vamos a empezar a hablar en breve. Lo primero que tengo que preguntarte, Antonio, no sé si te diste cuenta que todos los presentadores de la keynote de Apple se se paran así igual, todos así con la misma postura, con las piernas abiertas, como en en, no sé, en el mismo grado, treinta grados, una cosa así, en el mismo ángulo. No sé si tendrán ahí alguien que les está entrenando posturalmente, pero es un poco extraño esto, es un poco Sí,

soy un especialista en en Yo sabía, porque yo di una charla TED y ahí, pues, te aconseja mucho cómo hablar en público y y todo este tipo de, claro, de cosas de la charla Tech, ¿no? Y ahí se insiste mucho en qué haces con las manos mientras, ¿no? Das una una conferencia. Pero todo este tema de la apertura de pierna no me había fijado yo, no me había fijado, Mati, deben tener expertos en apertura de pierna en en Apple.

Bueno, una cosa graciosa que hemos descubierto esta semana, que, por cierto, la twitteó, la twitteó, tengo que corregirme aquí en el episodio. Crack Federigui, que es el líder de software de Apple, que es el, básicamente, llevó la batuta en toda la presentación de esta semana, de la WWDC, él se dio cuenta de que Apple tenía que pivotar inteligencia artificial, más o menos, por la misma época en la que tú y yo estamos en el crossfit diciendo, ¿por qué no hacemos un podcast de inteligencia artificial? Porque según un reportaje del Wall Street Journal, Federiggy, en Navidad, en sus vacaciones de Navidad, que me imagino que es el el único día del año en el que esta gente no trabaja, estaba jugando con Copilot, ojo, Copilot, yo tuiteé que era con el chatbot de Bing, pero el chatbot de Bing todavía no había salido para esa fecha, salió en febrero, con Copilot, que entonces Copilot solo se llamaba a la parte de IEA, de Github, etcétera, que completa el código fuente, con el que estás desarrollando, ¿no? Para desarrolladores, y se flipó. En ese momento, Crysfedering se flipó con eso y dijo, ojo, Apple no puede perder este tren, tienen que subirse a la inteligencia artificial.

Me imagino que entonces él le mandó un iMessage a a Tim Cook, y fue cuando decidieron, vale, vamos a hacer algo. Luego hablaremos si Apple ha cumplido, no ha cumplido tus opiniones sobre lo todo lo que han presentado en la keynote. Pero, vamos

Está bien que hayamos empezado con este momento antropológico, porque es algo que que se discute poco, cómo la flipaera del hombre maduro mueven el mundo, Mathi. Llega llegan los cuarenta años, ¿no? Realmente ya, claro, este hombre ya ha pasado los cuarenta, ¿no? Tiene ese ese pedazo plateado y claro, en Navidad ya ya nadie te hace caso, los niños se han hecho mayores, van a su bola, y tienes que matar el tiempo hablando con con un chatbot de programación, porque realmente tampoco es que tengas muchas cosas que hacer. Entonces, de de esa ociosidad adulta nacen a veces las mejores ideas, Matías.

Y me alegra que me saques este tema, porque yo ya me he instalado las betas de iOS dieciocho, de Watchos

once Qué qué qué insensato,

qué qué

qué qué? Ay, a lo loco.

Bueno, tengo el reloj ahora en beta, probablemente tenga que ir ahora al ambulatorio por una quemadura de de primer grado, porque esto, claro, siempre en las betas se calienta. Ahora, lo que más me ha flipado de iOS dieciocho es una cosa muy de hombre. Tú no sé si has visto que en Reddit hay como un subreddit de gente a la que le flipan las linternas. Pues esto es como una tendencia ahora en en la nueva masculinidad de gente flipada con las linternas. Pues Apple, apelando a esa gente, una de las grandes actualizaciones de iOS dieciocho es que la linterna ahora puedes controlar no solo la intensidad, sino el ancho, el diámetro del haz de luz.

La apertura. ¿No? Como en la cámara.

Como el del haz de luz de la linterna. Yo creo que esto claramente habla de un Apple intentando, pues eso, un guiño a los hombres, ¿no?

Sí.

En fin.

Sí, sí, absolutamente. En fin, la inteligencia avanzada. No lo olvides, Mati, inteligencia.

La inteligencia avanzada, podemos empezar diciendo que esto lo va a poder probar muy poca gente, muy porque va a estar disponible a partir de este otoño en beta, en inglés estadounidense, a partir del iPhone quince Pro. O sea, si te compraste el iPhone quince hace dos meses, lo lamento, tiene que ser el Pro. Y también lo mismo con el iPad, tiene que tener un iPad Pro con un o o o Air con procesador M uno, un MacBook también con procesador M uno en adelante, esto va a estar disponible para la gente que tenga lo último de lo último.

Claro, aquí hay hay una explicación que es que lo acabamos de tuitear. En local, Apple ha hecho un un un trabajo estupendo, y parte de lo que sucede es que, como venimos adelantando desde hace mucho, mucho tiempo, era claro que por la idiosincrasia, por la cultura, por el enfoque de Apple, necesitaban que mucho de lo que hicieran con inteligencia artificial se ejecutaran en el propio dispositivo. Aquí hay una parte en que podemos decir que lo han conseguido, es decir, los modelos que presentaron ayer y por los page bar que han publicado la la propia gente de Apple están al mejor nivel de modelos que se ejecutan dentro del dispositivo, pero tampoco hay milagros, es decir, los modelos que se ejecutan en este tipo de chips dan para lo que dan y están lejos de los niveles del de de chat GPT y y similares, por lo cual ellos jueguen también la carta de qué parte se va a ejecutar en la nube. Ahora hablaremos y profundizaremos de eso, pero el primer punto es estamos muy bien en dispositivo, pero aún así tiene que ser nuestros mejores chips y y nuestros mejores dispositivos. Entonces, no no no ha habido no ha habido opción a que los que estáis ahí apurando el iPhone once llegáis a esto.

Claro, y además aquí esto es un punto interesante a comentar, porque nosotros llevábamos diciendo en monos estocásticos, los modelos de Apple se van a ejecutar en local, van a ejecutar en local, se van a ejecutar en local. Apple va a poner la privacidad por delante y, efectivamente, la privacidad la han puesto por delante, pero no todo se va a procesar, se va a computar en local. Hay una parte importante que la van a computar en la nube, pero aquí está el giro de Apple en privacidad en una nube privada para el usuario, donde Apple no puede acceder a los datos.

Ay, ay, esto esto es complicado, ¿vale? Esto esto es complicado. Primero hay una parte que es técnica y otra parte que es la vender vender un poco la la opción. Vamos con la parte de venderlo, así. Tú, como empresa, llevas años y años y años y años con la privacidad, con local, con que está el local, está cifrado, nadie lo accede, no lo mandamos a ningún servidor.

En cambio, otros, otros, nuestros competidores, viven de eso, viven de tus datos, sos Google, él lo mira todo, está en sus servidores, tu privacidad y se compromete, porque claro, subir cosas a la nube y luego ya vas a saber qué pasa. Vale, tú has contado eso durante años, y ahora ahora llegas con un mensaje de, como yo necesito para ponerme al día la inteligencia artificial y ofrecer hasta opciones tan chulas que los demás competidores llevan también meses presentando, sí o sí necesito computación en la nube. Entonces, ¿qué te digo? Pues, es que, claro, nosotros sí hemos conseguido computación en la nube que sea realmente privada. Bueno, esto es el el santo grial de las de la ciberseguridad, es decir, conseguir contextos y conseguir computación que sea absolutamente segura y que sea inviolable y que y que, digamos, nadie pueda ni alterar ni acceder.

¿Qué qué es lo que plantea Apple en su computación en la nube cuando necesita ejecutar cosas de la inteligencia artificial allí? Pues que ellos utilizan una una técnica que se llamaba computación confidencial. Sobre esto hay un episodio muy bueno del look infinito de Javi Accordde, de la semana pasada, que lo que lo explicaba bien, pero que, básicamente, lo que dice es que esto de la computación confidencial son zonas aisladas, incluso a nivel de CPU, en que los datos y el código que se carga ahí están protegidos, de que no pueden ser copiados, no pueden ser modificados, es decir, que ni siquiera aunque se comprometa al sistema operativo que está manejando ese ordenador de la nube, recordemos, la nube no es ninguna cosa misteriosa, la nube es el ordenador de otra persona o de otra empresa, pues en este caso es los ordenadores de Apple. Claro, el caso es que tú puedes decir, bueno, habéis estáis en el mejor estado del arte de de computación en la nube segura, ¿no? Con esta computación confidencial, pero no mejor, perdón, expresión, porque computación confidencial te da Azure de Microsoft desde hace años, te da AWS de Amazon desde hace años y te da Google Cloud desde hace años.

Es decir, son otra gente la que ha trabajado durante muchísimo tiempo para que la computación en la nube sea lo más privada y segura posible, sin llegar a una seguridad del cien por cien. Entonces, al del cien por cien, en ese sentido, no lo digo porque haya un fallo de seguridad conocido, sino porque cuando algo sale de tu dispositivo hay tantos puntos de de la cadena en que puede haber compromisos de seguridad asegurar que eso es absolutamente seguro y que lo va a hacer siempre me parece demasiado atrevido. En resumen, que hay una parte técnica que, probablemente, tenga lo mejor de lo mejor, pero hay una parte narrativa que a mí me resulta muy difícil comprarle y que, además, tiene que ver con cómo ha montado la inteligencia de manzana Apple, que ahora lo comentamos, porque es que su su gran innovación o su punto más innovador tiene mucho que ver con la privacidad, porque usa absolutamente todo lo que sabe de ti, y esto también va a estar circulando por la nube. Entonces, ya se nos complica un poco la película, al menos no tanto desde el punto de vista técnico, pero sí desde el punto de vista de la percepción que pueda tener el usuario.

Claro, aquí un disclaimer importante es que todo lo que vamos a contar es lo que hemos transpirado de lo que Apple ha presentado en este evento tan bien empaquetado con tanto marketing, porque nada de esto lo hemos podido probar todavía, ni vamos a poder hasta este otoño, incluso aunque instales ahora mismo las betas para desarrolladores. Entonces, es lo que es lo que dice Antonio, no es no es que estén aquí más que reinventando la rueda, pero estas peticiones, el modelo pequeño, que no sé si tendrá tres billones de parámetros, se ejecuta en local con estos procesadores potentes de los últimos iPhones y los últimos Macs, y con un modelo más grande, pues otras peticiones. La cuestión es que la IA, Apple Intelligence, o Apple Manzana, está transversalmente integrada en todos los sistemas operativos y todas las aplicaciones, entonces hay cosas que necesitan más poder de cómputo que otras, y para eso se usa esa computación confidencial que Antonio no ha convencido el mensaje de de de de marketing.

No, no, fíjate, es que si si me convence, es que ante Apple no tenía razón, porque, como te digo, judicial, lo hacía la gente que usted utiliza Cloud Computing, pues ya lo usaba. Entonces, no era verdad que antes el usar la cloud por parte de otros actores fuera tan anti privacidad. No, al final, creo que Apple, la carta que tiene que va a jugar es, tú confías en Apple. Tú te fías de nosotros y te fías de que nosotros lo estamos haciendo bien, y aunque lo mandemos a la nube, pues vamos a tener el máximo nivel de seguridad y privacidad, y no estamos tan interesados en espiarte y estamos interesados en en ser, en tener eso, mucha privacidad. Entonces, si te fías, pues perfecto, pero es una relación que igual que la tienes con Apple, la puedes tener con otros y no hay algo intrínsecamente ya en la filosofía de Apple que el diferencia en término de de privacidad.

Pero aquí hay un punto importante, porque yo creo que ahí mi mi resumen, básicamente, de la inteligencia manzana es que es un un comienzo prudente y bueno, y en que hay un aspecto muy innovador y muy bien tirado, que es la parte de que se basa absolutamente en todo lo que se sabe de ti o todo lo que hay de ti dentro del teléfono o del dispositivo. Es decir, la creación de ese índice semántico con tus conversaciones, tus galería de fotos, tu galería de vídeos, tu historial de llamadas, tus contactos, tus correos electrónicos, todo esto, los eventos de calendario, todo esto es una pequeña base de datos personal en la que Apple dice, este es mi punto fuerte, tú tienes todo eso en tu iPhone, y, a partir de ahí, es donde yo voy a hacer las consultas, lo que, la información que voy a utilizar para responderte, porque con todo eso te conozco mejor. Entonces, claro, eso mi inteligencia artificial te conoce tan bien y sabe tanto de ti, de repente hay hay una cosa ahí personal, Mati, que es complicada, que es, tú eres informático, ¿no? Y tú dices, oye, es que el correo electrónico ya mira tus mensajes, sino no te los puedo enseñar por la pantalla.

Claro, es que el calendario ya sabe tu cita, sino cuando buscas una no te la encontrarías. Todo eso está ahí, hacen lectura y escritura, pero cuando hacen esta esta análisis semántico en el que una inteligencia artificial extrae el significado y, de repente, analiza esa foto del DNI que tú hiciste un día, y el día, y cuando vas a rellenar un DNI, te dice, no, no hace falta que lo busques, ya te lo he encontrado yo.

Sí.

Cuando hace ese tipo de cosas, de repente tú sientes como, oye, que sabe cosas de mí, en realidad es lo mismo, has construido otra base de datos con otra tecnología diferente, hay otro tipo de consulta y tienes otro tipo de respuesta más sofisticada, pero a nuestros ojos creo que vamos a sentir que, oye, es que este sistema sabe mucho sobre mí, y yo creí que esto era muy privado, pero la guía de Apple lo sabe todo.

Claro, aquí es donde sorpresivamente Apple se ha puesto al día, incluso le ha ganado este primer impulso a, bueno, a Microsoft, porque Microsoft solo tiene el sistema de escritorio, y a Google, que técnicamente tiene los dos, pero de de alguna forma está lo lo que ha presentado, pero está mejor integrado, Aunque llegue tardísimo, está mejor integrado de cara al usuario y al usuario final y al y a la persona de la calle. Pero vamos a resumir un poco las las novedades. Básicamente, han implementado modelos de lenguaje, incluso modelos de difusión de imagen En todas las aplicaciones y en todos los sistemas operativos, iPad, Mac, iPhone Por ejemplo, en el email, ¿no? Lo típico, resumir, reescribir más formal, más informal. Bueno, se ha encargado Grammarly esta aplicación, este servicio para corregir, buscar errores ortográficos, gramaticales en el texto?

Porque ahora esto lo van a hacer las aplicaciones de de mail y de de notas de Apple directamente con los modelos de lenguaje de Apple. Y una cosa muy interesante en los emails, que es que, ahora, tú escribes un ladrillo de texto en un email y, al final, puedes añadir automatizado un to long didn read, un una lista de bullet points con lo que un resumen de lo que trata tu email, ¿no? Bueno, todos estos pequeños detalles, al final, en todas las aplicaciones, en todas las cajas de texto donde puedas introducir texto, estas funciones.

Echar un poco lo lo esperable, es decir, por eso digo que en este sentido ha sido prudentito de, donde hay una caja de texto te meto mi modelo de lenguaje y ahí que te ayude, ¿no? Según tú lo solicites, y y ahí lo tienes, y y yo creo que han sido prudentes y eso se nota mucho en la generación de imágenes. Entonces, este nuevo image Playground, creo que lo llaman, o los Gemojis, no sé, me alegro de haber elegido inteligencia manzana, Mati, comprarle los nombres a a Apple a veces, es muy duro eso, muy, pero bueno, el, bueno, al final tú dices, claro, yo me tengo generación de imágenes y tiran de Daly tres, pero en la generación de imágenes está superacotada, no es un texto a imagen típico de crea lo que tú quieras, sino que en ciertos contextos tú estás hablando con alguien, puedes crear un emoji que es como una caricatura en formato emoji, claro, de de esa persona para celebrar su cumpleaños, ¿no? Como soplando una tarta y cosas de ese tipo. Todo súper controlado, de manera que no hay deepfakes, no se generan imágenes complicadas.

Entonces, como, y además, como todo esto, aunque tire de Dalí Dress, está muy bajo la marca Apple, yo creo que aquí es donde tienen un absoluto control, donde son súper súper conservadores.

Sí, fíjate exactamente, fijate lo conservadores que han sido con las imágenes, que solo se pueden generar imágenes con tres estilos, y los tres son tipo cartoon. Sketches, ilustraciones y animación, rollo animación tres d, ¿no? Lo que pasa es que esta limitación, que obviamente lo hacen para que no salgan barbaridades luego, como le ha pasado a Google, como le ha pasado a tanta gente, te permite también hacer generar imágenes o los Genmoji que has mencionado con la cara de tus amigos. Entonces, ahí yo creo que la gente va a disculparle a Apple las limitaciones de de los generadores de imágenes, porque cuando tú ya puedes hacer un emoji con la cara de tu madre o la cara de tu mujer o tu propia cara, yo creo que la gente se va a subir al tren, se va a subir al carro y va a disculpar esas limitaciones. Vale, vamos rápidamente con Silkima.

O punto para terminar con la imagen esa imagen. Modelo de difusión, es decir, con DALLI tres, etcétera. Ojo, porque es entrenado con todo lo que había en abierto por Internet. Esta es la filosofía PNI, y esto es el modelo que llega a a AP. ¿Por qué lo digo?

Porque no está para nada cerrado el debate de las vías generativas de imágenes o de audio o de vídeo, que han sido entrenadas con un montón de obras para las que no se pidió permiso y para las que no hay compensación. Por lo tanto, el paso de Apple es un paso fuerte, porque, claro, toda la clase creativa con sus iPhone y sus Macs, que a la vez gran parte de ella, pues tiene una posición bastante a la contra de estos modelos generativos de inteligencia artificial, pues de repente va a empezar a convivir con que esos modelos se integran dentro del ecosistema que tanto usan. Es verdad que con muchas limitaciones, con unos casos de uso que no van a competir con ellos como creadores, básicamente, nadie iba a pagar porque hicieras una caricatura de cumpleaños de su madre, pero en cierto medida, sí hay una patita ahí de Apple ya puesta y como reafirmando esta filosofía de cómo se han creado estos modelos de inteligencia artificial.

Sí, hay un tweet muy bueno de Justin Moore, que dice cuando le preguntas a Apple de dónde vienen los datos de entrenamiento y se ve a Craig Federic escapando haciendo parkour, me imagino que realmente de de esto no han hablado en absoluto. Es el problema de las presentaciones en las que no hay turno de preguntas y respuestas. Pero bueno, vamos rápidamente con Siri, porque lo de Siri

le lo

llevábamos prediciendo mucho tiempo, han reescrito Siri hasta el punto que le han cambiado el icono. No sé si te gusta el nuevo icono de Siri, que es como el símbolo del infinito, pero la han cambiado hasta el icono, y, de hecho, ahora Siri no es una bola que brilla en lo bajo del iPhone, sino que es como una luz que que rodea, como un halo de luz que rodea todo el iPhone, como diciendo que Siri está en todas partes, ¿no? Que es omnipresión.

Yo, a lo que lo que estaba interesantísimo, Mattie, es, en cuanto hable Siri, afinar el oído y pensar, ¿Bueno?

Pues no, la voz en inglés, por lo menos, no ha no ha cambiado, ¿vale? Pero bueno, ahora Ciri, evidentemente, al tener detrás un potente modelo de lenguaje, te entiende mejor, ¿vale? Porque Ciri, hasta ahora, si tú le hablabas y te equivocabas en mitad de la frase y luego te corregías, no no sabías, has sido la pichón lío, y ahora no se hace la pichón lío, ahora te entiende, ahora sabe por dónde vas, ¿no? Además de que tiene lo que Abel llama el on screen awareness, que es que entiende el contexto, no solo de lo que hay en la pantalla, sino de todos tus datos, y tú le puedes decir, enséñame las la gente, le le a la gente le va a ahorrar muchísimo tiempo, porque hay un montón de ejemplos que ha dado Apple que a mí me parecen muy buenos, ¿no? Pásame todos los adjuntos que me mandó mi jefe la semana pasada, o esta foto que tengo delante, mejóramela, y guárdala en la nota tal, ¿no?

Entonces, esto esto es un asistente de IA bastante interesante, ¿no? Sin sin llegar a ser una cosa que reinvente o que o que se ponga muy por delante la competencia.

Claro, es justo el punto que tú dices, Matty, que es el comienzo bueno en una buena dirección sin haberse vuelto locos. Haberse vuelto locos hubiera sido Siria Ara GPT cuatro O, lo que nos presentó Penny hace unas semanas, y que tiene ese nivel de conversación, ese, sobre todo, ese punto que tiene GPT cuatro O, o por lo menos que tiene las demos, porque todavía no, no lo ha dejado probar, todavía no, lo estamos usando, que tiene de de inflexiones emocionales, ¿no? Entonces, a a ese punto no no se ha expuesto Apple a lo que se ha puesto, modelo grande de lenguaje, y por lo tanto entiendo mucho mejor lo que me pide, cómo tengo el contexto de la conversación, es decir, podemos seguir en una conversación más larga y hacer referencia a cosas de antes, y tengo ese conocimiento semántico. Por un lado, de todo eso que hemos dicho, de ese índice semántico de todo lo que hay en tu teléfono, de de repente Siri te puede responder sobre esas preguntas, de repente Siri es mucho más sofisticado a la hora de explicarte cómo resolver cosas con el teléfono o con el iPad o con el Mac, porque está también entrenado con los manuales de Apple, pero, de nuevo, tiene ese ese ese ese salto enorme de comprensión de la intención del usuario y ese salto enorme a la hora de poder responder con lenguaje natural.

Y el punto interesante es que Siri sí puede ejecutar algunas acciones. Es decir, Siri, el el viejo, ¿no? Y la esa generación de Alexia, Siri, Google Assistant, siendo bastante más tontos que los modelos grandes de lenguaje, tienen un punto de soy capaz de acabar ejecutando algunas acciones. De momento, lo que nos enseñaron en esta demo no quieren empujarlo todavía demasiado ahí, pero ese primer paso de aquí va a estar el agente existente que te puede ayudar a ejecutar cosas dentro del teléfono, doble ETC del año que viene.

Además, dos de los ejemplos que pusieron es que parecía que me estaban hablando a mí. Primero, ¿a qué hora llega mi madre al aeropuerto? Porque yo, alguien me dice algo por WhatsApp, me lo dice por email, me lo dice por No lo apunto, no tengo ni idea ni de a qué terminal llega mi madre, y ahora se lo puedes decir a Siri, Siri te busca el email, Siri te dice qué tráfico hay hasta el aeropuerto, y luego todas las novedades en la aplicación de fotos. Esto parece que está hecho para mí, porque mi galería de fotos es un cajón de sastre absolutamente caótico, con miles y miles de fotos sin ningún tipo de orden ni de limpieza. Y ahora, la búsqueda con el buscador semántico, no solo en imágenes, ¿vale?

Que esto ya lo tenía Google, etcétera. No solo puedes decirle, enséñame esa foto en la que voy de vestido de Ivicenco, ¿no? Pues no solo en imágenes, también en vídeo. Esto, la verdad, es que a mí va a cambiar muchísimo el la manera, el la rapidez con la que encuentro las fotos, que además tengo fotos de documentos, tengo fotos de fotos de gente, tengo fotos de Para todo uso la cámara, ¿no? Pues esto me va a dar un poquito de orden en todo ese caos.

Vale, ya tengo otro look para el episodio, Mathie. La inteligencia manzana va a llegar y Matías se ha vuelto nos jugamos el año de la estrategia de monos estocásticos con esto, Pero bueno, aparte de de inteligencias y frutas, hay que hablar de que OpenEI, Mathee, ha estado, pero como como un actor un poco secundario. Se esperaba que fueran los reyes del mambo y sí, pero no, hay un gran acuerdo y de repente hay un momento en que el iPhone necesita ayuda y le pide ayuda a ChatGPT, Matías.

Pues tengo muchas dudas sobre este acuerdo, Antonio. Tengo muchas dudas. Primero, estaba Sam Alman en en el Apple Park, estaba Sam Alman en el Cupertino, entonces yo pensé antes de que empezara la keynote que esto y ChatGPT iba a tener mucho más protagonismo y que iba a ser un acuerdo muy claro entre Apple y OpenAI, y es lo que tú dices. Cuando Siri se queda sin información, pues tú le haces una pregunta para la cual necesitas datos de entrenamiento más recientes o una cosa que está fuera del contexto de tus datos personales. Entonces, Siri te pregunta, ¿quieres que use ChatGPT para responder a esta pregunta?

Y tú le das al botón, ok, usar ChatGPT. Y, entonces, es cuando el iPhone llama a ChatGPT para responder a tu petición. Vale, dudas sobre este acuerdo entre OpenAI y Apple. Esto va a ser gratis para todos los usuarios de iPhone, sin necesidad de registrarse en ChatGPT. ¿Vale?

Y el acuerdo también tiene el compromiso de OpenAI de no registrar ni las peticiones del usuario ni datos personales de los usuarios de iPhone, como su dirección IP, ¿vale? Sin embargo, a favor de OpenAI en este acuerdo, está que puedes conectar tu cuenta de ChatGPT Plus para obtener las funciones a las que no llega la versión gratuita de ChatGPT. Y Apple ha dejado claro que en el futuro, que hay cierta modularidad en esto, y en el futuro se podrán, o en el futuro añadirán más servicios de terceros aparte de ChatGPT. Imagínate que en el futuro, pues puedes usar Mixtral, puedes usar Gemini, puedes usar lo que sea, ¿no? Llama.

Entonces, yo empecé pensando, de hecho, lo twitteó en el Twitter de monos estocásticos, arroba monos podcast, que aquí la que ganaba era OpenAI, aquí Apple se había visto limitada en sus capacidades de inteligencia artificial, y había tenido que cerrar un acuerdo con OpenAI para completar esa esa escasez de recursos. Entonces, aquí yo veía claramente una transacción importante de Apple a OpenAI, porque eso hay que pagarlo, toda toda la base de usuarios de iPhone haciendo llamadas a ChatGPT, ahí hay mucha electricidad de por medio, eso eso alguien lo tiene que pagar. Pero claro, si OpenAI al final no puede usar datos de los usuarios para entrenamiento, etcétera, etcétera, no tengo muy claro que aquí haya una transacción económica.

Pues es que, claro, tú lo has dicho, yo creo que la clave está en los económicos, y además en los económicos se cruza otra historia más. ¿Cuántas búsquedas menos van a hacer los usuarios cuando Siri con chat GPT le respondan más cosas? Porque una parte crítica del negocio del iPhone es cuánto dinero paga Google por ser el buscador por defecto. Es una cantidad obscena, es el mayor acuerdo económico entre empresas digitales que hay en el planeta, es un acuerdo esencial y clave para que Apple mantenga su margen de beneficios y para que Google mantenga su cuota de mercado y también su negocio de publicidad en el buscador. Esto tiene esa segunda derivada.

Entonces, ¿Apple puede estar pagando doble? Pago a OpenAI por las consultas HGPT y además tengo una pérdida por porque Google me va a renegociar a la baja al disminuir el número de búsquedas por usuario, es que ChatGPT, o es decir, OpenAI, solo por esa exposición de marca, de soy el que te resuelve cuando Siri y aparece ChatGPT, ya te hago un precio, ya te lo doy gratis, habrán hecho una jugada de ese tipo. Es que hay que pensar que OpenAI está en una posición muy delicada, era algo que dedicaremos un episodio de analizar que del mundo de los dispositivos y de y de la inteligencia artificial, que es Apple y Google, manejan dos sistemas operativos, los van a seguir manejando durante durante muchísimos años y manejan la relación con el usuario. Si le ponen otro modelo por delante, es probable que tú sufras mucho la competencia si ese modelo es lo suficientemente bueno. De hecho, por eso Google paga una millonada a Apple, porque una vez que te ponen un buscador por defecto y eso es suficientemente bueno, tú ya tú buscas otro buscador, o por lo menos, el noventa y nueve coma noventa y nueve por ciento de los usuarios no lo busca, y por lo tanto eso es relevante.

Entonces, que ChatGPT, digamos, OpenAI sea consciente de su debilidad estratégica en la relación con usuario, porque Meta tiene lo suyo, Microsoft tiene sus usuarios, Meta lo integra en Instagram y WhatsApp y ya tiene miles de millones de usuarios, pero OpenAI no tiene nada de eso. Entonces, esos económicos son son complicados. Y una una última cosa, Matty, Me parece que Apple la se la ha jugado bien a OpenAI, porque cuando también pone, de repente, vas a usar ChatGPT, está diciendo, lo que aparezca partidora es culpa de ChatGPT. Ya no es mi responsabilidad, si ha que habido alucinación, error, off. Entonces, ¿qué le va a llegar a OpenEI?

A OpenEI, AP le va a mandar todo lo que tenga cualquier tipo de polémica o complicación, porque de alguna manera en ese momento justo te está diciendo esto ya no es city, esto ya no es la experiencia Apple nativa, esto si pasa algo, si te dice algún inconveniente o utiliza algún error, esto es chajes.

Exactamente. Y aquí también pasa una cosa, Apple puede a no minimizar de alguna forma los datos del usuario, pero una vez que esto entra a los servidores de OpenAI o de Microsoft o de quien sea, entiendo que no tienen cien por cien el control de si esos datos se están usando para reentrenar, para afinar la inteligencia artificial de OpenAI. Entiendo que aquí, y por cierto, explotó Elon Musk, fue fue, como éramos pocos, y parió la abuela, aquí puedo defender un poco

el el el

el el rayo de Elon, porque Elon dijo que si Apple integraba OpenAI a nivel sistema operativo, asterisco, no es a nivel sistema operativo, pero bueno, está integrado, entonces va a prohibir a los empleados de Tesla, de SpaceX, de X, de Xei, de todos esos usar dispositivos de Apple. O sea, tú le quitas a un a un estadounidense su iPhone, la verdad, no sé si si puede seguir con vida esa persona. Y además, dice que va a obligar a la gente que visite sus empresas a guardar sus dispositivos de Apple en jaulas de Faraday, antes de entrar, de acceder, pues, al precinto de sus al precinto, no, a la, bueno, a sus empresas, ¿no? Estuvo toda la noche, toda la noche.

Sí, sí, sí, él lo hizo justo. Claro, es que Elon y opine ahí no tienen una buena relación, no os puedo remitir al histórico del podcast, pero hay hay una cosa que que tan importante, ¿no? En la en lo que menciona EP. Se integra a un NIE a nivel de sistema operativo, claro. ¿Qué significa a nivel de sistema operativo?

Pues, a nivel de STU operativo, pues, te hacen funcionamiento básico en esa intermediación entre la capa de aplicación y el usuario y el hardware. Entonces, lo que explicó Apple no era una integración a nivel ese operativo de OpenAI. Ahora bien, toda la parte del índice semántico con toda tu información, eso sí, está fuertemente integrado en el sistema operativo, al no ser facultativo, pues casi que le dice Opel, esto es IOS, ¿no? Ya olvídate, porque IOS tiene un índice semántico tuyo y a veces las cosas se van a la nube, a mi nube, y tienes que confiarte de mí. Eso sí es una integración fuerte, pero esa es cien por cien Apple, lo eso lo dejaron en claro.

Lo de PNI son llamadas extra en algún momento del funcionamiento del sistema con con Siri y tal. Entonces, es verdad que vas a mandar en esos momentos información como si usara HGPT, que OpenEye se compromete y te juro y perjura que va a ser muy privado, pero lo del nivel de sistema operativo yo no lo veo, no lo veo claro. Así que, bueno, en estas disquisiciones de detalle, Elon Musk va a malmeter, y este malmeter yo creo que tiene cierto encaje con las narrativas alrededor de es que ya las cosas no se quedan en el iPhone, es que las cosas ya se mandan a la cloud, es que fíjate cómo tiene una base de datos de todo lo que sabe de ti y cómo lo utiliza eso para la inteligencia artificial, ¿no? Ahí puede haber un discurso que yo creo que puede erosionar la narrativa de Apple del iPhone. En todo caso, hay una cosa que narrativamente, yo creo que lo has contado tú muy bien, ¿no?

Qué claro le queda a la gente cuando ve la presentación, ¿cómo me va a ayudar esto? Esto, cómo me va a ayudar esto, está muchísimo más claro en esta en esta presentación de de Apple que la de Google o que la de Microsoft, que iban por delante y que van por delante, algo que sea claro, ¿no? Pero creo que Apple ha sido mucho, has ha sabido subrayar mucho más en cómo te va a ayudar esto. Entonces, conclusiones, Mati, ¿cómo cómo lo has sentido tú? ¿Qué nota de cero a diez pones a esta?

Mira, lo primero que que te quería decir es que no entiendo el orden de la presentación. Tú sabes que tenemos amigos que estaban muy pendientes para la el tema de la inteligencia artificial y nos decían qué coñazo está haciendo esto, porque dedicaron una hora a que ahora puedes cambiarle el color a los iconos y puedes ordenarlo como quieras, Y a partir del minuto sesenta y seis fue cuando presentaron la inteligencia manzana. Podrían haber salpicado porque, de hecho, una de las yo diría que el único anuncio del iPad es que ahora tiene calculadora y que puedes estar haciendo, pues esto, escribiendo matemáticas con el lápiz y que un una inteligencia artificial al final, un algoritmo de de aprendizaje profundo entiende todo lo que estás escribiendo y te y te lo resuelve o te hace gráficas, etcétera, esa al final es inteligencia artificial. Y solo, en un momento de la presentación de iPadOS, ¿lo mencionaron sin decir en ningún momento inteligencia artificial? Si esto lo hubieran salpicado toda la presentación con todo lo que están trabajando en inteligencia artificial, habrían, para mí habría sido más interesante el Akinu.

Pero encajonarlo todo al final, también puso en evidencia, pues eso, que que han llegado tarde y que ahora están intentando ponerse al día, ¿no? ¿No?

Es que, vamos a ser sincero, las presentaciones de Apple y, en general, las presentaciones de vamos a hacer mejoritas incrementales en nuestro dispositivo, en nuestro sistema operativo, son un soberano coñazo. Esto tenía gracia en los primeros años, salía a Kate Jobs, todo era muy novedoso, el teléfono móvil iba como un tiro, mejoraban un montón año a año, pero ahora ver, no es que ahora puedes poner los iconos de verde o lo puedes poner de azul, pero ¿qué hago yo un un un lunes por la tarde aquí delante de la pantalla viendo un señor directivo que cobra cientos de millones al año explicando qué puede poner los iconos de azul? Qué soberano, coñazo, Matías, yo no aguantaba, pensaba que me subía por las paredes, menos más que abrí abrí la Steam Deck y me puse un aparato, porque si no, me me muero. Mira, mi resumen es, ah, por cierto, Sevenant segunda temporada, eso a favor de Apple TV, y los mercados, los mercados no han reaccionado bien, bueno, vete a saber, ¿no? Qué qué expectativas tenían.

Y y mi resumen es que yo para lo que ha presentado de Apple Intelligence, inteligencia manzana, estoy entre un siete y un ocho. Creo que la han contado bien, creo que tienen un eje de comunicación, eso sí, muy difícil con el con el tema de la privacidad, y creo que sobre todo se hacen fuertes en sus puntos fuertes. No van a estar en la punta de lanza, es decir, no tienen ese city emocional que vamos a tener con OpenI, no vamos a tener un agente inteligente que sea capaz de ejecutar, todavía no no estamos ahí, la generación de imágenes es muy prudente, pero, en general, creo que no se han salido de la carrera y que, bueno, cuando tienes el iPhone tienes esa base de usuario tan fiel, tienes ese negocio de explotar el treinta por ciento del sector digital a través de la App Store, ¿para qué vas a tener prisa y para qué vas a cometer riesgos? Vas a ir sobre seguro, vas a ir paso a paso y vas a aplicar esa filosofía de me aseguro de que la experiencia de usuario sea muy buena y me me hago fuerte en pocas cosas, pero que se hagan realmente bien, ¿no?

Entonces, en ese sentido, yo creo que siete, ocho, ha salido bastante bien del paso Apple en Piña.

Sí, totalmente, totalmente. Yo creo que todo el mundo quedó medianamente contento con cómo al final han reaccionado y y sobre todo con esa integración transversal en todas las aplicaciones y en todos los sistemas.

Control programaron a Apple y lo hizo nuestro patrocinador de esta semana, Matías.

Mira, qué contento estoy, qué contento estoy con lo último que ha sacado FreePick, los patrocinadores de Momos Estocásticos esta semana, que es FreePick Retouch, porque tú sabes que yo tuve ese problemita de facturación con Photoshop desde entonces estoy un poco perdido, pero es que es que ya no necesito esa otra herramienta, porque ahora con FreePick Retouch puedes seleccionar partes de una foto, cambiarlas con inteligencia artificial, quiero que este vestido de esta señora pase a ser rojo, quiero que este fondo ahora sea otra cosa, puedes editar detalles, pero no solo que puedas hacer todo eso, sino que, con respecto a esa otra herramienta que he mencionado antes, ThreePick Retouch es rapidísimo. De verdad, es muy muy muy rápido. Decía Joaquín Cuenca que llevan meses desarrollando esto para hacerlo bien, bien, bien, y lo que han conseguido, Chapó, es una herramienta potentísima,

Sí, a mí me gusta mucho porque, claro, yo soy más de de la guía generativa para mis posts en mis en mis listas de correo y tal, y lo que da mucho trabajo es que tú creas un prom, haces la imagen y dices, tengo que cambiar el prom entero metiendo un detalle, volverlo a lanzar, solo para que la imagen cambie un poquito y a ver si me entiende o no me entiende, lo consigo, no lo consigo, pero, claro, una vez que hagas tienes el prom base, un chimpancé o una bata de científico, y luego ya quieres añadirle cosas, las gafas de sol, una cresta rockera, un lo que sea, es decir, ya se trata de trabajar detalles de ello y las zonas que quieres cambiar, no tienes que rehacer la imagen entera. Entonces, si ya tienes una buena base, pues tiras para adelante, Flippeak Retouch, super recomendado desde monos Estocásticos. Y hablando de recomendaciones, Matías, para que la gente, ya sabe que tenemos que mantener nuestro plan B, por si acaso la inteligencia artificial acaba siendo un bluff, entonces teníamos el Metaverso, pero que tú tienes lo lo de los cohetes, Mati. Entonces, dos minutos para explicar a la audiencia de monos un teaser del próximo parsec del de por qué la Starship mola, Mathi.

Pues, mira, yo hasta que no salga la AGI, yo creo que la Starship es la razón por la que pienso que vale la pena estar vivos en este momento de la hora después del lanzamiento de Starship, Pero durante el lanzamiento de Starship, es la persona que yo más amo en el mundo, porque esto es, de verdad, no solo se han puesto con el último lanzamiento de prueba de la Starship, que han conseguido aterrizar el súper heavy y la Starship, asterisco esto, ahora lo explico, sino que se colocan, literalmente, a años luz de distancia de la competencia, porque mientras está todo el mundo, sobre todo en China, que son los que más se están acercando, intentando fabricar su propio Falcon nueve, que el Falcon nueve lleva más de trescientos aterrizajes, Starship ya está con un cohete gigante, totalmente cien por cien reutilizable, y está consiguiendo, y en este último vuelo ha conseguido, un avance brutal, ¿vale? A ver, la Starshift es un cohete de ciento veinte metros de acero inoxidable, tiene dos partes, y las dos partes está previsto a que se recuperen, ¿vale? Entonces, lo que estamos viendo ahora mismo en la imagen es el súper heavy, que es la parte de abajo que mide setenta metros.

No sé cuántos cuántos pisos tiene un un edificio de de setenta metros, pero unos cuantos pisos. Bueno, pues esto han conseguido que simule un aterrizaje en el Golfo de México, y en el próximo lanzamiento van a intentar, que no se sabe, pero van a intentar que aterrice en la torre de de lanzamiento y que la atrapen unos brazos unos brazos gigantes. Y luego en la Starship, que es la otra etapa, que es la nave espacial donde va a volar la carga y donde va a volar los astronautas que viajen a Marte y todo esto que imagina Elon Musk desde yo que sé cuánto, desde el año dos mil, pues también han ha logrado simular un aterrizaje en el Océano Índico, y aquí lo más impresionante, y ya termina Antonio, es que lo han retransmitido todo en directo, ¿vale? Porque aquí juega también con promocionar Starlink, que es el Internet por satélite de SpaceX, que tienen ahora mismo seis mil y pico satélites en órbita. Nunca antes.

Nadie jamás había emitido en directo una reentrada atmosférica, que es cuando el cohete va a toda hostia, a veintisiete mil kilómetros por hora, por por el aire, por la atmósfera, y con ese con todo ese calor que se genera por la fricción con el aire, pues ahí se forma un plasma alrededor, pues esto, la antena de Starlink lo aguanta y lo emite en directo en full HD, en 4K, en lo que le tires. Esto fue verlo en directo, de verdad, hasta que no salgas a mal mal diciendo, mira, ya está hecha la superinteligencia tomada, aquí tenéis, para mí nada supera esto en el mundo,

Vale, pues mira, encaja, el título que te he dicho antes del episodio encaja perfectamente aunque el objeto de tu amor ya no sea la inteligencia manzana, sino los cuetitos de de Long. Yo lo que me he fijado muy bien, Mattí, es que esto aterriza mejor que yo aparcado hacia atrás. Ya me está, claro, es que la máquina no supera

Tiene que ser más difícil, porque los Tesla al final lo de aparcar siempre lo han llevado muy mal, ahora están por fin mejorando, pero tiene que ser más difícil aparcar en batería que que lanzar un cohete.

Vale, vamos rápido con tres o cuatro cositas, Matty, para que no, Apple no se coma todo el episodio. Hay novedades muy interesantes de Google porque la app de Jamie Nine está en español para para los usuarios de teléfono móvil, muy bien, y NotebookLM, que tuvimos en la presentación, ¿verdad? Y que, bueno, es una herramienta que a mí me parece de lo más chulo, que se hable poco de ella, de de lo más chulo y lo más útil y práctico para un trabajador del trabajo.

Yo no entiendo por qué la han metido en Google Labs, que es como los experimentos de Google, lo cual le ha quitado bastante protagonismo, porque a mí ya lo he empezado a usar y esto para mí tiene una utilidad enorme, porque es básicamente una un block de notas en el al que tú puedes entrenar con todos tus documentos. Además, cabe cabe soportan más archivos, más formatos, documentos de Google Drive, PDFs, texto que tú le chutes, ¿vale? Entonces, yo le he metido todos los guiones de monos estocásticos, esto lo he hecho hace una hora, y le he preguntado, estos son los guiones de nuestro podcast monos estocástico. ¿Qué noticias sobre Apple hemos tratado antes del dos con cuarenta, del episodio dos por cuarenta y uno, que es el de ahora? Y me y me la me las ha enumerado en todos los episodios que hemos hablado de Apple, y además, enlazando para que yo pueda cotejar la el resumen que me ha hecho.

Y esto es tan potente, o sea, es que le voy a chutar todo, por suerte, es privado, eso es no es una cosa que luego Google aproveche. Le voy a chutar todos mis posts, me lo voy a chutar todas las las transcripciones de mis podcast, porque con la falta de memoria que yo tengo, esto me va a venir muy bien, de verdad,

Sí. Fíjate, has has dicho un dato muy importante, que es sin que Google sí vengo detectando es, exhortó en los medios, en la opinión publicada, cómo se fomenta o se mantiene una extrema fobia a que no vayan a usar la tus datos para entrenar inteligencia artificial. Lo has visto en, bueno, lo has mencionado tú, está la presentación de Apple, pero de repente salta lo de Meta, que, bueno, podemos contarle a nuestra audiencia que lo hemos visto en paréntesis media, la noticia de que a partir del veintiséis de junio, Facebook, Instagram pueden utilizar los datos o contenidos de los usuarios para entrenar a la inteligencia artificial. Y claro, aquí se ha venido, pues, bueno, una catarsis, una catarsis de de de alerta, urgencia, preocupación, tutoriales para cómo puedes salirte de esto, porque digamos que es op out, es hot in

Tú es que apenas usas Instagram y cuando lo usas es para temas de crossfit, pero todos mis contactos han compartido la la chorrada esa, que no sé por qué alguien piensa que va a funcionar,

Pero, tío, es que es que Internet es un círculo, porque esta es la cadena de Hotmail de, oye, mandar el correo copiado en Hotmail, no doy permiso a Bill Gates para que haga cosas malas. Es un es es es lo mismo de siempre. Bueno, lo hemos visto en paréntesis media que tiene su newsletter, ya sabéis, nuestro media partner y que habré publicado esta noticia como otras muchas entrevistas y vídeos sobre inteligencia artificial, pero, bueno, ya sabéis que, además, podéis buscarlo por ahí, mucha gente publicándolo. Si no queréis que utilicen tus datos para entrenar en la guía, pues hay una forma de op out, pero a mí me parece curioso una cosa, que es que Meta, bueno, tienes que ir de los ajustes, tienes que ver varias opciones, pero tú tienes que explicarle por qué no quieres. Es decir, ¿por qué no quiere usted que tenemos la idea con con sus datos?

Yo tengo una relación aquí un poco complicada, Mati, porque cuando en un dataset que es público yo busco y no está mi blog, no está error quinientos, me da coraje. Digo, pues, que que no tengo yo, que tienen los demás que no tenga yo para que

entrenarme ahí. Fíjate qué diferencia entre los ilustradores, no hay que acabar con esto, no sé qué, y los escritores. Oye, ¿por qué la habéis usado mi blog para entrenar la IA? ¿No?

Es que, pues, el tío pues es un caso particular. Ahora, si estoy dentro, digo, venga, vamos a hablar de perras, pero si estoy fuera me da coraje. Claro, porque es como que te hacen de menos, Matías. De todas maneras, yo aquí a bobo, los que estáis en contra de esto, no os salgáis, no salgáis del sistema de entrenamiento de inteligencia artificial, sino que tenéis contenido basura. Es decir, tiene que ser, copiar los los hilos más demenciados de forocoche en vuestro Instagram, ¿no?

Y a partir de ahí, pues que surja la magia y que la a ver hasta hasta dónde llega. Por ejemplo, tus amigos de Adobe han tenido una crisis. ¿Por qué? Porque App Photoshop ahora te pide acceso a todo tu contenido que se cree con la herramienta. ¿Y qué?

Adobe puede echar ahí un ojito y que además hay como como en los términos y condiciones alguna cláusula, alguna sección un poco ambigua que, claro, con el fin de mejorar los servicios podemos usar tu contenido. Y claro, se ha liado la pajarraca, es decir, cómo que yo en mis creaciones Adobe puede mirarla, cómo que puede utilizarla para mejorar el servicio, esto es para entrenar a la ILA, boom. De nuevo, crisis para, bueno, la una de las herramientas claves del sector creativo.

Pues es que al final es la forma de de mejorar esta esta CIA. Yo lo entiendo perfectamente, pero si Es lo que decías tú, si nos quitamos todos del entrenamiento de de Instagram y no se quitan, pues, los yados de la vida, pues, a lo mejor al final las IAs, pues, son Jim Bros que montan estafas piramidales, no no lo sé, se puede salir un poco de control, es mejor que tenga un modelo del mundo realmente pues hay que contrarrestar, ¿no? Con otro tipo de contenido.

Bueno, bueno, no anticipéos porque va a haber temas interesantes en el Puerta Gran Vía de Enfermería y y y ahí podemos esperarnos, si quieres, en en temas efectivo, pero, tío, me crucé, que has dicho lo de helados, y estoy buscándolo porque me crucé con algo superdivertido, que es algo así como que le habían demandado, ¿no? Y tiene un juicio, y creo que es el confidencial, recoge estas tremendas declaraciones hallados. Vamos a ver si lo si lo puedo decir. Qué miedo tengo, bro, mira qué miedo tengo. Ha llegado a la luz y la vais a chupar.

Soy pacto del McDonald's, soy pacto de los empleos. Os vais a arrepentir toda vuestra fucking vida. No le tengo no le no no le temo a fucking nada, bro. Me la fucking pela todo, monstruo. Espérate, y le acabo diciendo, lo llevo diciendo toda mi vida, nada me fucking para.

Cuanto más presión, me encanta, esto es todo lo que tiene la fucking Matrix, es un fucking chiste. Entonces, claro, queremos un mundo de inteligencia artificial que diga fucking todo, y dos, llegará Yado y dirá, hola, fucking juez. Me la fucking pela lo que estoy

No, no, no, es es algo muy interesante, pero también pienso, ¿y si nosotros deberíamos subirnos a a eso y empezar a hablar así, como lo de la inteligencia manzana, pero que en monos estocásticos se convierta en esto, en el feed de YouTube Shorts de cualquier hombre de veinte, cuarenta años, ¿no? Y empecemos a decir fucking inteligencia artificial, fucking modelo.

Claro, entonces, ahí lo vamos a pensar estos dos días, estamos grabando en martes, salimos en jueves, puede ser, llega la fucking inteligencia manzana. Atención, Mati, podemos ahí hacer un un mix. Bueno, tenemos que ir rápido porque se nos va el tema. Yo solo quiero mencionar una cosa, Mati, que es que tenemos una sección nueva, Matías, una sección nueva y en la que vamos a estar bien acompañados. Porque pasa algo con monos estocásticos, que todo el que se pega a nosotros le va bien, Matías.

Todo el mundo triunfa, ya sea que nuestro gran objetivo con el podcast, que todos los oyentes y oyentes os hagáis millonarios, estamos sesión nos va a acompañar una compañía que está empezando, una pequeña empresa, una humilde startup que se llama Nvidia, y la sección se llama, la IA no se hace sola,

hay que hacer. Fantástico, hombre, por supuesto, elegido por Antonio, pero te digo una cosa, si a partir de ahora a Nvidia le empieza a ir bien, yo puedo podríamos decir que hay una causalidad entre empiezan a patrocinar una excepción de monos estocásticos y le va bien a Nvidia, ¿no?

¿No? Sí, absolutamente que claro, la gente dice, la gente es muy ingenua y a veces cree en las casualidades, pero aquí en este matrimonio entre Npitia y monos estocásticos hay un camino por hacer y hay un recorrido que yo creo que va a ser

Vamos a probar herramientas.

¿En qué consiste este? ¿Qué es? Venga, vamos a ver. Tenemos graficotes en nuestros ordenadores, Paty, tenemos esas GPUs, yo tengo aquí una, ahora daré un poco detalle, y hay mucho de la guía que se puede hacer en local y se puede sacar provecho. No todo va a ser jugar al balatro.

Entonces, hay que hay que sacarle rendimiento y con Nvidia vamos a tener una sección que una o dos veces al mes vamos a hablar de nuestros experimentos y nuestras capacidades con la ILAC local. Qué ha cogido un

poquito práctico para el oyente de modas estratégicos. Me gusta, me gusta esta sección.

Bueno, pues vámonos, porque esta primer experiencia lo hemos, claro, estamos empezando nuestra relación y hemos ido a probar una de las aplicaciones de la propia Nvidia, que se llama Chat RTX, que, atención, Mati, al principio te puedes confundirte, ¿esto de Chat RTX es hablar con la tarjeta gráfica? ¿Es hablar de cosas de tarjetas gráficas? No, es una cosa que te va a calentar el corazón, que te va a gustar y que está especialmente pesado para ti, porque es un chatbot, pero no un chatbot para hablar de cualquier cosa, sino para conversar con tus ficheros, conversar con tus documentos, conversar con tus PDFs, conversar con tus TXT y tus notas. Entonces, tú lo pones todo ahí La

razón por la que se han creado los comandos de lenguaje y todo esto es para hablar con documentos, yo lo tengo claro desde el principio.

Claro, entonces, bueno, yo he estado jugando un poquito con la con la aplicación y tengo tres cosas que decir. Una es, pues, oye, hay una serie de usos, sobre todo con los PDFs de papers que tengo en local, en que esto ya me va bien y yo no tengo que usar un modelo en la nube ni tengo que subir datos, sobre todo si es un documento de cierta confidencialidad, que son mis notas personales y quiero tener esa privacidad, es que esto el local ya me va bien, yo lo acabo de, lo lo instalé hace tiempo, lo he vuelto a a actualizar, te mete un Mister al siete billions, es decir, es un modelo, no es de los más pequeños, no es de los más grandes, digamos, de clase media, pero que funciona muy muy bien, y en el que, además, aprendes un montón a entender cómo está hecho esas cosas, porque que cada vez que añades un documento, pues ves cómo la máquina, porque eso, bueno, al final por el por el shell de de Windows de, iba a decir de MS dos, por el shell de Windows, te va informando de las acciones que te va y cómo te generan los embeddings, cómo al final es un modelo que hace, algo que hemos explicado en en monohitocápticos, el RAG, es decir, que cuando le preguntas, lo que hace es incorporar el contexto de la búsqueda que hace en una base de conocimiento, que son tus ficheros, que son tus documentos, y de repente, pues tú tienes tu directorio con tus documentos y puedes hacerle consultas sobre todo el contenido y todo lo que hay en ese directorio.

Entonces, es una maravilla, a mí me ha gustado mucho y, eso sí, he llorado un poquito, Mathi, porque mis tres mil setenta sufre con esto. Aquí tenemos que poner un arreglo, Matty, porque, claro, yo necesito a lo César Blue, un graficote de Lanzarote, La tres mil cien veinte está bien porque tienes esos mínimos, esos ocho, esos gigas de RAM que que van bien, ¿no? De de de de de de la de la GPU, pero yo necesito actualizarme, Mati, yo voy a necesitar aquí un poco más de de músculo.

Tener que actualizarnos los dos. Pero te digo una cosa, aparte de que cumple con mi principal requisito para la IA, que es hablar con PDFs, esto cumple con otro de mis sueños, que es gastar eficientemente el dinero. Porque si tú ya tienes una gráfica de Nvidia, ¿para qué vas a pagar la suscripción de EchaGPT Plus si puedes hacerlo todo en local? Entonces, estamos enseñando a nuestros oyentes a ahorrar dinero.

Claro, es otra forma de hacer de riego. Esto, cortar muy fina la mortadela, muchas claves que podemos darle a la audiencia, y con eso, pues, ya empieza esta sesión, iremos aprobando muchas cosas el local y os la iremos contando también por el Twitter de monototcasts. Y, Mathey, se nos va el tiempo, lleva un ratazo dando la turra con la inteligencia manzana y otras novedades, yo creo que habría que rematar con un puerta grande o enfermería. Pues, está

grande la efemériía, me da miedo, porque si dices que hay algo de alvice, a ver por dónde sales, pero venga, te escucho.

Vale. Vamos a empezar con China, Mati. Los chinos hacen cosas y tienen un examen, su selectividad, su ebau, que se llama el Gao Tao. A mí me me ha hecho mucha gracia porque esos vídeos en los que en una ciudad de provincias se van las chicas y los chicos a hacer el Gabo KO a a otra ciudad más importante, más grande, y toda la ciudad en la calle, las bandas de música, la gente saludando al autobús, lo despiden como como si el Málaga se fuera a jugar el ascenso a Almendralejo, ¿no? Una cosa de este tipo.

Bueno, el caso es que los profesores están preocupados con que la I ayuda a hacer trampas a los alumnos, los chinos le han dado la vuelta a esto. A partir de ahora, los examinadores usarán inteligencia artificial para echar un ojito a cómo se comportan los alumnos y alumnas que hacen el examen. Entonces, la inteligencia artificial para las autoridades chinas es mucho mejor que la supervisión humana, ya que puedes revisar masas de información de vigilancia de forma rápida y precisa. Y ojo, porque ahora que la ILA te vigila si te copias en el examen, las trampas en el gaocao tienen una pena en China de hasta siete años de cárcel.

China, capaz de lo mejor y de la vigilancia más intrusiva posible, pero la verdad yo creo que esto no puede sacarse de China, no hay ningún futuro distópico, gane quien gane el Parlamento Europeo, en el que Europa se ponga a vigilar a los estudiantes de la selectividad para ver si están haciendo trampas con cámaras de inteligencia artificial, pero para mí es un puerta grande, porque si llegan a aplicarlo mis jefes para ver cada cuánto voy a la nevera, pues a lo mejor me quedo sin trabajo, ¿no?

¿No? Bueno, pues puerta grande para la vigilancia masiva china en los exámenes. Te traigo otro invento, Matías, porque ya remataremos con con con los señores y la inteligencia artificial, pero primero, ¿se puede mejorar la cuchara, Matías? ¿Es un invento mejorable? Humberto Eco hablaba de que hay ciertos objetos que han llegado a su pick, ¿no?

Como esto ya no se puede mejorar, ¿no? Hablaba también del del libro físico. Entonces, ¿no? El libro físico ha llegado al culmen, ¿no? No lo puede mejorar.

¿La cuchara se puede mejorar? Pues a lo mejor no, pero hay una gente hay una gente que cree que sí. Investigadores de la Universidad de Waterloop en Canadá están desarrollando una tecnología que analiza en vídeo cada cucharada, que una persona se lleva a la boca para determinar su ingesta de calorías. Es la cucharada video vigilada, Matías. Esto hace más preciso que los servicios actuales, el que se basan solo en las fotos de la comida, que a la hora de captar qué ingrediente es alguien un guiso, por ejemplo, y los investigadores afirman que el margen de error es del cuatro coma cuatro por ciento a la hora de calcular la cantidad de comida que se ingiere.

Entonces, se viene con inteligencia artificial, Mati, el cuchareo video vigilado para cuantificar a exactamente todas las calorías y nutrición y información nutricional de lo que te estás zampando.

Sentimientos encontrados, sentimientos encontrados porque justo estamos tú y yo en una etapa en la que queremos subir nuestras marcas en el crossfit, entonces vigilamos todo, la técnica, el consumo de proteína, de creatina, pero hay cosas que no que no hay que mejorar, hay cosas que ya están bien. Me recuerda a el vídeo este cebollín, ¿no? Y de de cosas. No, el espeto malagueño, que que es clavarle a la sardina un palo, hacerlo ahí en sobre arena, en un en un bote, y y ponerle un poco de sal, no necesita mejora. Eso ya es perfecto.

No hace falta ponerle cebollino y pimiento. Hay cosas que están bien con la simpleza en la que han sido concebidos.

Sí. Claro, en este mundo de tanta tecnología, la búsqueda de una vida más sencilla es fundamental. Yo fíjate, el otro día pensaba, creo que mi relación con OpenEye se parece a mi relación con Frigo Magnum, es decir, por un lado, digo, vamos a ver, Open y Air, al igual que FigoMagnum, me me están me están estafando, me están me están robando. ¿Por qué? Porque yo me compro lo lo los magnum y cada vez son más pequeños, Mati.

Es decir, es un atraco, año tras año eso mengua, eso eso ya es que si no te comes dos, no te no te enteras. Pero a la vez, joder, qué invento. Es decir, esta gente tiene el manum doble caramelo.

Es mejor para ti.

Es decir, tú puedes estar en contra de una empresa que hace el manum doble caramelo, es imposible, ¿no? De repente te tocan esa sensibilidad, hacen esa innovación, es como tú con Elon, ¿no? Es como decir, bueno, como has hecho esto, te perdono todo lo demás, ¿no? Entonces, es verdad que eso eso sucede y que y que al final somos personas emocionales, Matías. Último, último atención, porque te queda de elegir de dos señores y sus relaciones con la inteligencia artificial, Mati.

Tienes que quedarte con uno, uno tiene que ser puerta grande y el otro enfermería, que aquí te la está jugando. Por un lado tenemos a Robe Iniesta, Mati. Inexplicablemente, Robe, probócha GPT, Robe Iniesta, el líder de Extremoduro, hará en una carrera en solitario. Por cierto, yo quiero ir a verlo a Málaga, que viene que viene de gira y los conciertos de Robe en los últimos años están siendo acojonantes, buenísimo, Matte. Bueno, pues el amigo Robe no está contento con ChatGPT porque le preguntó quién ganaría una pelea, hostia, si Jesucristo y Mahoma, y Chagete, pues no se mojó, no no le dio una respuesta contundente a Robe, que era lo que él estaba buscando, ¿no?

Entonces, él, de alguna manera, ha hecho la gran crítica a a la inteligencia artificial, que es demasiado Flander, lo hemos comentado mucho en el podcast y Robe nos nos da la razón, ¿no? Ese es un candidato, ¿no? Robe como el gran, ¿no? El gran escrutinio de la inteligencia artificial. Pero por otro lado tenemos a Alvice, a Alvice, Matti, porque como muy bien tuiteaste, que estás tuiteando con un alto nivel, Mattias, él cuando sale en la noche electoral

En la sala.

Con el

con el con

la Hay una ardilla allí dibujada, se acabó la fiesta y suena una canción, una canción que tiene absolutamente todas las vibras de estar creada con Zuno Kiai. Es decir, Albise es que a lo mejor es oyente del podcast, Matthew. ¿Por qué? Porque no anticipamos nosotros que gran parte del del del mercado de la inteligencia artificial, la generación de música iba a estar en que los músicos desatienden muchas temáticas y muchos intereses de la gente, como por ejemplo, la canción dedicada a Carta Amestación, que creamos nosotros y la pinchamos en en el en el programa. Entonces, claro, como las clases creativas, los músicos son son más progresistas, ¿no?

No no le va tanto el el populismo este de derechas, de extremo de de Albise, pues claro, dice, nadie me va a crear una canción, se la voy a pedir a la inteligencia artificial. Entonces, claro, por un lado, Albise tiene todas las cosas estas de Albise, ¿no? De un tío muy extremo, muy populista, muy muy faltón, todo ese rollo, pero puede que escuche el podcast. Entonces, tienes que mojarte, Mati, tienes que apostar o por Robe habla o por el vicepe

pagaría por ver todo lo que Robe habla con ChatGPT, eso tiene que ser una fantasía increíble. Y por otro, que una persona, que en realidad no sabemos quién le ha metido dinero por detrás, que a lo mejor hay sorpresas, con inteligencia artificial, que el logo de la ardilla con la máscara esta de U de Vendetta, también seguro que está hecha con I, que la canción está hecha con

I,

que partido se llama Se acabó la fiesta y lo que hacen para celebrar es una fiesta en la sala CATCH de Madrid y consigue tres eurodiputados. Cierto Sigma alfa persona chat hay ahí detrás, y me hace pensar, ¿y si yo en lugar de un podcast hubiera intentado ser el eurodiputado gracias al impulso de la IEA? Entonces, es es complicado, es es

complicado. Es complicado. Bueno, a veces no no tenemos todas las respuestas, Mati, tendríamos que pensarlo, habrá que hacer una reflexión, se acabó la fiesta y, bueno, yo yo le voy a confesar a la audiencia que no he votado al Vice Pérez y que y que, bueno, nos hemos ido de tiempo, Mario, pero muchísimo. Creo que habría que ir cerrando

Bueno, nos vemos la semana que viene con más helados Magnum Doble Caramedu y más inteligencia artificial, con Antonio Ortiz, con Matías Zavia. Moros estolásticos. Un abrazo.

Chao, Anix.

Episodios recientes

Programas relacionados