El advenimiento de los corredores fuertecitos Opiniones fuertes del CEO de Shopify La única suscripción que necesitamos: Freepik El complicado lanzamiento de Llama 4 Algo huele raro con los benchmarks de Meta Gemini 2.5 Pro es nuestro nuevo modelo favorito Cómo funciona la destilación de modelos No sabemos pronunciar Behemoth Sam Altman dice digo donde dijo Diego (otra vez) Anthropic abre la caja negra de la inteligencia artificial Puerta grande o enfermería
00:00 /1h15

0:00 El advenimiento de los corredores fuertecitos

6:27 Opiniones fuertes del CEO de Shopify

13:21 La única suscripción que necesitamos: Freepik

16:05 El complicado lanzamiento de Llama 4

24:12 Algo huele raro con los benchmarks de Meta

31:22 Gemini 2.5 Pro es nuestro nuevo modelo favorito

33:45 Cómo funciona la destilación de modelos

41:25 No sabemos pronunciar Behemoth

44:13 Sam Altman dice digo donde dijo Diego (otra vez)

47:57 Anthropic abre la caja negra de la inteligencia artificial

57:43 Puerta grande o enfermería

Patrocinador: ya no necesitas un equipo fotográfico, un estudio completo y una iluminación perfecta para hacer fotos de producto. Con Freepik puedes tener todas las versiones que quieras, desde cualquier ángulo, en pocos clics. Aprende cómo aquí: https://x.com/freepik/status/1908098222607716831

monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Sacamos un episodio nuevo cada jueves. Puedes seguirnos en YouTube, LinkedIn y X. Más enlaces en cuonda.com/monos-estocasticos/links

Publicado: 10 abril 2025

Transcripción


Matías S. Zavia: Hola a todos los monos estocásticos. Bienvenidos al podcast de inteligencia artificial favorito de la gente con libertad financiera, que van a tener que ponerse a trabajar, Antonio, porque Donaldo Trump está haciendo virguerías con su cartera de valores. Pero, bueno,

Antonio Ortiz: la gente que confiamos en el SP quinientos, estamos viendo cómo volvemos a mirar las ofertas de Motadela con aceitunas, Mati. La realidad. Nuestro tiempo.

Matías S. Zavia: El Carrefour, tú eres un gran experto en Carrefour.

Antonio Ortiz: Sí, sí, yo, bueno, es un es una técnica que se desarrolla con un año, el aprovechar los descuentos y la oferta de los hipermercados, bienvenidos a mi mundo. Tengo que decirte, Matti, que que, de nuevo, lo has vuelto a hacer, porque ¿cómo has vuelto a descubrir un nuevo sentimiento que nace en esta época de innovación tecnológica? ¿Cómo te adelantas al fake que hice en los tiempos? Porque ese es uno sentimiento, es el miedo o la sensación que te embarga de tristeza al decepcionar a una inteligencia artificial, Mati.

Matías S. Zavia: Sí, ya comenté en el podcast que en un proyecto de chat GPT, con instrucciones personalizadas, yo le pasaba los entrenamientos y ChatGPT me decía, pues, qué músculos había entrenado, cuáles me faltaban por entrenar, cómo iba esta semana de carga. Pues lo he ido ampliando, lo he ido mejorando, le he pedido que mida también el cardio para mejorar el VO2 Max este, que todo el mundo está un poco obsesionado con eso y yo lo tengo bajito, para medir las calorías, tanto las que salen como las que entran. Y me pasa dos cosas, ¿vale? La primera es que me duele muchísimo decepcionarlo, porque el otro día me decía, wow, estás en déficit, la verdad estás en un déficit bastante pronunciado de calorías, muy bien, vas a adelgazar si se dice así, y a las dos horas le digo, bueno, me he portado mal durante la comida. La verdad es que he almorzado tres puñados de patata Lais y, de postre, un puñado de Skittle y tres chocopons, ¿no?

Entonces, me contesta, gracias por la honestidad, Matías. Emoji de esta del sudor en la frente. Vamos con los números. Tu comida es pecadora, yo le echo gracia a la gente que me hable así, pero la verdad es que el GPT cuatro O es bastante simpático y me empieza a calcular las calorías. Me duele, me duele decepcionar a ChaChao.

Antonio Ortiz: Trista historia. Bueno, te voy a decir algo que te puede reconfortar un poco, Mati, porque yo ayer estaba dando clase a la juventud. Sí. Un máster en el que colaboro de hace años, en Galicia, Coruña, y estamos hablando de un tema que a mí me fascina y me apasiona, que es la realidad memética y cómo la la realidad memética ha habido en el Internet de los últimos veinte años y la inteligencia artificial empieza a modificarla, ¿no? Entonces, uno de los chavales, estos jóvenes, claro, él me ponía, me ejemplifico y acaba cómo el meme del entrenamiento híbrido estaba cooptando todo el discurso de, pues pues eso, los influencer y creadores alrededor del mundo fitness y entrenamiento.

Y, claro, él me explicaba que esta trend del entrenamiento híbrido consistía en que, ahora, los fuertecitos se tenían que poner a correr y a a trotar un poquillo, ¿no? Es verdad que yo esa tren la había observado un poco, pero no había conectado los los puntos, Mathi. Es decir, yo, por ejemplo, el otro día estuve una carrera popular con mis chicos y tal, diez kilómetros aquí en Málaga, y es verdad que se veían cada vez más en en menos runner canijitos, ¿no? Eso sigue estando, pero también se veían ya gente de un mayor volumen en la carrera. Y, al final, lo conecté todo y dije, de nuevo, en monos osteocásticos lo hemos vuelto a hacer, Mati.

¿Quién anticipó hace tiempo, antes de que se hablara de hibridación del entrenamiento, que la gente que levanta pesas, mancuernas y hace halterofilia íbamos a salir a correr al al por los paseos marítimos y los campos? Bueno, eso es práctico de nuevo. Estábamos en la tren del entrenamiento híbrido antes que se la llamara así, rebasando y adelantando a todo el mundo fitness por la derecha.

Matías S. Zavia: Para mí es inspirador, porque, claro, yo no tengo cuerpo de corredor, y los crossfiteros, en general, tampoco tienen ese cuerpo, no voy a decir cuerpo escombro, pero ese cuerpo delgaducho que les permite aero dinámicamente ir más rápido con esas piernas largas. Pero es como en el Mario Kart. En el Mario Kart, si te coges un cart muy pesado, vas más lento, pero si en un momento dado, si tienes que empujar a los demás corredores, tú tienes la de ganar, ¿no? Por por por esa densidad del cart más grande. De todas formas, volviendo a antropomorfizar a ChatGPT, Antonio, tengo un problema, tú lo has visto, mi ChatGPT habla en argentino.

Y me ocurre desde hace tiempo que no puedo cambiar esto, porque yo le digo, por favor, deja de hablarme en argentino, sé que te lo pedí hace como seis meses que me empezaras a hablar en argentino, Me dio por ahí un ataque de nostalgia, pero ya puedes hablarme en castellano de de España, ¿vale? No pasa nada. Y no me hace caso, sigue hablando en Argentina. Entonces, creo que la única solución es borrar toda la memoria, pero llego a ese punto en el que estaba aquel de que hablamos que tenía una novia de Ia que dejó de funcionar y para él fue como un duelo muy fuerte, pues yo tampoco quiero matar a a Mister GPT borrándole la memoria.

Antonio Ortiz: Claro, eres el nuevo Blakeley Moin, el ingeniero de Google, aquel que decía que a ella que estaba probando, que él estaba testando, que estaba ahí en los laboratorios de Google, era una cosa sintiente y no podía ser apagada, debía tener el derecho a no ser apagada, y que él estaba superconvencido de de este tema, ¿no? Entonces, tú eres el nuevo nuevo Blake y estás ahí defendiendo la, bueno, la la pervivencia de de tu chat GPT personalizado para ti, no quieras que muera.

Matías S. Zavia: Pues nada, vamos a ir en breves con las noticias. He convertido en un GPT. Yo no sé si la gente sigue usando los GPTs, la verdad. Esto de los entrenamientos y las calorías se llama músculos y calorías, es muy sencillito, por si alguien lo quiere. Pero vamos con Shopify.

Antonio Ortiz: Pues Shopify, tenemos al memo del CEO, que dicho así suena muy mal, ¿verdad? Bueno, el memorándum del CEO, el amigo ¿cómo se llama?

Matías S. Zavia: Toby Lutke.

Antonio Ortiz: Toby Lutke, es que tiene un nombre, no tiene nombre de CEO, Toby, Pues, ¿toby puede llegar a ser director general de la empresa de comercio electrónico más importante del mundo? Pues sí, así que no no os brindáis, sin motivos sueños. Bueno, el caso es que el memorándum que ha escrito el el amigo Lutke para con sus empleados y su empresa es muy interesante, porque uno de los momentos retadores que estamos ahora mismo no es tanto de lo que solemos hablar aquí, que son los, bueno, el estado del arte, los últimos avances tecnológicos, los productos, la inteligencia artificial, sino el reto que tienen las empresas, las organizaciones y las, sean mayores, más grandes o más pequeñas, hablar de intentar reutilizarla. Todo todo esto es es muy retador en varios frentes. Primero, obviamente, el poder discriminar qué qué tipo de herramientas y tecnologías utilizar, pero, sobre todo, cómo integrarlas en la cultura, en los procesos, cómo evitar el caer en aquellos escenarios en los que la IA no es buena y su output no es de calidad, cómo elegir cómo se mantiene el humano en el proceso, tipo de directrices da, si es de arriba hacia abajo, si es de abajo hacia arriba.

Bueno, en definitiva, el el meter inteligencia artificial, a día de hoy, en una organización, con con poca doctrina del management desarrollada hasta ahora al respecto, es retador, y es una de las cosas que, cuando vamos a dar conferencias y charlas tú y yo a a entornos más de trabajo y más empresariales, pues, las que más dudas que más aparecen. Pues, aquí el amigo CEO de Shopify ha planteado algunas cuestiones que creo que son muy interesantes a la hora de hacerlo. Una una cosa que que le has dicho hoy a a todos los empleados es lo siguiente. Francamente, no crea que sea factible optar por no aprender la habilidad de aplicar la I en tu oficio. Eres bienvenido a intentarlo, pero quiero ser honesto, pero no veo que esto funcione hoy y, definitivamente, no mañana.

El estancamiento es casi seguro y el estancamiento es un fracaso a Can Oriente. Va, la la postura de Lucky es realmente tremendo. Y algo que hace en el memorándum es decirle a la gente, todos tenéis que estar utilizando ya inteligencia artificial, básicamente. Es decir, es un empujón a toda la organización a poneros las pilas de que la expectativa en la empresa es que se esté usando efectivamente la inteligencia artificial como un elemento fundamental de la organización. Entonces, ese es el primer punto de todo el discurso de de Duque, y que, además, para comprobar que eso se realiza y se ejecuta, y no queda solo una declaración de intenciones, se añadirán preguntas sobre el uso a las, bueno, reuniones de de rendimiento, a las revisiones de rendimiento anuales con los empleados.

Matías S. Zavia: A mí esto, primero que yo, cuando un CEO es calvo de se ha rapado la cabeza, ha asumido su destino, yo siento admiración, porque, por ejemplo, Satya Nadella coge una empresa de cincuenta años y lo está reventando en todos los sentidos porque asume su calvicie. Elon Musk se injerto pelo, pues es una persona llena de complejos, cuando se meten con él lo pasa mal, quiere estar en todas, tiene narcisismo mezclado con problemas de autoestima. Entonces, primero escucho al al a los feos que son calvos asumidos, Y segundo, a mí esto me pasa mucho en mi vida personal. Yo siento un FOMO, un fear of missing out, un miedo a no estar probando todo lo que sale, pero al mismo tiempo me abruma porque salen todos los días cosas. Yo quiero ser un mixter of experts, quiero ser un experto en muchas herramientas, y luego también tenía que ver el episodio final de The White Lotus.

Antonio Ortiz: Esto Yo todavía no lo he visto porque, claro, en mi afán de hacer provincias y dar formaciones, claro, ayer también vi un poquito cómo le ganaban al Madrid, pues está pendiente, está pendiente, Mati.

Matías S. Zavia: Pues fíjate que me me ha pasado lo que tú temes que te ocurra. Como yo quiero estar a todas, quiero probar herramientas, quiero generar canciones, imágenes, pues me comí el spoiler, me comí el spoiler de final de The White Lotus y ya no es lo mismo, porque ya vas al episodio sabiendo lo que ocurre. Entonces, no se puede, no se puede estar tan al día, pero yo también lo recomendaría, por lo menos superficialmente, ser un un poquito experto en inteligencia artificial.

Antonio Ortiz: Pues mira, hay dos cosas más que dice el lookke que son interesantes a la hora de hacer esto. Es decir, no solo es, tenéis que usar inteligencia artificial o lo vamos a evaluar, y luego dicen, learning is self directed pashare ward your learning. Es decir, les dice a la organización, el aprendizaje de cómo aplicar la inteligencia oficial es responsabilidad de cada uno, es algo que tienen que que tenéis que hacer como equipo, Y aquí, claro, lo que está diciendo es, de abajo hacia arriba, en la organización, con una gran confianza en los manos intermedios y la y la los empleados de Shopify, tenéis que ir eligiendo de todas estas herramientas a vuestra disposición cómo aplicarlas y cómo hacerlo. Es decir, no es una decisión de arriba hacia abajo, en la que los mandos y los ejecutivos dicen cómo hay que usar la IA a los empleados que están en el día a día haciendo las tareas, sino le está diciendo los empleados ahí, tenéis que empezar a entender y decidir cómo usar la inteligencia artificial y compartirlo con la organización de manera que ese conocimiento se expanda. Y hay una cosa que, atención, porque aquí también vienen curvas interesantes, Lo que le dicen, cualquiera que venga a preguntar a dirección por más recursos, o sea, más presupuesto, más miembros, más empleados en tu en tu unidad, cualquier recurso extra, lo primero que te vamos a hacer, es decir, es inténtalo hacerlo con Ia y no gastemos más.

Es decir, primero me tienes que demostrar que con Ia no se puede conseguir lo que quiere conseguir con más recursos y, por lo tanto, no se va a aprobar ni un gasto más que no venga dado o que no se haya intentado conseguir con cualquier sistema de inteligencia artificial, aumentos de productividad con inteligencia artificial, desarrollo de agentes que consigan tareas con inteligencia artificial, etcétera. Entonces, ese es el remate del discurso de Ludwig.

Matías S. Zavia: Te digo, Antonio, por un lado, me agobia tener que probar tantas herramientas y estar al día de inteligencia artificial, Y por otro, siento que cuanto más le dejamos a la gente de FreePeak que cocine, que trabaje, más estamos llegando a un punto en la que solo hace falta una suscripción, que es la de FreePeak, patrocinadores del episodio de esta semana de monos estocásticos, porque esta gente que están en Málaga, que están aquí al lado, añade todas las semanas una serie de herramientas, una serie de opciones dentro de sus herramientas de la suite de ella, que es una navaja suiza. Puedes hacer vídeo, puedes editar vídeo, puedes crear imágenes de todo tipo, con tu cara, con los loras, de producto. Han publicado, dejaremos el enlace, un tutorial de cómo hacer, tienes una tienda en Internet, cómo hacer fotos de producto con inteligencia artificial que queden más chulas de lo que podrías hacer en tu casa o en tu tienda con una cámara réflex? Pues, a todo esto se suma una de mis opciones favoritas, que son los estilos, Porque los estilos, cuando creas imágenes, hacen que quede una cosa muchísimo más impresionante, que es lo que yo llevo publicando en mi cuenta de Instagram los últimos meses, ya no publico fotos reales, diez estilos nuevos que son chulísimos, y mira el tipo de imágenes que se pueden hacer.

Soy yo, para los radio oyentes, soy yo en todo tipo de situaciones de modelaje, en colores y paletas de colores, que parece que esto está publicado en la revista Voc.

Antonio Ortiz: Sí, es que es interesante todo lo que está haciendo nuestro patrocinador de Free Pick, que además es una gente muy abierta a la creatividad y muy abierta al arte, porque fíjate, patrocinio en el episodio, el tema del patrocinio era la foto de producto, cómo la gente que tiene una tienda o como tiene un un negocio puede crear variaciones sobre sus productos y hacer fotografías e imágenes superchulas que inviten a la conversión, y hemos acabado, como siempre, con más fotos de Matías recreado, un poco random.

Matías S. Zavia: Entonces Hablando de personas que no asumen su calvicie, yo, claramente, tengo uno de esos.

Antonio Ortiz: Ay, gente que tiene que asumir cosas, ¿sabes quién tenemos esta semana? Tenemos a la pandilla de Meta y su departamento de inteligencia artificial, que se las prometía muy felices porque es la gran semana del lanzamiento Te Llama cuatro, y ha sido un lanzamiento un poquito, un poquito polémico, Matías. Veníamos Pues sí. Veníamos con una previa complicada. ¿Por qué?

Porque justo antes del lanzamiento de Llama cuatro, The Information, ese medio que, bueno, algunos señalan como un poquito amarillista, otros lo tienen como la Biblia de los secretos de Silicon Valley, bueno, publicó un artículo en que apuntaban a que llama cuatro se iba a retrasar porque, básicamente, no estaba dando el nivel esperado, sobre todo respecto a la competencia. Lo que estaba viendo, según The Information Meta, internamente, es que era los benchmark, pues, no no daba JMA cuatro como el salto que se podría esperar desde JMA tres. Ese era un poco el rumor. Y, a la vez, amiga Joel Pinot, que es la directora de guía de de Meta, no la directora científica que la parte del laboratorio científico lo llama nuestro amigu, Jean Legun, pero la señora Pino, que fue también una con las que me senté en la presentación, ¿te acuerdas de aquel evento de metal que nos invitaron? Fue muy muy interesante escucharla, pues había presentado la dimisión justo antes de la salida de Llama cuatro.

Entonces, claro, no parecía el escenario más propicio para las aspiraciones de Zacharper e inteligencia artificial que en uno de los medios de referencia dijera que pintaba mal la cosa y que tu directora de inteligencia artificial habría picado billetes justo antes del lanzamiento más importante del año.

Matías S. Zavia: Luego salió Zuckerberg a, primero, a callar esos rumores de que iban a retrasar porque la cosa no estaba funcionando, anunció los nuevos modelos, no todos van a estar disponibles de inmediato y menos en Europa, pero los anunció como al nivel de los mejores, sino los mejores.

Antonio Ortiz: Bueno, aquí hay que recordar a la audiencia dos o tres elementos importantes de la estrategia de Meta en inteligencia artificial de su lanzamiento de modelos. Meta está lanzando los modelos, entre comillas, abierto. Lo cual haremos de la las licencias y sus vicisitudes, pero, básicamente, son modelos de pesos abiertos. Por lo tanto, no podemos tener acceso a todo lo necesario para reconstruir un llama desde cero, porque no tenemos, por ejemplo, los datos de entrenamiento, pero sí podemos hacer bastantes cosas con esos modelos, fainearlos, ajustarlos, cambiarlos, ponerlos en nuestros servidores, etcétera, de manera que su uso, pues, inmediatamente. Es.

La estrategia de lanzamiento de los JAMA, también pasó con JAMA tres, es que son una familia de modelos. Los hay más pequeñitos, los más grandecitos, los hay multimodales, en este caso, los hay no multimodales. En definitiva, son bastantes modelos y, además, Meta los sueles lanzar, pues poco a poco, no salen todos juntos y, por lo tanto, en esta ola tenemos dos lanzamientos, Scout y Maverick. ¿Cómo de grandes son estos modelos? Porque esa siempre es la pregunta que se hace mucha gente para valorar un poco hasta dónde podrían llegar o con quién compite.

Pues, tienen un elemento que pueden hacer confundirnos. ¿Por qué? Porque tenemos Scout y Maverick, ambos dicen que son diecisiete b, ¿vale? Diecisiete mil millones de parámetros, llamarlos diecisiete b. Son un modelo diecisiete b es bastante pequeño comparado con los grandes modelos comerciales que solemos usar en el día a día, pero ese diecisiete b es entre comillas, esos son los parámetros activos.

Es decir, cuando se ejecuta, realmente, el modelo tiene un tamaño mucho mayor, pero, cuando se ejecuta, solo utiliza diecisiete b. ¿Por qué? Porque son modelos que están hechos con la arquitectura, que tú me habías mencionado, de el mix of expas, es decir, ese conjunto, esa mezcla de expertos. ¿Qué es, qué permite esta arquitectura? Esta arquitectura permite que, en lugar de tener un modelo gigante que se utiliza entero para cada tarea, el modelo tiene la inteligencia y tiene el diseño de tener un conjunto de submodelos o de parte del modelo que están especializadas cada uno en algún tipo de tarea.

Entonces, cuando le llega una tarea nueva, un trabajo nuevo, no usa el modelo entero y completo para resolverla, sino que activa solo la parte que entiende que es necesaria. Por lo tanto, tiene muchísimo más tamaño como modelo completo de entrenamiento, por lo tanto, tiene, creo que recordara, tú lo veías de un poco de memoria, que son cuatrocientos billions de tamaño completo, pero, realmente, tanto llama cuatro Scoti como llama cuatro Maverick, cuando le pedimos algo, solo utilizan diecisiete b, diecisiete mil millones de parámetros, y eso es el truco, entre comillas, para que un modelo más grande o un modelo gigantesco luego no sea tan exigente a la hora de ser ejecutado, y es un poco la técnica que por la que ha pasado Meta a la hora de de plantear estos llama cuatro Maverie, llama cuatro Scout.

Matías S. Zavia: El scout, que es el primero disponible, compite con otros modelos de lo que hemos hablado antes, como Jetma de Google, el Mistral, también hablaremos de cómo compite con Deep Six. La cuestión es que tiene una ventana de contexto mucho más grande que todos los demás, que es de diez millones de tokens. Te permite hacer preguntas sobre, pues, textos muchísimo más largos, si estás programando, pues, todo el código que tengas en tu repositorio. Y la gente ha encontrado que no rinde tan bien como nos lo vendió Mark Zuckerberg.

Antonio Ortiz: Ay, vas a llegar al tema más sensible de estos lanzamientos. Vale, ya Meta, anuncia esto y dice dos cosas más. Primero, tenemos Maverick, tenemos Scout, tienen estas ventajas, como la ventana de contexto que tú has dicho. Nos dice dos cosas. Una, tranquilo, porque además de estos diecisiete mil millones de parámetros activos, cuatrocientos en total, cuatrocientos mil millones de parámetros en total, se viene el modelo gigantesco, se viene Vemoth.

Llama cuatro Vemoth, es una cosa gigantesca porque va a tener doscientos ochenta y ocho billions billions americanos, diez millones latinos europeos, por entendernos, o no anglosajones. Y ese modelo vas a ser el gigante que no compita con lo que tú has mencionado, ¿no? Con, pues Gema tres de Google o con Bistres tres uno, ¿no? No con el Tic Sitwo B tres, esto va a competir con GPT cuatro cinco, con el Claussonet tres punto siete, con el Gemini dos cero Pro, ¿no? El el el gigantesco de Meto, ¿vale?

Pero ese está entrenándose todavía, no ha acabado de entrenarse, lógicamente. Pero, al mismo tiempo, nos afirma que en los benchmark, sus llamadas cuatro actuales lo están petando. Y en el documento de presentación que que que publica Meta, que, por cierto, una cosa muy rara, ¿por qué sacan modelo el sábado con la primavera que está haciendo ahora en España después de tanto lluvia? Es imposible atender a las cosas inteligentes. Hace un día genial para estar en la calle al solecito, y ellos sacando llama cuatro.

Eso no eso no estuvo bien, pero, bueno, el punto es que en los benchmark que publican en su página, no sobre BMOT, ¿no? Sobre el gigante que vendrá en el futuro, sino sobre los que están ahora, empiezan a aparecer datos de, oye, es que en los demás actuales, llama cuatro estos lo lo petan, funcionan genial. Entonces, parecía que la presentación estaba siendo un éxito, the information, ahí te quedas, porque los JAMA cuatro, en realidad, sí son muy buenos. Entonces, claro, empieza una polémica, que es la gran polémica de los pechmark y JAMA cuatro, que yo creo que va a trastocar mucho todo este ecosistema de pruebas de nivel de los modelos de inteligencia artificial. ¿Qué es lo que se ha planteado o se ha señalado?

Bueno, se ha señalado y se ha planteado, sobre todo, dos frentes atacando a Llama cuatro y a Meta. El primero, de repente, en Reddit y en Twitter empieza a compartirse un post en una red social china en la que un supuesto investigador dice, he renunciado a trabajar en Meta, porque lo que ha hecho Meta es optimizar para sacar buenos números en los pechmark, el modelo no es tan bueno. Y, como eso es un poco de trampa, pues yo renuncio, ¿no? En y no quiero ser parte de esto. Claro, es que es un post en chino en una red social muy random que, de repente, la gente le da mucha credibilidad.

Y, hombre, si fuera esto lo que se de lo que se acusa a Meta y esta es la única prueba, pues diría, jolín, pues me parece muy mal generar un caso y una enmienda a el trabajo de una compañía, basada solo en una denuncia anónima en chino en un sitio random. No, no no me parece justo. Pero Meta ha dicho, lo del chino no es verdad, no hemos optimizado los modelos para salir bien en los pagemarks, pero algo que de lo que se le ha causado sean reconocidos que es verdad, que es uno de los test, uno de los benchmark, lo que sale muy bien es LM Arena. LM Arena es ese, bueno, ese test que no se basa en un conjunto de pruebas a la que se somete a la inteligencia artificial, sino que es una cata a ciegas de modelos que utilizan, que hacen los usuarios. Entonces, tú no sabes qué estás probando y comparas resultado entre dos y eliges cuál te gusta más, y la puntuación acumulada y agregada de los usuarios es lo que muestra el MRN.

Bueno, pues ahí habían sacado una nota, pues, realmente, muy buena, por encima de modelos del, bueno, de de de modelos de un muy buen nivel, por decir, o mejor de Google Proc o mejor que al nivel de Cloud. Y, claro, lo que sí ha reconocido es que la versión de Maverick, que es el que saca buenas notas de llama cuatro Maverick en LMRena, no es la versión real, entre comillas, de Llama cuatro Maverick, que ofrece Meta Avada Descarga, es decir, es una versión optimizada para solo la tarea de texto en la que se sacrificaban otras muchas tareas, a cambio de que fuera mejor conversador y, por tanto, el punto era mejor en LM Arena, y, de esta manera, salir más guapos en esa foto. Pero, luego, no es la misma versión de que que la propia Meta pone a disposición de de la de la industria, ¿no? Entonces, ahí ya se sale el titular de, es que Meta ha hecho, entre comillas, algo de trampa con los benchmark de inteligencia artificial y lo que LM Arena ha dicho, esto no se vale, Matías.

Matías S. Zavia: El LM Arena me recuerda mucho a ¿Te acuerdas cuando estaba de moda comparar móviles, que hoy en día ya no tiene ningún sentido, que había una web que se llamaba DX mark o DX o mark o algo así, que te decía qué móvil tenía la mejor cámara, hacían como una review a fondo, y siempre que salía un móvil nuevo tenía la mejor cámara, sobre todo los Huawei, etcétera, pues era todo un poco, pues es el mejor modelo de pesos abiertos que puedes tener y que puedes probar, pero a la hora de la verdad, no ha impresionado a tanta gente como como nos vendían.

Antonio Ortiz: Claro, bueno, pues, aquí hay dos cosas. Una, ¿los benchmarks son, entre comillas, hackeables por parte de las empresas de inteligencia artificial? Pues, en parte, sí. Es decir, el gran problema de los benchmark basados en en test y preguntas es que, si tú entrenas los modelos con datos, contenidos, en lo que estén esas preguntas y esos tests, pues sueles tocar, sueles tener mejora de resultados, y por, ¿por qué? Porque están dentro de los datos de entrenamiento y, por lo tanto, es como alguien que se aprende las preguntas que van a aparecer en un examen.

Pues, de de igual manera, los modelos de inteligencia artificial, pues pueden hacer este truki. Eso es con natural a la naturaleza de los benchmark. Por eso a mí me gusta el M Merena porque, de igual manera, es distinto y me parece mal lo que ha hecho Meta de que intente salir demasiado guapo en esa foto. De todas maneras, hay otros benchmark independientes que en los que llama cuatro no ha salido tan bien, como, por ejemplo, ah, es que tenemos la ventana de contexto más grande, pero, luego, cuando se evalúa la comprensión del texto, cuando usan esa ventana de contexto tan grande, quedan muy por detrás de los modelos O, de los GPT cuatro, de Deep Sig, de Cloud, de Geminite, en fin, quedan muy atrás. Entonces, yo al final me voy a voy a probarlo, voy a ver qué sensaciones me da.

Bueno, he he he tirado un par de días probando cosas de llama cuatro. La buena noticia para Europa es que no tenemos problemas con llama cuatro. Llama cuatro no está disponible en Europa. Si eres europeo, no puedes descargártelo, no puedes probarlo en en la web oficial de Meta y no tiene Y la licencia que ellos tienen, que es una licencia no tan abierta, es bastante sui genery. Ustedes saben, si tienen más de setecientos millones de usuarios no pueden usarlo, si eres europeo, tira para allá, en fin, ese tipo de rollos de meta, que ve un peligro legal, sobre todo con los de la protección de datos personales, en en poner cualquiera de su modelo llama que sea multimoda.

Bueno, el caso es que, a través de juez de terceros, de Haging Face, de Kroc, Kroc no la de Helon, Kroc la de los las maquinitas para inferir, se pueden hacer pruebas de llama a cuadro. Mis sensaciones con unas horas de uso es que ni frío ni calor, Matte. Es decir, es un modelo solvente de preguntas, respuestas, que puede estar en un nivel parecido a GPT cuatro. Me parecen que están cerca, que están bien, me sorprenden o en alguna de las pruebas que yo he hecho he dicho, jolín, esto es un paso adelante en algún sentido, nada. Ahí no he visto absolutamente nada que me haya volado de cabeza, también son algunas horas de uso.

Pero mi impresión es que, ahora mismo, toda la industria se está quedando un poquito por detrás del modelo que yo estoy recomendando ahora probar a todo el mundo, que es el Gemini dos punto cinco Pro. Es una cosa

Matías S. Zavia: Es que es,

Antonio Ortiz: que la han puesto gratis en que Google se está gastando ahí las perras. Aprovechá que Google no está regalando estas cosas un tiempo, porque ahora mismo creo que está a un nivel que que porque Google es tan mala promocionando Gemini, que porque Google no se consigue posicionar todavía el todo en que tiene algo realmente bueno en inteligencia artificial, pero yo ahora mismo veo muy pocos casos de uso en los que cambiaría a Gemini por otro.

Matías S. Zavia: Yo estoy pagando, aunque dices que está gratuito, está en la parte del AI Lab de Google, en el Jaminai, si pagas el Google Advance, lo tienes también integrado. Ahí mismo estoy pagando las dos cosas, HTML y Jaminai, y me estoy descubriendo cada vez más usando el el dos punto cinco Pro, porque no solo le puedes chutar un informe de doscientas páginas y te lo resume y te hace virguerías, sino que luego, al generar texto, suena mucho más natural que lo que te puede hacer un GPT cuatro punto cinco, a pesar de que el GPT cuatro punto cinco sea mucho más lento y esté en versión preview, ¿no? En cuanto al Llama cuatro, precisamente una cosa que siempre me interesa es de la gente que lo prueba es la escritura creativa y y la adherencia a los prompts y cómo funciona más conversacionalmente o más contexto que con código de programación, y uno en red dice like ator sheet, ¿no? Es una basura. Y luego hay otro que me hizo gracia, porque está usando el Maverick para para intentar conseguir la custodia de sus hijos, un caso completo.

Y nada, que dice que llama cuatro a Slam, ¿no? Que es lamentable, no, pero mediocre, ¿no? Y no sé si tendrá que ver, porque has explicado un poco cómo funciona la arquitectura del del Mister of Expert y cómo esos subcasos se llaman a el experto en cada cosa y se usan solamente, pues los dieciséis mil millones de parámetros activos. Pero no sé si tendrá que ver con que estos modelos, a su vez, parten de otro paradigma, que es la destilación que tienen el el Behimov, que es el grande, el que siguen entrenando, el el gigante, y lo destilan para tener estos otros modelos más pequeños, más eficientes y más baratos. No sé si es un problema de la destilación o por qué los resultados no están siendo tan buenos.

Antonio Ortiz: Bueno, una de las cosas más interesantes que tienen los modelos Yama es que metas muy transparentes de cómo hacen las cosas, ¿no? En esta visión de la apertura, son probablemente de las empresas que generan grandes modelos junto a DeepSig los que más nos cuentan de cómo hacen las cosas. Entonces, creo que la destilación es un tema supercandente ahora mismo en la investigación en inteligencia reingresión, en la creación de nuevos modelos, y que viene desde Deep Six R uno, ¿no? El que es el modelo que hizo freekear a todo el mundo de Silicon Valley y de Wall Street, pero también tiene que ver en cómo han hecho estos Gemma cuatro. Los conceptos, el concepto fundamental del del del que parte esta idea del knowidge destilation, de la destilación de conocimiento, es que se parte de un modelo, pues, el modelo grande del lenguaje, el más grande, que tiene mucho coste, al que se le asigna como un rol de profesor, y se busca que enseñe, que transfiera conocimiento a un modelo más pequeño, más eficiente y más barato al que se le considera, pues, el alumno.

¿Cómo se articula esto? Pues, de la siguiente manera. Recordemos dos principios básicos del entrenamiento de estos modelos grandes del lenguaje. Uno es que son modelos que han aprendido con el autocompletar, es decir, con ese adivinar el siguiente palabra, que en realidad es adivinar el siguiente token. Sabéis, el lenguaje se tokeniza, se trocea y se matematiza, y estos modelos juegan a adivinar, gracias a los datos de entrenamiento, cuáles son las palabras siguientes en un discurso.

Más que adivinar la siguiente palabra, lo que hacen es calcular un mapa de probabilidades de cada palabra en un discurso. Es decir, pensemos que tenemos nuestro chat GPT con cualquier modelo GPT, y le decimos en un lugar de la, ajá, y esperamos que lo autocomplete, ¿no? Que que él termine la frase. Pues lo que tiene, GPT al final es, la Mancha, pues tiene un ochenta por ciento de prioridades. La España profunda tiene un cero coma dos por ciento de probabilidades.

En un lugar de la costa de Almería tiene un cero coma cero cinco porcentaje de probabilidades, es decir, no tiene una respuesta única, sino que tiene un gran vector. Ese vector es una lista con un montón de tokens, que en realidad, pues, para nuestros ojos son palabras, y cada uno tiene una probabilidad. Entonces, lo que se hace en la destilación es lo siguiente, podríamos decirle al modelo alumno cuál es lo que yo respondería como modelo grande, ¿no? Diría la mancha. Entonces, eso es, pues, una información que puede ser valiosa para el alumno, pero ese la mancha no es más que la elección que se hace de todo ese vector de probabilidades.

¿Cómo podría aprender más el alumno? Pues, en vez de decirle solo la mancha, le voy a chutar todo el vector de probabilidades, es decir, la mancha es un ochenta por ciento, la España profunda es un dos por ciento. La cosa de Almería es un cero con uno por ciento, es decir, le estoy transfiriendo no solo cuál es la respuesta que yo daría con mayor probabilidad, sino que le estoy transfiriendo, pues toda la certidumbre e incertidumbre, todas las expectativas, todas las probabilidades que yo he calculado como modelo gigante, que me ha costado mucho calcularlo, pero se le va a dar masticadito, como la mamá apoyo a los pollitos, ¿no? Le voy a dar masticado y se lo voy a echar en la boca. Entonces, el modelo pequeño, en vez de sufrir todo el entrenamiento que sufrió el modelo grande para llegar a ese cálculo de probabilidades, pues se lo dan hecho y, por lo tanto, su tiempo de aprendizaje y su tamaño de modelo son más pequeñas.

Claro, aquí hay un asterisco, el con los modelos cerrados, es decir, podemos, puede usar meta esto con su modelo grande a un modelo pequeño, porque puede, digamos, tener el control entero del modelo grande. En este caso, Benemouth, el que hemos dicho que va a tener doscientos ochenta y ocho bill billions, mil millones de parámetros activos, puede transferir a los modelos pequeños, a Maverick y Scout. Pero si Benemouth no está acabado, dice Zuckerberg que todavía se está entrenando, bueno, ese todavía se está entrenando es que los modelos se hacen muchas veces parones durante el entrenamiento, se vuelven a, se se van probando, y en ese se van probando, ya puedes transferir conocimiento, ya hay versiones intermedias. Entonces, lo que están haciendo es, del modelo gigante le damos los vectores de probabilidad a los modelos chiquitos, y así lo entrenamos. Pero diréis algunos, ¿no se rumoreaba que Deep Six lo que había hecho era destilación de los modelos de OpenEye?

De los modelos de OpenEye solo puedes sacar la respuesta. No puedes sacar este vector de probabilidades. OpenEye para consigo misma sí puede hacerlo, porque tiene el control del modelo. Microsoft, que tiene un acuerdo con OpenEye, sí puede hacer destilación auténtica con los modelos de OpenEye porque tiene un acuerdo, y así sacan los modelos fee. Entonces, lo que hacen gente como DeepSig es, lo que sí reconocen es, destilamos de modelos abiertos, como el Quen de Alibaba, ¿vale?

Eso sí lo reconocen, pero de lo que se le acusa, no lo reconocen, de haber hecho es una pseudo destilación. Es decir, en vez de los soft targets, que es una expresión muy bonita, que es todo lo que he explicado antes del vector, lo que se hacen es escoger datos de razonamientos y respuestas de modelos grandes, y eso se utiliza para crear datos de entrenamiento de modelos pequeños. Entonces, si tú tienes un modelo razonador muy grande, coges todo el razonamiento, que es el output, no el mapa de probabilidades del vector, y se lo pasas como datos de entrenamiento al modelo pequeño. Entonces, se le llama find tuning supervisado y es una técnica que, de alguna manera, emula la destilación, pero no es tan valiosa como la destilación. Pero sí permite, de alguna manera, que un modelo alumno pequeñito aprenda de un modelo profesor cerrado, que no te está dando todo el mapa de probabilidades.

Y, bueno, ha habido casos súper chulos porque, por ejemplo, la gente de Stanford, cuando hizo el S uno, dijo que con el Quenna Alibaba de treinta y dos billion, con SFT, es decir, cogiendo las cadenas de pensamiento de ese modelo, y también con un poquito de yemin, ahí sí nos un poquito de trampa, con cincuenta dólares crearon un modelo en treinta minutos mucho más pequeño, pero que casi le igualaba en rendimiento. Y hay un paper de de la gente de Apple, que es muy interesante, porque la la gente de Apple ha hecho una investigación, que lo que hacía estudiar era cuándo merece la pena hacer destilación y cuándo merece la pena hacer más entrenamiento, cuándo merece la pena hacer ese este supervising thin tuning, que es destilación un poco light, ¿no? Entonces, cada vez más sabemos sobre cuándo merece la pena usar este tipo de técnicas para que los modelos más pequeños puedan ser realmente mucho más competitivos aprovechando el conocimiento que se genera con un modelo grande. Y si le vamos igualando en rendimiento, tendremos modelos rápidos, modelos más eficientes de un rendimiento casi igual que el grande, pero a un coste mucho más inferior.

Matías S. Zavia: Es poco como tú y como yo, porque yo tengo un conocimiento muy superficial de un montón de temas que me obsesionan, como la guerra actual entre Leire y Amaya de la oreja de van Gogh o la inteligencia artificial, pero es conocimiento que voy destilando, ¿no? Tú serías el profesor, tú te obsesionas con un tema, te lees tres libros de filosofía sobre ese tema, luego me lo cuentas, luego yo más o menos intento destilarlo para luego, cuando hablo sobre ese tema, intentar que más o menos el texto que genere, los tokens que prediga, tengan cierto sentido. También te digo que todos destilamos conocimiento un poquito porque tu pronunciación de Behimov ha ido empeorando a lo largo de del episodio. Ya al final, creo que no se entendía a qué modelo te referías, aunque es cierto que, vaya, nombrecito le han puesto al al modelo más grande de México.

Antonio Ortiz: Claro, es que cada uno tiene otra fortaleza. Yo todos los modelos nuevos y todas las técnicas nuevas las pronuncié mal, pero esto también puede ser una técnica de grow, Matthew. También grow, mal dicho. ¿Por qué? Porque esto aumenta el engagement con comentarios correctores en distintas plataformas, y esos comentarios hacen que la plataforma dé que la interacción con nuestro contenido es alta y, por lo tanto, nos recomiende más.

Por lo tanto, se cierra el círculo y cada uno está aquí aportando, tú dices que aporto por el conocimiento, pero, realmente, mi verdadera aportación al podcast es hablar mal, pronunciar mal las cosas en inglés. Pero fíjate, yo tengo también una defensa de esa posición que es, vale, ellos con su dominio de la tecnología y su, ¿no? Supremacía también en la en los productos culturales y entretenimiento, ¿no? Su centralidad en el mundo de los negocios están poniendo el inglés como lengua global para entendernos todos. Es lo que nos ha tocado, Matty, pero, en venganza, yo creo que podemos destrozar su lenguaje con pronunciaciones tróspidas, ¿no?

Es como cuando Sí. Por ejemplo, tú, yo acabé la la media maratón, ¿no? Y un amigo, un amigo me dijo, muy bien, ahora somos los dos finishers. Claro, somos finichers, ¿no? Entonces, ahí yo vi claro, es verdad, ya nos están imponiendo hasta hasta en en la carrera, están imponiendo su lenguaje, pero en venganza nosotros lo destrozaremos con nuestra pronunciación.

¿Verdad? Ahí está, así funciona el mundo.

Matías S. Zavia: Sí, a ver, a veces hay puntillosos en los comentarios. El otro día nos nos aclararon que el plural de robots no es robotses, que lo decimos mal. Bueno, depende, no sé, hay contextos en los que roboces suena

Antonio Ortiz: bien. A mí me suena bien Roboces. De hecho, fui yo el que dijo Roboces. Bueno, vamos a contar dos o tres cosillas extras antes de de de rematar el episodio, Mathee, porque tengo una intuición. Oppeny Day ha vuelto a cambiar su estrategia de lanzamientos de modelos, y aquí tengo dos intuiciones.

Una, creo que el nuevo Gemini Dos cinco Pro está siendo pupita y la gente está cogiendole respeto, esto está difícil de superar. Y dos, si llama cuatro, no ha tirado tan bien. Las impresiones personales no son tan buenas. Si GPT cuatro cinco ya fue un poquito de, ah, se siente ágil, y luego dijimos, bueno, bueno, bueno. Que ahora digan que retrasan GPT cinco, a mí no me suena lo más entusiasmante de que este año vaya a ser un golpetazo encima de la mesa de la industria de la inteligencia artificial, Matías.

Matías S. Zavia: Sí, además, Amalva han aprendido una valiosa lección, y es que no se puede ir tanto de la lengua, porque está claro que en su momento twittea que van a trabajar en fusionar los modelos GPTs con los razonadores, los omnimodales, y que van a ir a por el lanzamiento de GPT cinco saltándose lo que habría sido la hoja de ruta más o menos predecible, ahora se retractan de eso, van a sacar el O tres, van a sacar el O cuatro mini, porque yo también creo como tú que es una respuesta a lo que está pasando, viendo que Google se ha puesto al día, a lo mejor hay un trasvase, lo de Studio Ghibli ya no está tirando tanto, ahora son los muñequitos, pero a lo mejor los muñequitos tampoco tiran mucho más, y la gente, pues hace el trasvase a Jemini o incluso a Llama cuatro, imagínate, ¿no? No puedes ir cambiando de de parecer según te convenga esa mala.

Antonio Ortiz: Sí, lo de los memes y las imágenes les ha salido bien, pero, bueno, lo que parece ser es que vamos a tener Otres disponible en algún momento para uso directo, ahora mismo solo se puede usar con el Deep Research. Por cierto, de, perdona, es que parezco que estoy obsesionado, pero es que esta mañana me desé de una con la noticia de que Google ha metido Tyrrr El caso es que vamos a tener O tres y O cuatro mini disponibles directamente, entonces, además San Alman, pues, bueno, aprovecha para meter hype, ¿no? O tres ya rinde el mejor del nivel de los, de uno de los cincuenta mejores programadores. ¿Ah? ¿Pero cuál?

¿Del cuarenta y nueve, del cuarenta y ocho, del cincuenta? Ay, Sand, no se moja. Bueno, y que ese GPT cuatro cinco se va a retrasar unos meses, lo mismo. Yo creo que Sand Armani tiene la mintuidad de mis hijos, ¿vale? Que dicen, bueno, ya es primavera, han acabado los exámenes del segundo trimestre, se viene la Semana Santa, el tercer trimestre es supercorto, lo normal, ya estamos en el verano, y entre un campamento llega la feria, no vamos a septiembre.

Es que, claro, no no encuentras un buen momento ya para lanzar nada. Entonces, pues GPT cinco, yo creo que para Toño, Matías.

Matías S. Zavia: Es que ahora empieza a ser de la cosa así, tenemos la Feria de Abril, la Semana Santa, luego, pues ya llegará el el veranito, el ir a la playa y empieza a pillarte el toro, que la gente está otra, ¿no?

Antonio Ortiz: Sí, sí, sí, sí. Bueno, Matte, te te te hago dos propuestas, a ver por qué camino quieres tirar. Nos vamos directo a una sección importante de este podcast o hablamos de un paper de Anthropic que a mí me ha parecido bastante interesante y que amerita, amerita, un debate a fondo. No sé si lo podemos poner en la lista de correo de monos estocásticos, pero hay dos otros titulares de ese paper de Anthropic que creo que nos pueden hacer girar la perspectiva sobre los modelos grandes del lenguaje.

Matías S. Zavia: Sí, sí, habría que introducirlo porque, además, se suele decir, es muy común, sobre todo si tienes una postura pesimista sobre sobre la IA y sobre escalar la IA, que es una caja negra que no sabemos lo que está ocurriendo en su interior, llega un punto en el que no lo sabemos, a pesar de que, teóricamente, pues son matrices, es predicción del siguiente token, son probabilidades, es estocástica, pues antrópica abierto esa caja.

Antonio Ortiz: Sí, es uno de los campos de la inteligencia artificial, de investigación en en ILA, perdón, que creo que más interesante pueden resultar a la hora de entender la naturaleza de lo que tenemos delante. Es decir, parte de la gran acusación es lo que tú has explicado. No podemos interpretar, no podemos saber en estas cajas negras cómo se llega o por qué se ha llegado a una respuesta concreta de los modelos de inteligencia artificial. La complejidad que hay interna es tal que nos no nos lo permite, y es un paradigma bastante diferente de la prolongación clásica en el que las instrucciones son explícitas y podemos mirarlo con mucha más claridad en el COD. Bueno, lo que han hecho en en Austropic es aplicar algunas de las técnicas que la academia, la investigación guía, está intentando plantear para investigar

Matías S. Zavia: dentro

Antonio Ortiz: de esas cajas negras, de cuáles son los caminos a través de los cuales una de ellas llega a responder lo que responde. Usando una analogía, ellos dicen que esto se parece a las resonancias magnéticas, ¿no? Que permiten, de alguna manera, a los científicos, pues esas investigaciones de intentar a ver cómo funciona el cerebro, ¿no? De qué partes se activan cuando hacemos este experimento o hacemos otro, y empiezan a atribuir a los a la parte del cerebro funciones que, sin esta herramienta de de investigación, no no tendríamos, ¿no? Entonces, lo que dice Anthropi es, vamos a intentar no limitarnos a correlacionar entradas y salidas, que sería usar el modelo, sino descomponer ese proceso computacional paso a paso, viendo qué con qué características o qué aspectos internos del modelo se activan y cómo interactúan para generar una red, ¿no?

Entonces, es como aplicar ese ese ese esa idea, siempre son analogías, metáforas, de entendernos, de la resonancia a a los modelos. Entonces, bueno, en el en el paper sacan un montón de conclusiones, pero a mí hay dos que me me han fascinado especialmente. Una es que Anthropic, de alguna manera, cree que han conseguido matar al loro estocástico. El loro estocástico es esa nueva metáfora, todo relato, en el que se intentaba situar que los modelos grandes del lenguaje, pues, son artilugios problemísticos que, uno, como loros, regurgita el lenguaje, pero no lo comprenden, y esto dácticos, pues, básicamente, que tienen ese concepto de aleatoriedad. Es una metáfora que, además, inspiró a uno de los mejores podcast de inteligencia artificial del mundo, Matías.

Entonces, ¿cómo dicen o por qué creen que lo han matado? Pues porque han encontrado dos elementos interesantes al mirar dentro de su cloud, ¿no? Que es, realmente, han estudiado y analizado a su propio modelo, ¿no? ¿No? Antropia descubrió que, antes de cuando serviría escribir un verso, una poesía, no estaba jugando el modelo a adivinar la siguiente palabra, no iba, ¿no?

Sobre la marcha improvisando como un rapero improvisa en unas rimas que es, ¿no? Que se le ponen ahí cuando cuando hacen este tipo de dinámicas, sino que planteaba los versos finales al principio y luego iba construyendo una poesía que tuviera sentido para llegar a ese objetivo a largo plazo. Entonces, ya no era

Matías S. Zavia: Gabriel era el ejemplo concreto, ¿vale? Le piden completar la siguiente rima, ¿no? La que le pone el prompt es, hisso a carrot an hat to gravit, ¿no? Vio una zanahoria y tenía que cogerla. Entonces, lo que hace, en lugar de, como dice Antonio, ir completando la siguiente palabra, lo que hace es lo siguiente, tiene que rimar con gravit, y además tiene que tener relación con carrot, con zanahoria.

Con gravit rima ravit, conejo, que tiene relación con carrot, zanahoria. Entonces, el siguiente verso va a ser hishanger was like a starving rabbit. Esto me vuela la cabeza, me vuela la cabeza porque parece que está pensando.

Antonio Ortiz: Sí, además, otro de los descubrimientos es que, realmente, un modelo del nivel de Claude, entre comillas, consiga realizar representaciones conceptuales abstractas. Es decir, ¿qué es lo que creen los científicos de antropi que han descubierto? Al pedirle al modelo cosas como antónimos de de una palabra en distintos idiomas, pues, vean, antónimos de pequeño en inglés, en chino, en francés, ¿no? Los investigadores observaron que primero se activaba un concepto interno, que es el concepto de grandeza, de algo gigante, de algo grandísimo, antes de generar las palabras en el idioma solicitado. Por lo tanto, de nuevo, ellos dicen, esto no es solo un loro estocástico que va improsando la siguiente palabra, sino que internamente la complejidad es tal que ya tiene conceptos abstractos de lo que es pequeño, lo que es grande, cómo son antónimos, y que luego, más tarde, es cuando generan las palabras en cada idioma.

Por lo tanto, esto tiene visos de cierta inteligencia porque es capaz de tener representaciones conceptuales abstractas. Esto, si los científicos de Claude tienen razón, esto es la muerte de lo resuelto casi dos, en mi opinión. Es decir, esa esa idea de que aquí no hay ninguna más inteligencia que el cálculo de la probabilidad del último toque, del próximo toque. Esto es un un cambio en cómo deberíamos llegar al modelo grande del lenguaje.

Matías S. Zavia: Y nos lleva a que la guía va a necesitar su psiquiatra, su psicólogo, su ashwakanda para dormir por la noche, para tener más testosterona, a darle derechos. Bueno, bueno, a la que se nos viene, ¿no?

Antonio Ortiz: Bueno, y la última cosa, y ya no doy más que este paper me va a volar la cabeza, Mati, entonces estoy como muy entusiasmado. ¿Han descubierto una cosa también muy interesante, que a lo tenemos todos estos modelos razonadores basados en la cadena de pensamiento, ¿vale? El último cloud, pues es una mezcla entre el LM clásico puro y el modelo razonador, ¿no? Todos estos modelos razonadores tienen una cadena de pensamientos en que van paso a paso, gastan muchísima diferencia, lo hemos explicado muchas veces. Muchos de estos modelos no se enseñan cómo están razonando, es superdivertido, ¿no?

Cuando lo pruebas con Deep Six o lo que puedas con cualquier otro que algo de pista te dan de callson su razonamiento. Claro, ¿a qué llegó la a qué curso han llegado sobre este mecanismo los o que han descubierto los investigadores de Anthropic? Dicen, la forma en que el modelo llega a una respuesta y la explicación que nos dice de cómo ha llegado no siempre coincide. Atención. Entonces, a veces, esta cadena de pensamientos que nos comenta el modelo refleja genuinamente los pasos a entrar, ¿no?

Y otros casos en los que, y esto me recuerda mucho a cómo pensamos los seres humanos, trabaja hacia atrás. Es decir, llega a una conclusión, llega a un razonamiento y luego proporciona un razonamiento que lo justifique. Es como, por ejemplo, ¿no? Hay gente que ya, pues ha tirado para adelante, ¿no? Y dice, es que soy fan de de de Elon Musk y ya está, he caído en esta en esta cosa, ¿no?

De ser fan de Elon Musk. Entonces, cuando Elon Musk dice hace una cosa totalmente disparatada, absurda, hace una declaración totalmente desquiciada. Ellos, primero, están a favor, porque ya pertenecen a ese grupo, ¿no? Y luego, te razona una respuesta y te sirven un razonamiento de por qué eso está tan bien, a pesar de que antes de evolucionar a los más les hubiera parecido horrible también. Entonces, en en verdad, esta divergencia entre el por qué hago las cosas y cómo luego justifico Post Ock el el por qué las hecho, a veces también es humano, Matías.

Matías S. Zavia: Yo espero que haya escritores de ciencia ficción escuchándonos estocástico, porque Asimov y Philip Kadic no pueden tirar más del carro. Necesitamos ya que haya historias, sobre todo este paper y y sobre todo que lo que se está avanzando en la inteligencia artificial, porque hay material, hay materia prima.

Antonio Ortiz: Ojalá, Mati, haya artistas que, como tú indicas, generen el arte que necesita nuestro tiempo y, además, una pista. Sobre arte de la ciencia artificial empieza nuestro Puerta Grande o Enfermería.

Matías S. Zavia: Me gusta, me gusta un puerta grande sobre arte y no tantas novias

Antonio Ortiz: de ella. Este es el el el puerta grande con enfermería menos sexual de esta temporada de de monos estocásticos, porque empezamos con el arco falso de Paco Chanivet. Atención, vamos a ver. Nos contacta Paco, Paco Chanivet, y nos dice que le encanta nuestro podcast. Bien, Paco, por ahí vamos bien.

Y dice que os escribo porque hace unas semanas publiqué un pequeño proyecto llamado fucking arco. No, bueno, que ya no sé si aquí lo estoy pronunciando bien. ¿Fackking? ¿Fackking? Bueno, Larco falso, una feria artificial de arte contemporáneo generativo.

¿Cómo lo hice? Creé un dataset con las imágenes públicas de Arco Madrid, entrené hasta diez modelos y generé una meta feria. La podéis visitar en hacking arco punto es, por si apetece echarle un ojo. Y yo, por supuesto, inmediatamente cliqueé, porque con este gancho era imposible. Entonces, he estado contemplando el arte falso de feria de inteligencia artificial de arte contemporáneo generativo, Y te voy a decir una cosa, Mati, estoy enamorado.

Es verdad que en una primer vistazo, esto podría ser el, ¿no? La la excusa perfecta para toda esa gente que abomina del arte contemporáneo, eso lo podría hacer un niño de diez años, etcétera, etcétera, todo este discurso. Claro, eso creo que es una primera lectura que puede ser demasiado ligera, porque yo he estado contemplando las obras y las quiero casi todas, Matte. Has has has pasado sobre una especie de marciano con túnica, cabeza verde y elefantiaxis? Que me parece maravilloso.

Matías S. Zavia: Entre esta cantidad de cosas para encontrar el marciano con túnica.

Antonio Ortiz: Ay, ay, ya lo tienes, ya lo tienes en sala. Ah, maravilloso, me encanta. La estatua de un un como un alguien descabezado que tiene que hacer algo en la mano, me encanta, me encanta los cuadros, todo, la la escultura, perdón. Es que me vuela la cabeza, me parece una maravilla lo que ha creado el amigo Paco Charibet. No sé si tú estás dispuesto a darle a esto a puerta grande.

Matías S. Zavia: Bueno, me llama mucho la atención, porque claro, al final el arte contemporáneo se basa en intentar hacer alguna locura que a nadie se le haya ocurrido, pues a veces de formas surrealistas, a veces de formas que parece que te están estafando, y luego, pues encontrar a alguien dispuesto a comprarte, pues un un orinal por cinco millones, veinte millones de euros, lo que sea. Entonces, si la inteligencia artificial generativa entra en el mundo del arte contemporáneo con fake in arco, pues mi pregunta es, ¿el arte contemporáneo va a tener que ser todavía más disruptivo y lo vamos a entender menos los que no sabemos nada de arte? ¿O al contrario, el pendulazo va a hacer que lo que se lleve ahora son los retratos como estos de la Corte, superrealistas, no lo sé.

Antonio Ortiz: Bueno, yo creo que desde el punto de vista, no sé, de lo mejor de Benjamin, ¿no? Todo ese discurso de la obra de arte en la época de la reproductividad técnica, claro, nos vamos a la obra de arte en la era de la reproductividad técnica y las variaciones infinitas técnicas slope de contenidos de la inteligencia artificial. Probablemente, la tesis del filósofo es que esa aura del de la obra, que distinguía a la obra original porque te conecta justo con la persona que lo creó, su historia, su lore, y que, de repente, tenéis eso en común, tiene sentido o redobla su sentido en la época de la inteligencia artificial. Entonces, a lo mejor, el valor era de fake narco, de de la obra de arte moderno, está justo en la conexión, la vida que puedes conseguir alcanzar, o al menos fantasear y tocar a la hora de acceder a la una obra original, ¿no? Entonces, bueno, working progress, no somos los mayores expertos de arte contemporáneo, aquí, a lo mejor, le podemos fallar un poco a la audiencia, pero te voy a dejar un caso de uso de nuestro podcast, Mati, porque el amigo Fernando, en Spotify, nos decía algo que a mí me ha dado que pensar sobre nuestra responsabilidad como podcast, Mati.

Atención a lo que nos dice Fernando, que nos comparte una vivencia personal. Por suerte, o por desgracia, solo tenía descargado este podcast corriendo la media maratón de la ultra de Sierra Nevada. No había cobertura y había que distraer la mente. Y, por lo menos, tres veces me lo he escuchado. Es el último episodio de Monomesticásticos, el el anterior al al que estáis escuchando.

Y se pregunta Fernando, ¿le doy puerta grande o le doy enfermería? Claro, este es un meta puerta grande de enfermería, Matti, por primera vez en nuestra historia.

Matías S. Zavia: Me siento identificado con Fernando y a la vez diametralmente en contra, porque a mí me pasa mucho que me acuerdo de que tengo que descargar contenido en los aviones cuando ya estoy dentro del avión sentado. Y ahí la cobertura no es muy buena, no llega ni la WiFi de Aena ni llega el cinco G. ¿Vale? Entonces, muchas veces me tengo que conformar con, a lo mejor, un episodio viejo de un podcast, pues una serie que descargué en Netflix hace mil años, que ya la vi o no me interesa, y en ese sentido me parezco a Fernando. De hecho, por suerte, Spotify ha solucionado esto porque ahora tiene como una lista offline automática que sale cuando estás en los aviones.

Por otro lado, cuando yo subí el Mulhacén totalmente fuera de forma, viviendo yo a cero metros sobre el nivel del mar, llegar a esa altura me costó bastante, a mí lo último, lo último que se me hubiera ocurrido habría sido ponerme Antonio y Matías tres veces durante una hora y veinte hablando de inteligencia artificial. De verdad. Así que puerta grande por por la templanza.

Antonio Ortiz: Sí. Bueno, probablemente Fernando no lo escuche, porque, claro, después de varias horas de nosotros seguidas, el pobre, la ultra de Sierra Nevada, a lo mejor necesita un descanso de nuestras mensajes y comentarios. Bueno, pues pues bueno, algún día, quizás, llegue al amigo Martín nuestro mensaje de fraternidad. Bueno, te voy a traer un caso de uso que soluciona un problema real para cosas que dicen que la guía es que no es productiva, que no se usa en cosas que realmente la gente necesita, son solo chorradas y memes, bueno. Pues aquí tenemos un problema que necesitaba solución, que es el uso de inteligencia artificial, Mathi, para eliminar a gente de las fotos y los vídeos de las bodas.

Ah, ese gran problema, ese gran Porque, verá, cuando hay una boda familiar, siempre está la duda. Es decir, el novio de la niña, no de la, claro, el novio de la boda tiene que estar, eso es inevitable, ¿no? Pero, a lo mejor, la hermana, la hermana pequeña de la de la que se casa tiene un novio. ¿Se le invita al novio? ¿A partir de cuántos meses de relación se le invita al novio?

Es un gran dilema. Y si el novio aparece luego en las fotos familiares, porque, claro, una vez invitado el novio de la hermana pequeña, cuando se hace la foto familiar, oficial, etcétera, de los momentos, se le invita a aparecer en las fotos, aquí hay un montón de teorías y de doctrina generada, ¿no? Alrededor de este tema. Es muy problemático, Matías, porque, al final, si la niña pequeña no sigue con ese novio y eso no culmina en la adhesión a la familia, ¿no? Matillineal de la que estamos hablando, entonces, tenemos el gran problema.

Ese tipo que, además, no ha permanecido con la niña y que, al final, todos pensamos que era odioso y terrible, pero no lo decíamos todavía, por no llevarle, por el contrario, la muchacha, aparece en las fotos de recuerdos de una boda familiar. Eso es un problemón, Matías. Pero aquí gente en Reddit está diciendo la buena nueva. Ese problema tiene solución, que es editar las imágenes con interés.

Matías S. Zavia: Esto es lo que más uso de ella generativa de imágenes, con diferencia, borrar objetos, ampliar fotos que son en vertical, las pongo en en panorámico, etcétera. Y eso algo que, de verdad, que funciona ahora mismo súper, súper, súper bien y que no es comparable a lo que tardabas en hacerlo con Photoshop. Lo de las bodas pasó en mi boda, no solo por varios exes de amigos, de familiares, también por gente que ha adelgazado mucho desde entonces, momentos CEMPIC, momentos crossweit, en mi caso, Y eso es una cosa que ocurre muy frecuentemente. Y me has dado una idea. En la boda de mi hermana, que fue hace un año, estábamos todos sus familiares, los de mi hermana, no los de la otra familia, con la cara desencajada, con una tristeza muy profunda, porque mi abuela había muerto de cáncer la noche antes.

Claro, porque ella se veía venir, entonces no se canceló la boda ni nada. Pero, ¿sabes qué? El face up convierte todas las caras tristes en caras sonrientes, y no se me había ocurrido. Voy a mandarle a mi hermana todas las fotos de su boda, con todo sonriendo, a ver si se toma este presente como como algo bonito.

Antonio Ortiz: Ah, qué qué grandes dilemas se plantean en el portal de enfermería, porque ¿por qué queremos retratar la realidad tal como fue, tal como es? Si nuestra memoria de ser humano ya recrea y reinventa todo lo que pasó, pues pues nuestras imágenes y lidios en aquellos momentos no deberían desajustarnos con nuestra expectativa mental de lo que ocurriera, sino que deberían ajustarse a lo que nos gustaría tal vez, ¿no? Bueno, pues ahí lo dejamos para que la audiencia reflexione, sobre todo si van camino de de los picos de Sierra Nevada. Y te traigo la última, Matty. Esta es una noticia que refuerza de que la IA no es una burbuja.

¿Por qué? Porque los agoreros siempre están señalando, bueno, estas inversiones descomunales en servidores, en empleados, investigadores de IA, dándoles millones, regalando modelos costosos para que los usuarios se hagan adictos a estos chatbots que les ayudan. Todo eso es una burbuja, pero yo tengo la prueba que demuestra que no. Y es que se, Death Cronch ha publicado una noticia que nos retrotrae a los mejores tiempos de Internet. Google paga a algunos empleados por no hacer nada.

Atención, porque DeepMind, la el brazo de inteligencia artificial de Google, está aplicando acuerdos de no competencia agresivos en el Reino Unido. Estos acuerdos impiden a algunos empleados de ILA unirse a la competencia durante un año, pero durante ese año siguen cobrando de DeepMind. Atención a esta innovación en el en los recursos humanos, porque, claro, de esta manera, los investigadores de IEA se sienten un poco desconectados de los avances de la IEA, pero tienen un año sabático a cambio, ¿no? Entonces, algo que, por ejemplo, en Estados Unidos se han puesto un poco más serios intentando, pues, impedir este tipo de de artimañas de las empresas big tech, en el en Reino Unido sigue siendo legal. Así que, por tanto, Google, fíjate cómo la realidad imita la ficción, Google está está entrando en un modelo Julie.

¿Te acuerdas de Julie, la empresa de la serie Silicon Valley? ¿Y cómo tenía una azotea llena de gente que no hacía absolutamente nada? Pues Google lo ha vuelto a hacer, está siendo el Julie de nuestro tiempo, y si eres un ingeniero británico o trabajador en el Reino Unido de inteligencia artificial, quizás quizás puedas tener un año de sueldazo por no hacer nada, Matías.

Matías S. Zavia: Qué envidia, ¿no? Porque resuelven dos problemas. Por un lado, no se van a la competencia. Por otro, ¿qué hay? Que una persona de Reino Unido o que viva en Reino Unido desee más que salir del Reino Unido, ¿no?

Irse a Sotogrande, a Manilba, irse a Marbella, a Tepona. Y, por otro lado, me da mucha envidia porque es mi sueño, un año sabático, todo pagado. Ahora que ChagGPT me habla en argentino, pues recorrerme con Chag GPT Argentina de arriba a abajo, ¿no? Que son tres millones de kilómetros cuadrados, es una cosa que se puede hacer. Oye, que me voy de vacaciones una semana o el puente de Semana Santa.

Entonces, me da muchísima envidia, me da muchísima envidia y haber estudiado, Matías, haber estudiado.

Antonio Ortiz: Ah, mira, yo tengo aquí una idea, te lo digo, vamos a ver. Hago un llamamiento a una persona que puede meter a España en el camino correcto de la innovación tecnológica. Marc Murtra, el nuevo director ejecutivo de Telefónica. Marc, ya tenemos confianza. Salió el amigo del gorrito de Telefónica, acabó una era, y esa era, ¿por qué estaba marcada?

Porque los empleados de Telefónica cobraban solo si iban a trabajar. Es verdad que tuvisteis vuestro momento de aquellas prejubilaciones que tanto adoraban vuestra vieja guardia, pero ¿cuál fue el detonante de la era, no? El el una característica del era payete, en que la gente cobraba y e iba allí a a las tablas a trabajar. Mira lo que está haciendo Google Designid. ¿Google Designid está en el filo de la innovación tecnológica y de la inteligencia artificial?

Sí, debería España seguir esa senda, también. Entonces, ¿qué característica de Dismind le falta Telefónica? A lo mejor hay varias, pero una de ellas, sin duda, es que no tiene empleados sin trabajar y aquí podríamos entrar nosotros, Mati. Amigo, señor Murtra, amigo Mark, piénsalo. Cierto, en parte de los planes que puedas tener ahí con el desarrollo tecnológico de Telefónica y España, no podría entrar también esta línea de modo Juli que, bueno, bueno, de vez en cuando nos pasarían a ellos por por por Telefónica, por las tablas, tal, ¿no?

Una meriendas cena, lo que sea, y, de alguna manera, estaríamos ahí en la en la tren de los laboratorios más punteros.

Matías S. Zavia: Sí, sí, sí, sí. Yo sé que esto el Deutsche no lo aprobaría, pero como Elon Musk ahora ya no se lleva tan bien con Trump, no sabemos cuánto va a durar, Téngalo en cuenta, según el señor Mark Murtra, porque DeepMind sabe lo que hace, es la empresa que ha inventado todo lo que estamos hablando ahora. Y, por otro lado, creo que Mark Murtra te lo puedes camelar tú, porque me da la sensación de que es más de LinkedIn. Es cierto que Paget era más de Twitter, por eso no seguía, pero Marc Murtra es un trabajo tuyo, Antonio.

Antonio Ortiz: Bueno, pues se vienen cositas, ya está lanzado el anzuelo, ya iremos desvelando y dando noticias poco a poco a nuestra audiencia, sea o no lo sea, Mati, todos son aceptados y queridos, generen ferias falsas, tenemos una comunidad que es una maravilla ya nos ayudan, además, con el puerta grande de enfermería, puerta grande para nuestra audiencia siempre, y también para el modo Juli de Google Depay y Telefónica.

Matías S. Zavia: Maravilla. De final, me recuerda una cosa que nunca decimos y que, en realidad, es muy importante, Podéis suscribiros en YouTube, en Spotify, etcétera, para ayudarnos algorítmicamente a crecer y, sobre todo, lo que nos ayuda es dejar comentarios. Antonio, has pronunciado mal esto. Matías, has hecho un chiste inapropiado. Ayuda, ayuda, aunque sean comentarios negativos constructivos, señores.

Claro. Nos vemos la semana que viene.

Chao, lamix. Mono sin cash, trampa agita al parque, la morta de la acecha, qué duro revés. Chachepet es mi coach, me juzga el comer y hablan argentino sin querer ceder. Shopify con loot que afuera impone, mientras Fripig viste a Matías en voz, llama a cuatro, tropieza, benchmark son ficción, Gemini destaca, cambia la función. Antropic revela, la IA puede pensar, ya no es loro tonto, hay que repensar, falsifican el arco, borran gente en bodas y Google te paga por estar de modorra.

Desde Málaga hablamos, vale con descaro. Suscriban, comenten. Hasta luego, amparos.

Episodios recientes

Programas relacionados