Introducción Subida de Precios en la IA Filtraciones de Cloud Code Nuevos Modelos de IA Darío y el Altruismo Efectivo La Venta de DeepMind Evolución de ArcG y Desafíos Martín Varsavsky y el Futuro de España
00:00 /1h24
  • La IA ahora está subvencionada, se viene la gran subida
  • La gran filtración (doble, de Anthropic)
  • La IA no se hace sola, hay que hacerla con Nvidia
  • Google trabaja en el "Agent Smith".
  • ARC-AGI 3
  • Martin vuelve a pensar fuera de la caja

monos estocásticos es el pódcast de inteligencia artificial presentado desde Málaga por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Hay un episodio nuevo cada jueves. Puedes unirte gratis a nuestro club social de Telegram y seguirnos en redes sociales:

Todos los episodios en YouTube: https://www.youtube.com/playlist?list=PL-6s6cUsxTnsY_V0rqQFURaHDYuXD0AXj

Más enlaces al pódcast: https://cuonda.com/monos-estocasticos/links

Publicado: 2 abril 2026

Transcripción

Matías S. Zavia:
[0:00] ¿Se viene el gran subidón de precios en la inteligencia artificial 2026?

Antonio Ortiz:
[0:05] Yo creo que ahí es cuando empezaron a ganar la batalla a HGPT. Ahí es cuando la gente empezó a creer en Cloud, ¿no? Y ya luego llegó Cloud Code y todo y ya están donde sean.

Matías S. Zavia:
[0:14] Con puntuaciones notablemente más altas en tareas como programación, razonamiento académico y, subrayado, subrayado, subrayado, ciberseguridad.

Antonio Ortiz:
[0:24] Hola a todos los monos estocásticos y bienvenidos al podcast favorito de los amantes del horario de verano. Yo soy un enjoyer del horario de verano porque a mí me gusta escuchar podcasts como monos estocásticos haciendo la merienda cena y ahora lo podemos hacer con luz. Antonio Ortiz, ¿cómo estás?

Matías S. Zavia:
[0:48] Sí, ya se empieza a notar en las estadísticas del podcast que esa hora dorada, esa hora extra con luz solar durante el día, invita a nuestros oyentes a permanecer a la escucha del episodio completo. Mati, como buenos podcaster Indy, aquí estamos en Semana Santa. Y yo he estado reflexionando y he estado pensando sobre esa típica narrativa de los grandes enfrentamientos míticos que vemos también en la inteligencia artificial, como Sam Alman y Darío Amodey, que ha salido salseo nuevo durante estos días. Otros míticos del arte y la cultura Karol G o Becky G aquí ya sabe la audiencia que nosotros somos de Becky G, pero el más inesperado el que yo no esperaba encontrarme en toda mi vida es el de Kylian Mbappé contra, Matías S.

Antonio Ortiz:
[1:48] Zavia Sí, te conté esto ayer te hizo más gracia de la que yo esperaba, pero es cierto en la aplicación vamos a hacer ahora publicidad de una marca de seguros, pero en la aplicación del seguro de salud del trabajo, hay como una sección para competir entre nosotros, a ver quién hace más pasos, quién hace más ejercicios. Ojo, que yo estoy bien posicionado en la empresa. Lo que pasa es que, supongo que es una campaña de marketing o para dinamizar el uso de esta aplicación, Este mes estoy compitiendo con, ni más ni menos, que Kylian Mbappé. Te tengo que decir, Antonio, que el primer duelo lo he ganado yo. Ayer yo hice 9.321 pasos, tampoco fue mi mejor día. Y Kylian Mbappé hizo 5.018. Así que le he ganado el primer duelo.

Matías S. Zavia:
[2:48] Sí, hombre, pues tengo que felicitarte. Es decir, poca gente puede decir que está machacando a Mbappé y que le supera casi el doble. Vamos a redondear, Matías. Duplicas como un 100% mejor que el astro francés. Pero también te digo que tienes que animarte a retrotraerte, de volver a tu vena periodística. Porque yo aquí veo un reportaje de investigación clarísimo, un tema de data, de análisis y cuantificación, por el que yo haría lo siguiente. Es cruzar las noticias de Twitter, con Mbappé y Ester Espósito, de esa amistad que parece que está desarrollándose, con los pasos diarios de Mbappé. Y en qué horas Mbappé da más pasos, da menos pasos, porque yo creo que de ahí pueden salir unos buenos titulares, unos buenos reportajes, que a la prensa deportiva de este país seguro que le captan su atención. No sé tú cómo lo ves, si te ves ahí mirando el día a día de tu duelo con Kilian, claro.

Antonio Ortiz:
[4:01] Pues fíjate, me has abierto los ojos, tengo yo delante esta cantidad de datos accesibles sobre Kilian Mbappé para cruzarlos con momentos en los que a lo mejor aparecen fotos con este expósito. Y no lo estoy aprovechando, no lo estoy vendiendo a la prensa. Fíjate, yo estaba más distraído con el tema Illojuan y Masi, que por lo visto ahora la madre de Illojuan ha dicho que el chico esquivó una bala cuando Masi y él cortaron. Y tenía yo delante una noticia más valiosa.

Matías S. Zavia:
[4:36] Bueno, pues en la sección salseo de monos estocásticos, probablemente podamos contar algo a lo largo del episodio, no tanto sobre las celebridades a las que sigue Matías, pero sí de algunos de los grandes creadores de la inteligencia artificial de nuestro tiempo, pero vamos a empezar por la economía. ¿Se viene el gran subidón de precios en la inteligencia artificial 2026? ¿Se viene el gran subidón de precios en la inteligencia artificial 2026?

Antonio Ortiz:
[5:20] Yo creo que esto ya lo estoy notando, Antonio. No una subida de precio, pero mi feed de Twitter es todos los días alguien quejándose o incluso riéndose de que ya se ha gastado o de que ya ha llegado al límite de tokens de Cloud Code en lo que va de mañana, ¿no? Y es una forma de subir los precios, podría decirse.

Matías S. Zavia:
[5:47] Claro, es decir, de alguna manera, si lo que está en tu suscripción pues baja y te lo limitan, pues te empujan un poquito a comprar tokens por fuera. Entonces ya las suscripciones no son, claro, todo lo que te puedas comer, como en el buffet libre del desayuno, que a nosotros nos gusta tanto, sino que son un poco, bueno, tienes una cuota y luego o te esperas un montón de horas o básicamente pagas por tokens. Que es un poco la propuesta ahora mismo de Cloud Anthropic. Pero vamos por partes. ¿Cuál es?

Matías S. Zavia:
[6:21] El gran diagnóstico que empieza a filtrarse, que empieza a comentarse entre analistas, seguidores, haters y entusiastas. Básicamente que esto se parece al modelo de startup tradicional o clásico que hemos visto ya jugar muchas veces. Es decir, las grandes empresas empiezan subvencionando, entre comillas, es decir, empiezan a pérdidas para crear un mercado, para capturar a los usuarios, fidelizarlos, dentro de lo posible hacer algo de locking, es decir, intentar alguna estrategia por la cual sea muy costoso luego para el usuario cambiar de proveedor. Y una vez que tienes un mercado en el que te quedas solo o sois dos o tres, pues empiezan los precios a subir y la cosa empieza a ponerse dura en términos económicos hasta que esa empresa o esa startup entre en rentabilidad y, más bien dicho, eleva el precio todo lo que puede hasta el punto de que la gente no lo deja. Y ahí tenemos casos clásicos como Uber, que incluso salió a bolsa perdiendo mucha pasta, es decir, que le costó muchísimos años llegar a la rentabilidad. O lo tenemos delante de las subidas anuales consecutivas de Netflix, que no para de subir los precios una vez que está en la posición en la que la gente lo ha convertido en su por defecto del consumo audiovisual. ¿Qué es lo que se señala respecto, sobre todo, a OpenAI, Anthropic, incluso Google?

Matías S. Zavia:
[7:51] Es que estas empresas, se subraya y se insiste mucho, pierden muchísimo dinero, ¿no? Pierden miles de millones, sobre todo Anthropic y OpenAI, mientras que Google, de alguna manera, su unidad de inteligencia artificial también tiene un margen de contribución negativo. Pero como tiene todas las bibliotecas publicitarias, en la foto grande sale muy bien, pues básicamente estas compañías ahora mismo nos subvencionan. Es decir, nos permiten tener los modelos gratis o a un precio muy razonable, pero claro, como en algún momento vendrán las ansias de rentabilidad, los inversores querrán retornos y tú tendrás que mostrar que tu negocio es creíble, que va a ser rentable. Te toca subir los precios y se va a apretar muchísimo la cosa, Mati.

Antonio Ortiz:
[8:41] Yo creo que estamos ya vendidos. Yo voy al Mercadona y el Plátano de Canarias cada vez cuesta más. Pero se explica por qué OpenAI sigue cerrando rondas de 120.000 millones de dólares. Es que en 2026 tienen previsto quemar 14.000 millones de dólares en inversión frente a 9.000 millones del año anterior, de 2025. Esto, aunque haya cada vez modelos más eficientes, más baratos, a medida que la gente se suba al tren y a medida que cada vez vemos más trabajo agéntico por parte de los modelos en muchísimos casos de uso, Es complicado que esas mejoras de eficiencia alcancen la manera de invertir dinero en ofrecernos estas herramientas al precio que les pagamos. Queda un tiempo, pero vamos a acabar viendo subidas de precio más pronto que tarde.

Matías S. Zavia:
[9:56] Aquí hay una distinción que yo creo que es muy importante realizar respecto a estos críticos de bueno, esto es una burbuja se viene, mira como pierden dinero todos los años, Por un lado, calma, porque básicamente el perder dinero todos los años es el modus operandi habitual de las empresas de capital riesgo y de las startups invertidas por ellas. Así que, bueno, que no cunda el pánico. No sé si llegó a las dos décadas Amazon perdiendo pasta hasta que ha sido rentable. O sea que se pueden hacer grandes negocios, muy grandes de hecho, a partir de esta estrategia. Eso por un lado. Pero por otro, creo que hay que mirar las finanzas con cierta fineza de estas compañías. Una de las piezas más compartidas fue un reportaje de Axios, en el que básicamente yo lo leí y no acababa de entender, me quedé perplejo, ante las aparentes contradicciones del mismo reportaje. Porque básicamente era una análisis que apuntaba básicamente a todo esto que estamos diciendo. Se vienen aumentos de precio porque estas empresas nunca van a ser rentables si no nos cobran cientos de dólares al mes.

Matías S. Zavia:
[11:20] Pero los números que ponían sobre la mesa no eran muy consistentes con esto. ¿Por qué? Porque, bueno, es verdad. OpenAID va a perder 14.000 millones en 2026. Bueno, pues aquí algo tendrán que hacer. Pero, fíjate, me parecieron muy interesantes los números que daban de Anthroby porque el margen por usuario, dice el propio reportaje de Axios, era en 2024 del menos 94%, se perdía mucho dinero por usuario, a más 40% en 2025. Claro, esto es muy interesante porque es diferente la base económica de un negocio en el que estás perdiendo dinero por usuario, tener a ese man en su casa usando cloud, pues cada nuevo usuario pierde más dinero.

Matías S. Zavia:
[12:17] Frente a tener un margen positivo por usuario en el que básicamente lo que están diciendo esas finanzas no es que Anthropic esté en beneficio, porque sumo todos los usuarios y como tú tienes margen, pues ya lo tengo, sino que básicamente, lo que no estás consiguiendo con tu base de usuarios actual es pagar, perdón por el anglicismo, el overge. Es decir, toda la estructura superior por encima, sobre todo en este caso de Anthropic, de inversión en datacenter y entregaramiento de nuevos modelos. Pero te da una pista de una cosa. Es decir, que si aumentas esa base de usuario lo suficiente, como cada uno te va a dar un margen del 40% de media, lo que tienes es que el camino a la rentabilidad no es necesariamente subir precios, puede ser también aumentar esa base de usuario. Entonces, básicamente, aunque el reportaje de Axios nos pinta que los económicos de esta empresa de inteligencia artificial parecen terribles, se vienen sobre el precio, pues, oye, lo que dicen los números de la misma pieza periodística nos invita a pensar que las finanzas de estas empresas de inteligencia artificial en realidad no son tan malas que si consiguen aumentar el número de usuarios pues podrían llegar a la rentabilidad sin subir demasiado los precios, Matías.

Antonio Ortiz:
[13:39] Pues fíjate, yo creo que cuantos más usuarios tiene Cloud cuantos más usuarios tiene Anthropic más pueden amortizar el entrenamiento de nuevos modelos, pero lo dice también Axios. Los costes de inferencia están siendo superiores para Anthropic de lo esperado porque luego tienen a gente como yo que le pide a la extensión de Cloud del navegador que lea mis mensajes de Slack y marque como completadas las tareas pendientes. Sabes que podría hacerlo yo en un minuto e ir a hacer clic en las tareas completadas, pero se lo estoy pidiendo a Cloud.

Matías S. Zavia:
[14:11] Yo le pedí una investigación en un grupo de Facebook que por lo que sea, no viene el caso. Me interesaba un poco las datas históricas de conversaciones y quién me había dicho qué. Y es verdad que la extensión de Cloud es buena investigadora, pero es muy pesada pidiendo permiso, es muy pesada. Yo me estoy volviendo de ella porque, madre mía, cuánta seguridad.

Antonio Ortiz:
[14:34] Hay que atreverse a darle permiso a todo. Yo pensé que eso era lo que había ocurrido con la gran filtración de Cloud Code, pero no, parece que fue fallo humano.

Matías S. Zavia:
[14:46] Sí, claro. Es que en una empresa de IA es al revés que en el resto de empresas, ¿no? En el resto de empresas es, ha habido una gran filtración total. Ha sido culpa de la IA, no sé qué. Es que no te puedes fiar de estos sistemas. Claro, en una empresa de inteligencia como Anthropik, no, no, es que es... Qué pena que todavía tengamos que tener aquí humanos porque, claro, fíjate en los errores que cometen los humanos, ¿eh? Es una cosa tremenda. Hoy tenemos, además, nuestra sección, la IA. ¿No se hace solado? Hay que hacerla. Ya sabéis, ya la conocéis muchos, que es una sección en la que de la mano de nuestro patrocinador NVIDIA ponemos en valor la inteligencia

Matías S. Zavia:
[15:27] artificial abierta y el local. Aprovechando la potencia de la tarjeta gráfica de nuestro ordenador de NVIDIA, pues vamos a intentar buscar funcionalidades que nos permitan utilizar modelos abiertos, modelos en local y lo que ganamos en autonomía y en privacidad. Hoy tenemos un pequeño truco, un pequeño avance.

Matías S. Zavia:
[15:49] Que es realmente interesante, creo que para muchos de los oyentes de Buenos Estocásticos, porque nos permite convertir nuestro navegador habitual en un navegador con inteligencia artificial. Este navegador que vamos a utilizar y a probar para convertirlo en un navegador con IA es Brave. Brave muchos lo conoceréis porque se trata de un, bueno.

Matías S. Zavia:
[16:13] Un navegador muy enfocado en la privacidad que comparte el código fuente, la base del motor de renderizado con Chromium, porque todo es tan incompatible con Chrome, con Edge, con todas las webs y también con las extensiones de estas plataformas. Y hace poco sacaron lo que se llama LeoEI, su propio asistente. Vamos a ver cómo funciona. Aquí vamos a probarlo con una web, que es una web que se llama Error500. Buenísima, os la recomiendo mucho. Es en la que yo escribo. Y, bueno, vamos a abrir este asistente Leo a través del típico panel lateral que ya se ha convertido prácticamente en el estándar. Cuando yo le pido cosas a Leo en Brave, por defecto tira este modo automático de modelos en la nube hospedados por la propia Brave. Entonces yo le puedo pedir un resumen de la página y Leo básicamente lo que va a hacer es utilizar uno de los modelos, en este caso, que me ofrece gratis pero en su nube y me hace el resumen de la página. Puedo hacer preguntas, que metes sugerencias, que investigue otras cosas. En definitiva, lo puedo usar como un asistente que he incorporado en mi navegación diaria. Y lo que te plantea Brave es que ellos en la nube tienen una serie de modelos, algunos gratuitos y otros son premium, por los que te cobrarían un extra o una suscripción.

Matías S. Zavia:
[17:35] ¿Qué es lo interesante? Pues que Brave permite la filosofía Bring Your Own Model. Es decir, este biome lo que se articula es que en lugar de tirar de un modelo en la nube, ya sea porque te lo da gratis Brave o porque le pagas una suscripción a alguien, pues puedes usar un modelo local. Aquí veréis cómo cuando lo configuro, en lugar de automático le digo, mira, muéstrame todos los modelos y hay un apartado en el que Brave descubre que yo tengo Ollama instalado. Ollama instalado es, Ollama es básicamente un gestor de modelos en local que me permite chatear con estos modelos directamente, pero también servir modelos a otras aplicaciones que yo tenga en el ordenador. Entonces, tengo Ollama instalado, tengo modelos bajados. Aquí, como veis, pues, bueno, los que me estáis viendo en vídeo, pues veréis que tengo DeepSeek, un par de Quents, el GPTOS que abrió OpenAI, y yo le voy a decir que me gustaría que con el Quentres.

Matías S. Zavia:
[18:32] De 30 billion de parámetros, como lo puedo ejecutar el local.

Matías S. Zavia:
[18:36] Pues me haga la misma tarea que le he pedido antes. Es decir, igual que antes me ha resumido la página con un modelo en la nube, pues ahora le estoy pidiendo básicamente que me haga un resumen el local. Aquí, ya sabéis, tenemos que arbitrar cuándo nos conviene un modelo más grande. Yo he cogido el más grande que puedo ejecutar el local de los más potentes, que es el Qn3 30 billion. Entonces me va a ir un poquito más lento. y cuando conviene escoger un modelo un poquito más rápido, porque esto prácticamente un G más pequeño o un Y más pequeño o un Q más pequeño también me lo hubiera resuelto. El caso es que, como veis, aquí ya tengo un pequeño resumen diferente que al que me ha hecho el otro modelo, pero también muy acertado de lo que cuento en el artículo. Y, por lo tanto, ya tenemos un prototipo de lo que va a ser un navegador con inteligencia artificial, pero que tira de los modelos locales. Esto es importantísimo por privacidad, es decir, nunca mando mi navegación y mando ese contenido a un servidor remoto. Y por autonomía, es decir, hay modelos, cuando utilizas otros de otros proveedores que tienen extensiones, a veces te dicen que no quieren hacer cosas que tú crees que sí se deben hacer. Bueno, pues esta autonomía nos la da el modelo local que tenemos en nuestra máquina. Y, bueno, es un primer paso. Yo realmente esto es lo que más uso. Resume, hago preguntas sobre el contenido traduce todo eso te lo hace muy bien con el modelo en local.

Matías S. Zavia:
[20:04] El siguiente paso va a ser hacia la IA agéntica. Es verdad que por aquí las soluciones basadas en Brave todavía van un poco por detrás que otras de mercado propietarias, pero ya en las versiones para desarrolladores, en las versiones de prueba de Brave, tenemos un anticipo de que eso estará. Así que conforme vaya avanzando y podamos tener IA Géntica con modelos local, de nuevo, y gracias a NVIDIA por permitirnos probar su tarjeta gráfica, pues lo iremos contando y lo haremos explicando en monos estoráticos.

Matías S. Zavia:
[20:37] Pues primera gran filtración de la que vamos a hablar hoy, que es la de Cloud Code, básicamente este sistema de agentes para la programación, el que nos ha empatado, el que nos ha conquistado, el que revolucionó desde la llegada de Opus 4.5 el mundo del desarrollo software y el regreso al hype y las ultra expectativas con la internet oficial, pues por lo que sea el código fuente, Se les ha quedado, se les ha quedado en uno de los paquetes que distribuían y se ha armado, Mati, la zapatiesta.

Antonio Ortiz:
[21:10] Mira, yo 1 de abril, yo al principio no me lo creía. O sea, esto ocurrió el 31 de marzo. Un día antes del Día de los Inocentes Anglosajón, dije, no, esto tiene que ser algún tipo de broma súper elaborada. Pero a medida que la gente iba desgranando lo que se iba encontrando e incluso bytecodeando webs para analizar todo el código quedaba claro que no que esto no ha sido una broma, que ha sido una cagada por parte de aparentemente un desarrollador de Anthropic pobrecito,

Matías S. Zavia:
[21:48] Pobrecito que claro yo creo que le falló a lo mejor el prom, dice mira eres un desarrollador super fiable tal, lo revisas todo 10 veces, claro, si no le das el PROM adecuado, pues a lo mejor ahí estuvo el problema, que aunque sea una cosa de IA, si no la orientas bien, pues aquí tenés el problema. El caso es que en maravilloso internet, en el mundo del desarrollo de IA, pues la gente se ha lanzado a investigar, explorar, escrutar, todo, todo lo que venía en este código fuente y se han sacado cositas. Se han sacado cositas. Básicamente, yo, de alguna manera, tengo un entusiasmo moderado respecto a lo que se revela en esta filtración. Porque, bueno, vamos a resumir muy rápido, Mati. Hay, bueno, un System Pro de Cloud Code, además de los System Pro que pueden tener los propios modelos como Opus, Sonnet o cualquier cosa, pues hay un System Pro del Cloud. Lo más interesante que a mí me ha parecido es que le dice que no uso emojis, lo cual me parece muy bien. Una de las mejores medidas creo que se ha tomado en la historia de la IA. No uses emojis.

Antonio Ortiz:
[22:57] Yo creo que ahí es cuando empezaron a ganarle la batalla a Chagépet. Ahí es cuando Javier Lacor se pasó a Cloud y la gente empezó a creer en Cloud. Y ya luego llegó Cloud Code y todo y están donde sean.

Matías S. Zavia:
[23:12] Luego hay un montón de detalles sobre la arquitectura que es súper interesante para el friquerío de, claro, arquitectura de sistemas multigénticos. ¡Uf! Y ya está, ¿no? Pero bueno, para esta gente ha sido como Navidad y Reyes juntos, una cosa maravillosa. Bueno, pues hay un montón de, ¿no? Hay seis tipos de agentes que utilizan hasta 45 tipos de herramientas, o sea que la complejidad de Cloud Code, pues, es bastante importante. El conjunto de reglas que da para el Memory MD, es decir, bueno, ¿cómo se establece y cómo trabaja con los permisos. Bueno, se ha descubierto un modo para empleados de Anthropic, lo llaman el modo undercover, que, claro, ofusca algunas de las cosas que hacen ellos mismos para, una vez que se distribuye, pues no se sepa. Bueno, en fin, hay nuevas funcionalidades que se ven en el código, todavía no están activadas en producción, por lo tanto.

Matías S. Zavia:
[24:13] Aquí lo que nos da es planes de lo que se puede esperar de CloudCode. Hay un modo persistente con Cloud siempre activo, sesiones de planificación, que la llaman el ultraplan, que son sesiones de 30 minutos. Hay posiblemente lo que fuera a ser la broma que tenía preparada Anthropik para el 1 de abril que era como una especie de mascota IA a lo Tamagotchi ojo, aquí puede ver el gran golpe de la mesa, porque claro a lo mejor ahí Darío Modella metido diciendo bueno, no le estamos dando a la gente emojis, que era la gran estrategia de Apple acuérdate con la IA, el gemmoji, pero hombre, algo a los programadores tenemos que hacer un poquito más sentía la aplicación un Tamagotchi ahí estaba el tema por.

Antonio Ortiz:
[25:06] Lo visto iba a ser la broma de April Fools pero para quedarse, como Gmail que nació el 1 de abril y se quedó para siempre pero yo es que claro, les veo sentido porque ahora OpenAI como han cancelado su proyecto de esto del chat más erótico pues ha quedado ahí un vacío que Anthropic va a aprovechar con esta especie de furry, siempre activo, determinista acompañante en tus sesiones de Cloud Code

Matías S. Zavia:
[25:35] Es que ahí puede estar un punto yo entiendo que OpenAI se tiene que reenfocar hacia el programador la empresa, luego podemos discutir esto pero claro yo ahí no veo contradicción entre el modo erótico y el enfoque en programación, y es por un motivo muy sencillo, cada vez más estos agentes pues de forma asíncrona empiezan tareas en las que tardan un montón de tiempo ¿no? 10 minutos 20 minutos esa sesión de 30 minutos que plantea en el futuro Cloud Code, Entonces, tú dices, el humano, mientras encarga estas tareas, para ser productivo puede hacer otras cosas. O no. O, por ejemplo, puede estar ahí con su Tamagotchi Furry, en la versión Cloth, o con el modo erótico de opinión ahí, en el que, bueno, pues de alguna manera se desahogue, ¿no? Se relaje este programador. Yo lo vi que podía machear bien este combo, Matías.

Antonio Ortiz:
[26:32] Sí, además es que cancelar este tipo de proyectos es desconocimiento total de cómo son personalmente los programadores 10X. Yo creo que son los que más aprecian este tipo de iniciativas.

Matías S. Zavia:
[26:45] Es que le falta antropología le falta calle a veces a estas empresas bueno, lo último es que anticipan, de esto vamos a hablar dentro de 5 minutos los futuros nuevos modelos y para mí la gran filtración la interesante, la potente va a ser esa, luego lo comentamos y bueno, básicamente, es que esto ya se ha abierto la caja de Pandora, Se ha filtrado, se ha replicado en decenas de repositorios de GitHub. De hecho, hay una cosa muy interesante porque por la DMCA, si tú subes el código software de Cloud Code, pues te lo pueden tirar. Otro tipo de ir a GitHub y decirle, tira esto porque es una copia. Pero alguien con IA ha reescrito todo el código de CloudCode en Python y por lo tanto la nueva escritura basada en el código de CloudCode, esa no la pueden tirar en principio porque no es literalmente y por lo tanto no está protegida de esa manera, no es literalmente el código fuente. Entonces es una cosa muy curiosa.

Antonio Ortiz:
[27:56] Me encanta como de repente se da toda la vuelta, ¿no? Vamos a leer y en el camino destruir un montón de libros para cambiar para siempre la economía basada en texto, pero luego te pueden usar los mismos argumentos de copyright para publicar el código de Clark, ¿no? Increíble.

Matías S. Zavia:
[28:20] Un apunte para nuestros oyentes más fricazos. Hay un paralelismo entre esto y parte del argumento de Halt and Catch Fire. Es una serie de Halt and Catch Fire de mitad de la década pasada, tendrá ya sus 10, 12 años, y era una serie que rememora los tiempos de los primeros IBM, Compact, las alternativas, los PCs clónicos, una serie chulísima.

Matías S. Zavia:
[28:50] Para todos los que hemos estudiado informática, es como, bueno, es una pasada. Está bastante guay. Y hay un paralelismo entre esto que pasa con que Anthropic no puede tirar una reescritura, Y lo que ocurría con los peces clónicos y la primera IBM cuando perseguía el, bueno, el, digamos, desarrollo de una industria que le pudiera competir, ¿no? Entonces, bueno, si en Hall of Catch a Fire hubieran tenido un LM, hubiera acabado la serie un poco antes. El caso, Mati, es que la gran filtración, la chicha, es mi opinión, lo interesante, viene porque, claro, una cosa irónica de Anthropic es que ellos venden revisiones de seguridad por parte de CloudCode, presentándolas como algo muy potente, y las venden muy caras. Creo que pedían entre 15 y 25 dólares por cada pull request. Es decir, la cobran, vamos. No están ahí de hermanos de la caridad y hay énfasis en la seguridad, en la seguridad. Bueno, pues otra filtración de Anthropic esta vez era un post en el blog que quedó visible y fue leído por periodistas. Llegó la primicia a la gente de Fortune, Gracias a eso sabemos que se viene el cloud mitos, Matías.

Antonio Ortiz:
[30:16] Bueno, yo este tipo de filtraciones que dejan muy bien paradas a las empresas, no siempre me creo que sean filtraciones, pero puede ser, ya se ha visto con Cloud Code. El tema es que llevaban circulando rumores de que uno de los grandes laboratorios, una de las big tech, bueno, una de las laboratorias de IA había completado el entrenamiento del modelo más exitoso hasta la fecha, que había superado las expectativas de la propia empresa, no se sabía quién era. Y el artículo de este filtrado viene a confirmar que es un modelo nuevo de Anthropic llamado Cloud Mythos.

Matías S. Zavia:
[30:59] Pues Mythos parece una cosa potente y parece, claro, en el que estábamos acostumbrados que el de la máquina del hype fuera San Alman y Anthropic casi siempre en comunicación había sido como más prudente y había tenido un registro. Aunque claro, yo veo esto y entiendo tu argumento, Mati, de que ahora toda empresa tiene que tener una estrategia de filtraciones. ¿Cómo simulamos que hemos tenido un problema de seguridad para salir todo el día en los medios? Pues ahí puede haber una nueva vía para la gente de PR y comunicación.

Matías S. Zavia:
[31:31] Atención aquí al insight que podemos compartir desde monos estocásticos. Bueno, lo primero es que Anthropic a la prensa le ha reconocido que esto es real. Entonces, no es un invent, la exclusiva de Fortune es correcta y podemos resumir en que.

Matías S. Zavia:
[31:49] Lo de MISOS es un salto cualitativo en capacidades de la IA con puntuaciones notablemente más altas en tareas como programación, razonamiento académico y, subrayado, subrayado, subrayado, ciberseguridad. Claro, para lo que comunicaba Anthropic es que está muy, pero muy por delante de cualquier otro modelo de IA en este tipo de capacidades. Y además hay algo que hay que redondear, que es que con Mythos se empieza una nueva serie de modelos. Es decir, la gente que usa Anthropic sabe que tiene como tres gamas. Ahora mismo la Haiku, que es un modelo muy pequeño, más barato, súper rápido, en modo gratis, lo tenemos casi infinito. El Sonnet, que es la gama media para muchas tareas es bastante, bastante resolutivo y de hecho el último Sonnet se acercaba en muchas cosas a, el anterior de la gama alta que es los Opus, los Opus son los poderosos grandotes, los que digamos, elevan el rendimiento de Cloud Code a las capacidades que nos impresionan y que está en su versión 4.6. Claro esto del Mythos viene a ser una capa más alta, parece ser que esa capa más alta tiene el nombre interno de capibara.

Matías S. Zavia:
[33:16] Y externamente va a ser mitos. Bueno, eso parece que es la estrategia de comunicación, pero claro, una capa más alta por encima de Opus significa dos cosas. Una, es que en precio sí, sí que creo que lo van a vender más caro. Es decir, creo que la suscripción a MITO no va a estar en los 20 dólares al mes, Matisse, aquí prepara el bolsillo. Y dos, que la propia Anthropy reconoce que el riesgo con respecto a este modelo es todavía mayor, sobre todo por sus capacidades en cuestiones de ciberseguridad, porque estas capacidades son tanto defensivas para securizar entornos, para, por ejemplo, impedir que metas el código fuente en los paquetes que subes. Por ejemplo, pero también en la ofensiva, en los asaltos, búsqueda de problemas de seguridad, craqueos de sistemas y robos de información. Entonces, parece ser que Mitos está terminando de cocinarse y que la preocupación de Anthropic está sobre todo en cómo controlar esta parte y que Anthropic reconoce que con algún cliente ya lo están probando, Mati.

Antonio Ortiz:
[34:31] Yo, la verdad, me alegro mucho de que sigan saliendo modelos cada vez mejores y que el muro todavía no esté ahí. Me lo creeré que está tan por delante Anthropic cuando el Pentágono publique Friendship Regain with Darío Amodei y se den la mano de nuevo, porque si está tan avanzado y tan por delante, pues supongo que al Pentágono volverá a interesarle trabajar con Amodei. De todas formas, una cosa que yo estoy ya viviendo en mis carnes es que estos modelos gigantes nos están permitiendo tener modelos más rápidos como el filtrado capivara fast dentro de esa nueva familia que seguramente sea el que usemos y que nos va a ir de lujo sin necesidad de poner en riesgo la economía o la seguridad global de países occidentales.

Matías S. Zavia:
[35:30] Pues, bueno, yo creo que, fíjate, yo creo que a lo mejor Darío Modell ha forzado esta filtración, vamos a ponernos conspiratorios, porque quería meterse a la doblada a Donald Trump. Básicamente, ahora que está, bueno, de entrada un juez parece que está dando razón a Anthropic, lo discutimos larga y prolíficamente en el podcast, pero bueno, retomando esta designación del Departamento de Defensa de Estados Unidos de Anthropic como empresa de riesgo en el suministro para que ninguna administración lo utilice, que es algo que puede tener implicaciones muy serias para la compañía de Darío Modell. Bueno, básicamente hay una parte ¿no? que.

Matías S. Zavia:
[36:18] Que parece que es una suerte de un castigo un poco forzado, en el sentido de que, claro, no porque Cloud mantenga sus restricciones y esas restricciones las controle la Antropic, no parece que eso sea un riesgo para el suministro, que la elección de esta designación tiene más que ver con un castigo por no plegarse las negociaciones. Bueno, mi opinión es que esto forma parte de las negociaciones, Es decir, ojo, ojo, Pentágono, que te vas a quedar sin el chicharro de 2026. Bueno, takes y claves fundamentales. Lo que da a entender el blog del post y toda la conversación que hemos visto alrededor es que este es un nuevo modelo muy grande. Esto es súper interesante porque la industria básicamente nos estaba diciendo últimamente, en lo de hacer los modelos más grandes tampoco tenía muchísimo recorrido y aquí hemos tenido pequeñas excepciones. Creo que el GPT-4-5, que parecía, esto es mucho más grande que lo que teníamos antes y no consiguieron mejoras destacadas, mientras que con GPT-5-2 y todo lo que hemos visto después.

Matías S. Zavia:
[37:31] Sin ser modelo notablemente de mayor tamaño, sí conseguían esas mejoras. Bueno, pues parece que esas leyes del escalado, más datos, más horas de entrenamiento.

Matías S. Zavia:
[37:44] Mayor tamaño del modelo, vuelven a funcionar. Y vuelven a funcionar con, entendemos, y aquí es otra de las claves importantes, el aprendizaje por refuerzo encima de los LLM. Este paradigma del aprendizaje por refuerzo es algo en la que la gente de Anthropic, no solo de Riemoday, sino los investigadores cuando van a podcast, y además que a mí es un género que me flipa porque...

Matías S. Zavia:
[38:07] Por aquí hemos contado ya mil veces de que si el aprendizaje por refuerzo generaliza sobre los LLM se viene que podrán hacer casi cualquier tarea del conocimiento y por lo tanto esas son las explicaciones fuertes de la IA del futuro. Bueno, en principio cabe suponer que están consiguiendo que el aprendizaje por refuerzo sobre el LM y con un modelo de gran tamaño esto lleve a la IA a un nuevo nivel que no hay muro o por lo menos no se ha encontrado y no hay techo y 2026 va a ser increíble, esta es una aproximación y luego yo guardaría un 10% de hipótesis para pensar si estos grandes avances que dicen que han logrado con mitos, que dicen que hayan logrado con mitos, vienen también de alguna innovación estructural o alguna innovación, por así decirlo, más científica que ingeniería. Es decir, al hallazgo de un nuevo paradigma o una nueva mejora en cómo se programa y se desarrolla un modelo inteligente artificial y esto sería todavía más interesante porque le otorgaría una ventaja diferencial.

Matías S. Zavia:
[39:19] A Zropic con Cloth. Y es que si tú encuentras esa innovación, esa forma de hacer la inteligencia artificial y te la guardas para ti, no haces como Google con el Transformer, que publicas un paper y todo el mundo se entera, sino que te la guardas para ti, pues puedes empezar a construir un diferencial, un algo en el que no te pasa que en tres meses o cuatro meses llega otro modelo

Matías S. Zavia:
[39:44] de la compañía de al lado y estás igualado. Entonces yo creo que ahí vamos a tener una de las elementos en los que fijar la lupa y mirar con detalle.

Antonio Ortiz:
[39:56] A mí la verdad es que me emociona que volvamos a un punto en el que una de las grandes despunta y no están todos los modelos igualados como hablábamos hace unos meses lo que está despuntando Antonio últimamente es tu perfil de Twitter estás performando al máximo nivel en Twitter incluso empieza a ser competencia desleal con los takes que traemos

Antonio Ortiz:
[40:22] A monos estocásticos, ¿no? Por ejemplo, leo un tuit, leo un tuit lo que te dicen, este modelo es más peligroso que el diablo el mayor riesgo en la historia lo peor que ha pasado desde que le regalaron un órgano a Paquirín lo que entiendes van a subir el precio de Cloud cuando lo metan estás performando Sí,

Matías S. Zavia:
[40:43] Es que ahí en Bart Darío, en el Darío malvado, yo creo que se está pensando, claro, él era un ingenuo, un hombre dedicado, siempre se le ha conocido sus filias por su adscripción al altruismo efectivo, esta gente que piensa en el largo plazo. De hecho, luego hay como mucho hate al altruismo efectivo, que es algo que durante años yo he estado observando con curiosidad.

Matías S. Zavia:
[41:08] Pero claro, ahora le ha entrado todo mal a Darío.

Matías S. Zavia:
[41:12] Él se ha cansado de ser el pim pam pum, de ser el bueno de la película. Es verdad que sigue manteniendo una estética que le hace idóneo para protagonizar una película típica de universitarios salidos 4 y cosas así. Pero yo creo que él ha dicho, aquí vamos a jugar duro todos y aquí vamos a jugar el marketing curioso. Y extraño de, si viene el modelo más peligroso y espantoso que pueda haber afrontado la humanidad, te subo el precio. Y ese cambio yo creo que es lo que estás jugando. Pero, fíjate, en marketing curioso es como la gente de Google tiene también un proyecto interno. Tiene una herramienta que, claro, dejan entrever, dejan filtrar. La gente de Business Insider con, de nuevo, exclusivas y primicias de voces internas de Google, dicen, oye, esto es súper popular dentro de la empresa, está haciendo un montón de código, la gente está entusiasmada dentro de Google de que lo van a aprender. Petar, nombre privado que le han dado a la herramienta, el agente Smith.

Antonio Ortiz:
[42:24] Tienen que parar. Bueno, estoy aquí con Ethan Mollick, que dice ni una cosa ni la otra, ni Agent Smith y Mythos, ni GPT 5.5 X High Codex Nano. Ninguno de los dos extremos. Me encanta. ¡Ja, ja, ja!

Matías S. Zavia:
[42:44] A mí lo de la gente en mí me hace gracia, ¿no? Porque, además, esto a la gente, a los periodistas, les vuelve locos, ¿no? Aprieta, ¿no? Es que no has entendido que la gente mira el malo. Y claro, sí que lo he entendido, ¿no? No era tan difícil Matrix de entender, ¿no? Bueno, hay que volver a ver Matrix y entender un poco el agente Smith, porque para mí tiene mucha gracia, tiene un punto irónico. Y, ojo, que Google es de la poca que se ha atrevido a mantener como nombre comercial el nombre interno o privado. Como funcionó también lo de Nano Banana, ojo, ojo, porque ahí Google puede redoblar la apuesta y, bueno, como ahora está de moda resignificar cosas, a la gente le encanta resignificar cosas. Algo que antes era un insulto, pues yo lo resignifico. Pues claro, el agente Smith también, ¿por qué no? En todo caso, Mati apuntaría aquí algo, que nos salimos un poco de la parte

Matías S. Zavia:
[43:38] de la inteligencia artificial, porque de nuevo habría que preguntarse qué ha visto Google, Matías. ¿Qué ha visto para anunciar lo que ha anunciado sobre seguridad y cifrado en la era de la cuántica, Matías?

Antonio Ortiz:
[43:55] Es que en la computación cuántica, yo no sé cuántas empresas están ahora mismo a la altura de Google. Entonces, es difícil vislumbrar un futuro en el que Google no lo gane todo. Y si llega la computación cuántica y rompe con los cifrados de las cripto, por ejemplo, pues ahí estará Google para salvarnos, Antonio, en 2029.

Matías S. Zavia:
[44:22] Claro, tú lo estás deseando, ¿no, Mati? Dí la verdad.

Antonio Ortiz:
[44:26] Es que lo necesito.

Matías S. Zavia:
[44:28] Tú estás deseando que se rompa el cifrado de Bitcoin, todo vaya a cero y tú puedes decir, hombre, yo he pasado de perder 10.000 euros a he pasado a perder cero.

Matías S. Zavia:
[44:39] Yo te entiendo, ¿no? Psicológicamente tiene que ser un consuelo, ¿no? Pero bueno, el caso es que lo que ha anunciado Google es un cambio, una modificación en las expectativas de cuánto se tiene, va a ser necesario estar protegidos, es decir, haber hecho una transición a una criptografía poscuántica. Dicho más o menos en cristiano, básicamente dicen que los sistemas de cifrado de la informática clásica, que nos han funcionado y nos han acompañado las últimas décadas, como la informática cuántica, ese nuevo paradigma, esa nueva forma de hacer las computadoras, será capaz de superar este cifrado, pues cuando se haya conseguido el cifrado clásico ya no nos cifrará las comunicaciones.

Matías S. Zavia:
[45:33] Y nos lo cifrará también toda la parte en la que se basa el mundo cripto y el mundo de los pagos y de transacciones con este tipo de monedas digitales. Entonces, claro, lo que dice Google, esto que es una hipótesis que lleva circulando desde que a alguien se le ocurrió hacer ordenadores cuánticos. Si se le ocurrió la idea de hacer ordenadores cuánticos, pues nosotros vemos que el horizonte se va a acercar, que será algo real y que lo prudente será tener nuevos mecanismos criptográficos resistentes a los ordenadores cuánticos para 2029.

Antonio Ortiz:
[46:12] Mira, al mismo tiempo, un estudio de Oratomic, Caltech y la Universidad de California Berkeley, las computadoras cuánticas pueden romper la criptografía con tan solo 10.000 qubits atómicos reconfigurables. Está ya ahí, Antonio, y voy a recuperar mis bitcoins. No van a valer nada para cuando lo consiga, pero está ya cerca.

Matías S. Zavia:
[46:38] Ay, bueno, pues es que a mí hay una cosa que me preocupa porque nosotros que siempre hemos sido un podcast de IA y Metaverso, con nuestro plan B, cuando estallé la burbuja, pues fingiremos que nunca hemos hecho nada de IA ni nunca hemos explicado y volveremos al Metaverso. Esa era la estrategia inicial. Ahora, viendo estos horizontes, Mati, pues se nos complica la cosa. Porque el metaverso era más fácil. Ah, mira estos monigotes que ha hecho Zuckerberg, qué cosa más ridícula. Mira a estos señores de 50 años fingiendo tener 13 años en Roblox, cuidado con eso. Ese tipo de takes para nosotros están al alcance de la mano. Ahora, el mundo cuántico, Mati, es que yo creo que en casa de mi madre Todavía tengo los apuntes de la física de la carrera y no queda otra. Es decir, para explicar la cosa cuántica hay que hincar codos y, bueno, aquí venimos recomendando hacer cursos de inteligencia artificial. Ese es el plan A. Ojo, de hecho, voy a empezar una formación de IA en una semana, ya lo contaré. Entonces es el plan A. El plan B es recuperamos física de la carrera y todo el mundo a estudiar cuántica porque, claro, vamos a explicar los cubits.

Matías S. Zavia:
[47:59] Olvídate del sistema binario. No sé, no sé. Va a ser un retador, Mati. Como retador fue una historiaza, un salseo. Ahora sí lo podemos traer. Que es cuando el amigo Hassabis tuvo que deshojar la margarita Porque tenía más de un pretendiente cuando vendió su DeepMind y esos pretendientes no eran otros que Google y quien le ofrecía todavía más dinero que era Mark Zuckerberg.

Antonio Ortiz:
[48:30] Uf, es que visto en retrospectiva, igual esta ha sido de las compras más importantes en la historia. Y a Mark Zuckerberg, pues que compró WhatsApp, que compró Instagram con muy buen ojo, pues con esto ya se habría coronado, pero no salió.

Matías S. Zavia:
[48:50] Sí, pues la historia, el reportaje Wall Street Journal se basa, digamos, en lo que va a contar un libro que está a punto de salir. Se llama La Máquina Infinita y que versa sobre el amigo Hassabis. Bueno, el caso es que, recordemos, Hassabis es de los fundadores y el mayor dirigente de DeepMind, una compañía de inteligencia artificial radicada en Londres y que no era para nada una desconocida. La gente que había invertido en DeepMind era gente como Peter Thiel o Elon Musk.

Matías S. Zavia:
[49:27] Y entonces, bueno, DeepMind tuvo sus momentazos importantísimos. Se suele recordar, por supuesto, a AlphaGo, pero es una empresa imprescindible para entender el desarrollo de la aprendizaje por refuerzo. De hecho, lo hemos contado alguna vez en el podcast, el aprendizaje por refuerzo hasta DeepMind tenía la problemática de que básicamente cada inteligencia artificial era súper estrecha, optimizada para una función que solo podía hacer una cosa. Y ellos con el mundo de los videojuegos con la simulación de los juegos de Atari consiguieron que una sola red neuronal para aprendizaje por refuerzo jugara muchos videojuegos entonces esa apertura de la estrechez de la IA en el Rainformer Learning pues se la debemos también a Hasab y su equipo bueno me pierdo con las historias el caso es que.

Matías S. Zavia:
[50:27] En 2013 se acerca Larry Page a Hasabiz en una fiesta de cumpleaños de Elon Musk. Fíjate, ¿cómo tendría que ser aquella fiesta? Que juerga, ¿no? Hay el cumpleaños de Elon Musk, hay Larry Page. Claro, ahí no es como nosotros en la fiesta, que a veces se nos va un poco de la mano y saludamos a la gente dos veces. Larry Page tuvo esa inteligencia de no pasarse con las sustancias y en la fiesta se llega a Hasabi y le propuso, oye, Demis, vente a Google, que, bueno, básicamente le haría las promesas típicas, ¿no? Tenemos computación infinita, podrás investigar tus cosas de IaaS. Recuerda que aquí en Google pagamos las comidas, ¿no? Tenemos cocineros y hay cajones con KitKat, ¿no? Entonces, claro, le haría toda la promesa de recursos para fichar a Hasabis. Y, bueno, en las primeras reuniones dicen, yo creo que aquí Hasabit lo cuenta para quedar súper bien. No, no, nosotros de precio, el dinero es secundario. Lo importante es que no es el dinero que yo me vaya a embolsar, sino si va a haber presupuesto para entrenar modelos de IA, que es lo que nos gusta. ¿Cómo podemos ser también mantener cierta independencia y, sobre todo, garantías de la gobernanza de la tecnología?

Matías S. Zavia:
[51:52] Aquí estaba también nuestro amigo Mustafa Solimán y entre ellos querían un consejo independiente de seguridad con científicos, con filósofos, para controlar los despliegues de la IA. Teníamos en cuenta que eran tiempos bastante más ingenuos de los que vivimos ahora y una de las cosas que también exigían era prohibir los usos militares que ellos tuvieran esas prerrogativas entonces.

Matías S. Zavia:
[52:17] Básicamente aquí aparece el amigo Mark Zuckerberg y según el libro le ofrece más dinero, de lo que ofrecía Google y en el sentido de que había un bonus de fichaje, de esto que le gusta a dar a Mark, te doy un dinero para que te puedas olvidar el resto de tu vida del dinero. ¿Qué es lo que pasa? Que según Hassabis, le cuenta al autor del libro, claro, Zuckerberg no mostró la suficiente sensibilidad sobre la gobernanza y la seguridad de la IA. Claro, te llega Mark Zuckerberg y te dice, uf, es que jolín, te compro y vamos a hacer cosas increíbles cómo mejorar un 0,1% la recomendación de Instagram. Entonces, a lo mejor, ahí, a Demis, pues eso no le, por lo que sea, no le parecería lo suficiente en el precio exiguo. Y el resto de la historia pues ya la sabemos. Hasabis y Mustafa acaban tirando por Google, de hecho, negocian fuerte y al final le sacan los 650 millones a Larry Page y compañía, mientras que Zuckerberg se queda un poco decepcionado, se queda un poco roto ante el rechazo de los británicos y acaba fichando a nuestro amigo del podcast, Jean LeCoultre.

Antonio Ortiz:
[53:39] Es que mirar hacia el pasado con lo que sabemos hoy en día es a veces hasta doloroso. Las esperanzas de Mark Zuckerberg con Jan Lecun, que fíjate cómo han acabado. 650 millones de dólares por DeepMind, que hoy a lo mejor 650 millones de dólares es lo que gasta el usuario que más usa CloudCode, que a lo mejor se gasta 650 millones al año.

Antonio Ortiz:
[54:04] Y también que Londres era la Unión Europea en aquel entonces, ¿no? Y podría haber sido, pues, una empresa europea en el sentido más Unión Europeístico. Y nada, es incómodo mirar al pasado desde esta perspectiva.

Matías S. Zavia:
[54:25] Sí, es la historia de lo que pudo haber sido yo creo que algunas noches Mark también se despierta y dice Jolín, si hubiera mentido No, no, lo que me preocupa Uy, la gobernanzo de la IA, vamos, yo me despierto por la mañana y lo primero que hago es gobernar la IA, vamos ni leer el marca, ¿no? Lo primero, boom, está la IA bien gobernada pum, pum, pum, y ya, si acaso luego otras cosas, claro si hubiera dicho eso, pues ahora hubiera tenido DeepMind Y claro, los mejores modelos de inteligencia artificial serían de meta, ¿no? Veríamos Reels de Instagram increíbles, Mati. Sería una cosa...

Matías S. Zavia:
[55:05] Bueno, una cosa, es que hemos estado demasiado centrados en las Big Tech. Podemos hacer un pequeño comentario quizás sobre que ha salido ArcG3, digamos, nuestro benchmark favorito, la iniciativa del Big francés François Schollet, que, bueno, digamos, es una rara avis en el mundo de las pruebas para inteligencia artificial y que, bueno, nuestro buen amigo Domingo Avedardo ha hecho un post muy majo para poder contar. Y para poder explicarlo sobre que intenta medir ArcGuy, su historia, sus versiones, la 1, la 2, la 3. Bueno, la historia de este benchmark, de este conjunto de pruebas, es pues la historia de intentar construir algo en la que la inteligencia artificial, sobre todo, se vea retada con problemas nunca vistos. Con la capacidad de generalizar entre nuevos problemas y entre nuevas situaciones pensar sobre ellos y con muy pocos ejemplos nuevos puedes conseguir este aprendizaje en tiempo real, no en la fase de pre-entreno. Entonces siempre.

Matías S. Zavia:
[56:18] La impresión con ARGIG es que más que medir, ¿no? Ese modelo mejora un 5% respecto a la generación anterior en el GP de EVAL o en el UCBW Bench, ¿no? Que miden muy bien, entre comillas, las pequeñas mejoras graduales. Cada generación de ARGIG, el desafío es de un salto cualitativo de mucho mayor calado, ¿no? Entonces, hemos tenido las versiones 1, 2, Se han ido, lo que se dice, saturando. Es decir, cuando llega ARK allí, pues todos los LLM fracasan absolutamente en él. Se suelen basar en pequeños juegos visuales o en pequeños problemas que para los humanos intuitivamente son asequibles, pero que para aquellos sistemas de IA eran bastante complicados. Pero llegó O3 de OpenAI y fue un momento, si lo recordarán los oyentes del podcast,

Matías S. Zavia:
[57:15] en las que nos dejó boquiabiertos. Porque de repente teníamos un conjunto de problemas de razonamiento, pensamiento lógico y que nunca había visto el modelo y de repente alcanzas el 87% de aciertos. Pues hay gente que ahí se hypea de nuevo empieza a pensar, bueno, esto es que ya los modelos generalizan y bueno, para hacer una idea el ArcGuy 1, el Gemini 3.1 Pro que es el mejor de Google.

Matías S. Zavia:
[57:44] Pues ya está básicamente al 100%, lo hace siempre perfecto en 2025 sacaron la versión 2 de ArcGuy, entonces aquí se exigían ya un razonamiento simbólico más profundo componer reglas más complejas de múltiples pasos y como cada versión de este benchmark.

Matías S. Zavia:
[58:07] Los modelos que habían hecho bien el 1, pues, se encontraban el 2 y no eran capaces de conseguirlo. Es decir, pasaba, había un modelo, sin ir más lejos, que pasaba del 87% en el 1 al 3% de aciertos en el 2. Entonces, ¿qué sucede? De nuevo, pues, final 2025, principio 2016, GPT 5.4, Cloud Opus 4.6, empiezan a hacerlo muy bien. Entonces, ahora mismo creo que el mejor es el 5.4 Pro, el que tienes que pagar 200 para catarlo. Está en un 80 y pico por ciento, 83 por ciento, si no recuerdo mal. Y volvemos a la guerra con el Arga-G porque sacan la versión 3 presentada en marzo de 2026.

Antonio Ortiz:
[58:51] Y es que... Sí, volvemos a lo que comentabas en el episodio anterior de lo lejos que estamos ya de los loros estocásticos, ¿no? Porque, claro, ArcGym empezó midiendo LLMs, pero luego cuando se fue saturando es porque estos modelos de repente podían razonar, podían usar herramientas, etcétera, etcétera, etcétera. Todo lo que hemos visto en los últimos años desarrollarse por encima de los LLMs, entre otras cosas del aprendizaje por refuerzo, pero es que ArcG3 va a medir una cosa que todavía no hacen muy bien, que es ir aprendiendo de forma acumulativa mientras interactúan con estos puzles, con este entorno que desconocen.

Matías S. Zavia:
[59:37] Sí. ArcG3 intenta llevar a un nuevo nivel, esto que además lo explica muy bien siempre Guillermo Barbadillo, tanto en la entrevista que hizo con nosotros, porque cuando salió O3 y sacó tan buena nota, pues os recomendamos volver a escuchar a Guillermo. Guillermo es un desarrollador que se ha movido siempre en los últimos años alrededor del mundo de la IA y que participa en las competiciones para resolver este benchmark. Entonces, además de los big tech de las grandes empresas, de los grandes laboratorios que ponen a sus modelos a probar, pues hay un conjunto de hackers, programadores, pequeños equipos que busca desarrollar pequeñas soluciones, claro, presupuestariamente mucho más limitadas para resolver ArcGIS. Lo interesante de este mundillo es que ahí se prueban nuevos enfoques y nuevas prácticas y me gusta mucho siempre porque Guillermo ha explicado muy bien que ArcG va siempre hacia empujar a que la inteligencia artificial sea una genuina, generalizadora, es decir, que cosas que no ha visto nunca sea capaz de resolverlas, pero que también aprenda de su experiencia, sus errores y sus aciertos de manera que se vaya afinando. Y creo que ArcG3 es un paso más en esa dirección.

Matías S. Zavia:
[1:00:56] Creo que es uno de los retos que tiene la industria de una IA que consiga seguir aprendiendo en tiempo real. Es una de las grandes diferencias de la inteligencia artificial respecto a la inteligencia humana. Nosotros por la experiencia aprendemos y nos lo quedamos. Los modelos grandes actuales son preentrenados y ahí dejan de aprender. Hay un montón de trucos para que a nuestros ojos parezca que no, que están al día, como conectarse a internet y buscar información, que es uno de los pequeños trucos.

Matías S. Zavia:
[1:01:26] Luego hay otro truco que lo vemos mucho en los sistemas como Open Cloud y también, de alguna manera, en los Cloud Code de la vida, que es básicamente escribir cosas de las que quieres acordarte, eso es un poco memento, comprimir mucho esa información de lo que quieres acordarte y tener ficheros donde los tienes guardados. Entonces, básicamente, incorporas al contexto una suerte de memoria que has ido escribiendo para que de cara al usuario parezca que has aprendido respecto a lo que ha pasado con tu proyecto, con tu desarrollo. Y luego está la vía de Ariomodei. La vía de Ariomodei dice, bueno, un LLM aprende siempre y cuando estás en el mismo contexto. Si el contexto pasa de un millón de tokens, imaginemos, a 10 millones de tokens o a 100 millones de tokens, Es decir, todo lo que esté en ese contexto se puede considerar que la IA lo ha aprendido porque lo tiene en cuenta. Así que no habría que cambiar la arquitectura de los modelos de inteligencia artificial. Simplemente es una cuestión de ingeniería de que tengan un contexto más grande. Una ventana en la que siempre en la misma ventana, pues digamos, el sistema lo tiene, está al tanto y no se olvida. Me parece un poco tricky lo que dice el amigo Omodei, pero puede ser práctico en algunas circunstancias.

Matías S. Zavia:
[1:02:46] Y los modelos actuales sacan 0, 1, 2, 3%. Muy mal, muy mal, Mati.

Matías S. Zavia:
[1:02:52] Así que vamos a ver, vamos a ver si mitos y todo lo que se viene en 2026 consigue mejorar esto. Pero antes de irnos, Matías, creo que es oportuno, creo que es necesario que discutamos un nuevo Puerta Grande o Enfermería.

Antonio Ortiz:
[1:03:20] ¡Buah! ¿Cuánto hype, Antonio? ¿Qué me traes?

Matías S. Zavia:
[1:03:24] Bueno, hay un género que se va a ver beneficiado, un género de Internet, en el que, tú sabes, esa gente que tiene éxito en redes sociales diciendo, oh, me llamó un estafador y le he seguido la corriente devolviéndole los mensajes, lo típico, oh, soy una mujer ucraniana solitaria que te he visto en Internet y me gustaría conocerte. Y le sigue la conversación y luego lo publican todo y se hacen las risas Sí.

Antonio Ortiz:
[1:03:54] Está un poco quemado pero lo he visto,

Matías S. Zavia:
[1:03:56] Sí Puede haber un revival de este género porque la gente está empezando a poner a agentes de inteligencia artificial para gestionar los mensajes fraudulentos Entonces hay este man que lo comparte en Reddit que básicamente atiende a un pequeño estafador que le pedía algo así como cómprame una tarjeta regalo de 500 dólares es porque luego yo te lo pago, te doy más dinero. Bueno, en fin, un tipo de estafa que parece bastante sofisticada. Dame una tarjeta de regalo que luego yo te la pago. Pues la verdad es que el proceso de inteligencia esencial a charlar con este man y que, empieza a contarle cosas un poco raras al estafador, ¿no? El tipo, estoy en un semáforo y hay una ardilla muy bonita y tú crees que está casada la ardilla, ¿no? O no, se me ha olvidado, he vuelto a casa pero he llegado a una casa que no es la mía, ¿qué hago? Y empieza a mandarle como mensaje muy absurdo al estafador y básicamente a mandarle capturas de pantalla inventadas, en fin. Bueno, en fin, que es una cosa bastante trópida y bastante rara en la que el estafador al final le dice, por favor, por favor, deja de hablarme, ya no quiero el dinero, que Dios te bendiga, pero déjame en paz, ¿no? Básicamente.

Matías S. Zavia:
[1:05:19] El resumen del tío, Mati a ver si esto tiene lógica el estafador dedicaría unas 14 horas, de trabajo a perder el tiempo con el agente pero el tío se gastó, claro en costes de la API, en token un dólar con 42 para entretener al estafador y mantenerlo ahí en las conversaciones ¿tú crees que esto renta? ¿cómo lo ves?

Antonio Ortiz:
[1:05:47] Pues es que no sé si las 14 horas del spammer, a lo mejor imagínate un malasio del malasio son más o menos de 1,42. Ahí yo creo que más o menos estarán por encima el coste de tener a un agente gastando este tipo de broma que lo que le cuesta a la empresa de spam contratar al scammer. De todas formas, me preocupa más, Antonio, que ocurra lo contrario. Igual que estamos viendo un internet lleno de slop y lleno de basura, gracias a los modelos de inteligencia artificial, nuestro teléfono, nuestro número de teléfono, que ya se ha filtrado 200 veces, se vuelva impracticable. Porque haya tanta facilidad y se abarate tanto el coste de llamarte y de que una voz creíble, sintética pero creíble, te intente estafar de todas las maneras posibles, tengamos que dejar de usar el teléfono. Yo como millennial lo agradecería, a mí no me gusta usar el teléfono pero ¿cuánta gente habrá ya que tenga desconectadas las llamadas para evitar esta oleada de spam que se nos viene?

Matías S. Zavia:
[1:07:07] Pues se viene, pero fíjate que luego ahí hay una lógica que los costes de este hombre entreteniendo al otro con su agente nos dan una pista que es, En los intentos de estafa es muy importante, si eres un estafador, contener los costes. Es decir, la lógica del spammer, de la que hemos hablado alguna vez, se basa en que mandar un millón de correos para que pique uno tiene que ser muy barato, porque ese único que pica tiene que justificarte toda la inversión realizada en mandar el millón de correos. Ahora bien, claro, los agentes de IA con voz creíble, de buen nivel, tienen unos costes de inferencia bastante más altos que el mandar el mensaje de correo. Por lo tanto...

Matías S. Zavia:
[1:07:58] ¿Conviene hacerlos y llamar? Sí, pero solo a ricos. Es decir, ese uno entre un millón que pique la estafa, es que la IA es muy creíble y ya no es uno entre un millón, es uno entre 10.000. Bueno, ese uno entre 10.000 que te pague todo el coste de inferencia de las llamadas telefónicas, más el beneficio que esperas conseguir, claro, tiene que ser una estafa lo suficientemente razonable. Entonces tienes que filtrar bien no llamar a ti esos tiene que ser una iambulista que diga tienes que buscarme en las filtraciones pero no busques en las filtraciones de Digi no busques en las filtraciones de supermercados Día tú tienes que buscar en las filtraciones del Sánchez Romero tienes que buscar en las filtraciones de Rolex entonces tienes que seleccionar muy bien, de dónde roban los teléfonos los números en este caso, para, hacer un ajuste fino ahí bien de los sistemas de estafa ¿qué mente tenemos para estas cosas? Madri, qué curioso.

Antonio Ortiz:
[1:09:04] Fíjate, el otro día me quitó el sueño una estafa típico SMS que te llega nombre de banco, efectivamente mi banco este es el código para realizar la transferencia de monto, y es un monto muy similar casi calcado del que yo tenía en mi cuenta de ese banco y yo sabía que era spam porque nadie había ordenado ninguna transferencia pero la manera en la que habían calculado no sé cómo, más o menos el dinero que yo podía tener en la cuenta me quitó el sueño el spam es cada vez más sofisticado

Matías S. Zavia:
[1:09:46] Pues, pues, enfermería para el mundo, spammer y estafador que se viene con la

Matías S. Zavia:
[1:09:51] inteligencia artificial. Y vamos a la nueva terminología, Matías, que se está empezando a desarrollar en las empresas. La cultura del management tiene que ir acogiendo la inteligencia artificial y así hemos visto crecer para Dick Vax como el copiloto, el human in the loop, el humano en el bucle.

Matías S. Zavia:
[1:10:17] Y ahora tenemos una nueva expresión que descubro en el subreddit de ciberseguridad, que es el promstituto profesional, que es, atención, cómo lo describe el man que acuña el término, o por lo menos el primero que lo he visto usando. Y que básicamente él explica que había un nuevo compañero en la empresa, una nueva incorporación, que él estaba haciendo shadowing.

Matías S. Zavia:
[1:10:48] Eso para mí, de nuevo, es un enigma, ¿no? Que le está haciendo shadowing para ver dónde encajaría mejor. Una cosa curiosa, esto de, oye, primero te contratamos y luego vemos dónde encajas. Pero el caso es que este hombre, el que escribe el post, dice que le encargó alguna tarea, ¿no? Como una nueva normativa, cómo nos afecta, ¿no? Entonces, el tío, lo que hice, este Prompt Institute, el nuevo en el equipo, la metió en ChagPT y le pidió un resumen. Y luego metió en ChagPT el portafolio de productos y servicios y básicamente le dijo a ChagPT que lo hiciera todo. Y bueno, cuando revisaron el trabajo, horas después, el Excel, según el man del post, que le presenta el novato, es un desastre. Y ahí empieza a explicar, Básicamente, este nuevo profesional tiraba todo el rato de IA, pero picaba en las alucinaciones, errores y, por lo tanto, pues hacía un mal trabajo. Entonces, claro, él dice, contamos con este fichaje para que cubra un papel importante de ingeniería de testing. Porque vamos a tener una baja pronto pero yo lo que veo es que este tío es un prostitute un prostitute que lo hace todo con la IA confía en toda la IA y yo no entonces aquí se viene un nuevo reto para el mundo del management, Matías.

Antonio Ortiz:
[1:12:18] Es que, claro, tú puedes hacerlo todo con la IA a dos niveles. Uno, el sustituible fácilmente por un agente de IA y uno ligeramente más sofisticado en el que aportes algún valor que justifique que estés en el equipo y esa diferencia pues a veces es sutil. A mí, yo me encanta ir a la oficina porque siempre había trabajado desde casa y me mola el rollo de ir allí, comer con mis compañeros, conocer a compañeros, pero estoy encontrando una debilidad en los días que voy a la oficina en lugar de teletrabajar, que es que no puedes, o por lo menos yo soy una persona un poco tímida en ese sentido, estar hablándole al ordenador. Y hay dos formas de trabajar con modelos de lenguaje y agentes de IA una es escribir el prompt o copiar y pegar el prompt y otra es hablarle lo cual resulta mucho más rápido mucho más eficiente pero en un entorno de oficina te pueden pasar dos cosas

Antonio Ortiz:
[1:13:26] Primero que no está bien estar todo el mundo ahí agritándole al ordenador y segundo que haces público para el resto de la oficina la calidad de tus prompts o la calidad de lo que le estás pidiendo a la IA. Y yo a lo mejor pues le estoy pidiendo cosas básicas a veces, ¿no? Igual que cuando coges la calculadora del móvil para hacer 7x8. Pues en ese sentido creo que ahora está ganando el teletrabajo.

Matías S. Zavia:
[1:13:57] Claro. Bueno, yo aquí tengo un hack que te puedo recomendar que es, tú ten una primera lla a la que le puedes decir dame un pron sofisticado que me deje bien delante de la oficina para que parezca un man súper intelectual, sesudo y avanzado, Y entonces, en lugar de usar tu PROM original, tu primera idea, usas ese otro PROM en voz alta, ¿no? Como, este es el máster de la IA, ¿no? ¿Cómo le da instrucciones? ¿Cómo la domina? Este es nivel avanzado. Este es el curso CCC, ¿no? De prompteo. Y ahí sube tu caché y tu nivel, pero básicamente porque ya eres tan flojo que ni haces tu propio PROM. el Epideprom a la IA, que es una de las grandes técnicas secretas que tenemos la gente que queremos ir de listillo. De todas maneras, en todo este tema, yo en España no me preocupa porque nosotros vamos por delante.

Matías S. Zavia:
[1:14:59] Porque lo de Pronstituto se parece mucho a las prestitutas que le echaron troja en el colacao a José Tojeiro, idiomítico del Internet español, y que creo que, claro, nos consigue que toda la España conectada, claro, toda la España estrenada online. A lo mejor dice José Tojeiro en la cola de carnicería y hay gente que no está al tanto. Pero la gente extremadamente online como nosotros, que estamos ahí todo el día y que, ¿no? Forococheabos y cosas de este tipo. Claro, es una referencia cultural de primer orden y entonces ya nos dicen prestitutas, prostitutes y ya nosotros nos hacemos una situación y podemos manejar esta problemática, Mati. Así que, puerta grande para los hackeadores de proms y la cultura española que nos prepara para el futuro pero vamos a acabar por todo lo grande, Matías.

Matías S. Zavia:
[1:15:56] Vamos a acabar en todo lo alto porque vuelve un clásico de monos estocásticos. Vuelve Martín Barsaski. El genio argentino, Matías, vuelve a pensar fuera de la caja. Tiene ese tipo de take que un poco contrarian, un poco alternativa a la forma de pensar convencional de todo el mundo. Este emprendedor, fundador de Yastel, creador de las foneras.

Matías S. Zavia:
[1:16:24] Nos brinda y nos comparte. Esta vez no solo en sus redes sociales, sino en una pieza, un artículo desarrollado en el que profundiza en The Objective, de medio de una creación moderadamente reciente, especializado hasta ahora en José Luis Ábalos, pero que cada vez más también tiene temas de inteligencia artificial gracias a las colaboraciones de Martín.

Matías S. Zavia:
[1:16:50] Claro, para Martín lo que pasa con la IA es que no va a destruir tanto empleo en España. Buenas noticias. Porque nuestra debilidad, atención, se volvió fortaleza. ¿Qué estima el Barsaski? Pues que la IA amenaza mucho más a los países ricos que a los pobres.

Matías S. Zavia:
[1:17:10] Y dentro de los ricos hay una sorpresa que hasta ahora, hasta que ha llegado él, nadie había señalado. España está muy protegida frente al cambio de la IA, porque él se ha leído las cosas, ha leído los papers de Goldman Sachs, y dice que, claro, los vulnerables quiénes son, Japón, Suecia, Estados Unidos, Reino Unido, ¿por qué no sale España? Se preguntaba Martín. Está en el extremo opuesto, atención, y es que la IA reemplaza el trabajo del conocimiento, el trabajo detrás de una pantalla ampliamente digitalizado y el desarrollo de una economía, pues como más gente vive del conocimiento, pues más expuesto está a los impactos de esa nueva tecnología. Entonces, claro, el 75% de los trabajos españoles dependen básicamente de una presencia física y, claro, resulta que, atención, el camarero, el albañil.

Matías S. Zavia:
[1:18:10] El agricultor, la enfermera, el espetero, el mecánico de SEAT, todos esos hacen trabajos que la guía no puede hacer. Así que la debilidad estructural de España, todos esos factores que nos acomplejaban, que pensábamos todo el rato que había que hacer un cambio del modelo productivo, de menos camareros y más ingenieros, todo eso que nunca logramos, ahora es una fortaleza y España está en la mejor posición de todo el planeta, de todo el mundo, para resistir el tsunami que se viene con la integración de la inteligencia artificial.

Antonio Ortiz:
[1:18:48] Sería muy hipócrita, por mi parte, decir algo que no sea a favor. Puerta grande para Martín Varsasky, porque ¿cuánto llevamos en monos estocásticos recomendando a los oyentes, cuando si tenéis hijos en los 18 años o alrededor de los 18, recomendarle técnico de ascensores, albañil, reparador de electrodomésticos, etcétera, etcétera. Entonces, no puedo decir otra cosa que viva España. Tierra de conejos significa España, pues ahora tierra de técnicos de ascensores.

Matías S. Zavia:
[1:19:27] Claro, es que la TEC de Martín tiene unas consecuencias enormes es decir, ¿cuáles son las políticas económicas educativas, sociales que debe afrontar un país como España? Bueno, viendo un poco las posiciones de Varsadzky yo sospecho que digamos, asesora o está más cerca.

Matías S. Zavia:
[1:19:52] Por lo que sea del Partido Comunista de los Pueblos de España los que tienen la caseta de la Feria de Málaga con la bebida más barata, ahí no está Martín. Yo lo veo un poco más en el mundo Vox, por lo que sea. Una impresión que me suscita un poco sus ideas. Y, claro, ¿cuál debe ser el programa económico de Vox ahora asesorado por Martín Basaki? Pues, claro, lo que hay que hacer es todo este dinero que estamos malgastando. En escuelas de ingeniería, por ejemplo, Pues deberíamos subvencionar chiringuitos, pero no chiringuitos en el sentido de organismos públicos con funcionarios, no.

Matías S. Zavia:
[1:20:35] Martín seguramente recomendaría escuela de gente que es pete sardinas, potenciar la formación del camarero. El cambio totalmente de los incentivos fiscales, eso de, oye, si dedicas al I+.D. te puedes desgravar. No, no, no, no. Si te dedicas al I+.D. te subo los impuestos, te subo los impuestos y solo aquel que, por ejemplo, en un local habrá un bar, solo ese, pues a ese es el que hay que potenciar y ayudar. Porque está todo lo que pensamos hasta ahora, Martín se ha dado cuenta de que hay que darle la vuelta como un calcetín. Entonces se viene el gran programa económico de vamos a hacernos la potencia mundial de bares, restaurantes, chiniquitos, bodegas, mesones. Tenemos ahí que potenciar toda esa industria, Matías.

Antonio Ortiz:
[1:21:27] Pues sí, cuando volvamos a tener aves, supongo que podremos maximizar esta premisa. Pero yo estoy a favor voy tarde me he dedicado siempre a vivir del cuento y el cuento es fácilmente sustituible por una IA así que tengo que aprender algún oficio claro,

Matías S. Zavia:
[1:21:47] Fíjate lo único que le ha faltado a Martín es que claro, como no nos pasa los temas antes de publicar, ahí le podríamos ver eso al lado, mira Martín, necesitas un término, que pueda eclosionar en el mundo de la IA como caña maxim, ahora hay que hacerlo todo maxim, no puedes andar a medias caña maxim tapa maxim, ¿cuál es tu propuesta de país? Tapa maxim es distinto, ahí consigues yo creo que fijar la mente de la ciudadanía claramente en comunicar tu visión de progreso social por el que abogas yo creo que más arriba que el tapa maxim no podemos acabar por el episodio Matías mitos.

Antonio Ortiz:
[1:22:31] El modelo de Anthropic es también buena noticia para el caña maxing y para España y con esta idea lo dejamos hasta la semana que viene Antonio Chao Amix

Episodios recientes

Programas relacionados