- Escalada en la Guerra de la IA
- Claude Opus 4.6 vs GPT 5.3 Codex
- Enjambres de agentes inteligentes
- Llegan Kling 3.0 y Seedance 2.0
Patrocinador: Colchón Morfeo trae las rebajas más esperadas del año: hasta un 60% de descuento en toda la web con el código "Rebajas". Es el momento perfecto para renovar tu descanso sin que tu bolsillo sufra.
Encuentra tu colchón ideal: el Morfeo Hybrid Original desde 515 euros, perfecto si buscas firmeza alta y confort híbrido que respira. El Morfeo Altus desde 699 euros, con tejidos naturales de lino y firmeza media-alta. O el premium Morfeo Nature desde 1.065 euros, con algodón y látex natural para quienes buscan confort ecológico de máxima calidad. Todos con fabricación española y diseño ergonómico certificado.
https://morfeo.com/collections/rebajas
monos estocásticos es el pódcast de inteligencia artificial presentado desde Málaga por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Hay un episodio nuevo cada jueves. Puedes unirte gratis a nuestro club social de Telegram y seguirnos en redes sociales:
Todos los episodios en YouTube: https://www.youtube.com/playlist?list=PL-6s6cUsxTnsY_V0rqQFURaHDYuXD0AXj
Más enlaces al pódcast: https://cuonda.com/monos-estocasticos/links
Publicado: 12 febrero 2026
Transcripción
Matías S. Zavia:
[0:00] Hola a todos los monos estocásticos y bienvenidos al podcast de Inteligencia
Matías S. Zavia:
[0:06] Artificial favorito de Dani García. Últimamente hago intro de la intro, no estaba previsto, pero esto tengo que dar un poco de contexto. Antonio, no me había dado cuenta, pero te hiciste viral tirándole hate a Dani García. Compartiendo este vídeo de un señor que fue a Leña, uno de los restaurantes de Dani García, se pidió un cóctel de 16 euros y descubrió que el cóctel escondía un 90% de un gigantesco cubo de hielo y un 10% del brebaje. Ahí está Antonio con sus 529.000 views. Pero Dani García os ha llamado a este señor y a ti, payasos, por criticar el cóctel, porque no entendéis muy bien cómo funciona este hielo especial que no agua el cóctel. Entonces, te has buscado un enemigo a quien he visto por ahí que llaman el Patika Gourmet, lo cual me ha hecho mucha gracia porque hay un semblante parecido entre los dos. No sé si los oyentes de Monos conocen al Patika. pero ya podemos ir con la intro auténtica Antonio, ¿cómo estás?
Antonio Ortiz:
[1:13] Mati, claro, yo quería continuar mi campaña contra Dani García, con el guión te ha saltado la frase que yo había introducido que era el podcast favorito de Dani García lo escucha cuando pone el chupito de la casa gratuito para los comensales después de comer, para mí entraba bien en el guión entraba perfecto, entraba ahí como.
Antonio Ortiz:
[1:34] Impecable pero bueno, el caso es que tú sabes que Dani García y yo Tenemos un enfrentamiento tradicional, clásico. Él no me conoce, pero está ahí. Porque en un momento dado, este chef malagueño decidió soltar una de esas opiniones, una steak, en contra del pepino en el gazpacho. En ese momento nuestros caminos se divergieron y yo estaba pensando desde este tuit y esta involucración con Dani García en cómo al final, por muy bien que intentes hacer las cosas, Mati, aparecen enemigos. Eso es algo inevitable. Tú sabes que yo ahora estoy en mi regreso al running y estoy como preparando ahí mis carreras y aquí he vuelto a redescubrir, Una figura, una tribu urbana que también es mi enemiga, Matías, a la que me enfrento en cada mañana de carreras por los paseos marítimos de Málaga y que son las señoras. Las señoras Matías son una clase urbana aparte y es que en el mundo de las carreras, de los corredores aficionados, hay cierta compañerismo.
Antonio Ortiz:
[2:46] Hay cierta gentilidad, dejar pasar, saludar, mensajes de apoyo. Luego también los peatones del paseo marítimo suelen ser razonables en sus movimientos. Te ven ahí, este pobre señor, es posible que no sobreviva a esta carrera, bueno, voy a dejarle pasar. Hay como una cierta empatía con la gente sufriente. Pero las señoras no, las señoras te miran fijamente, te ven venir desde 20 metros, 50 metros, 200 metros, les da igual, ellas tienen esa pose de, yo estaba aquí cuando todo esto era campo, cuando solo había chabolas de marineros en el paseo marítimo, me vas a hacer tú que me aparte, y además yo he notado una cosa que te va a llegar Matías, las señoras son edadistas, Mientras tú estés ahí en tus 20 y algo largos, en los 30 añeros también.
Antonio Ortiz:
[3:39] Hasta ahí las señoras te dan vidilla, te tratan bien, te lanzan hasta piropos, Matías. Te ven como un hombre en el pic de su fertilidad, de su capacidad de crianza, del momento óptimo para formar familias. Pero una vez que las señoras te sacan de esa caja, Matías, entonces ya solo queda la fría indiferencia, cuando no, la abierta hostilidad, cuando tú con tu carrera osas acercarte a su espacio vital, ¿no? Entonces, cuidado, Matías, porque tú puedes estar viviendo tu luna de miel con el mundo señora, pero todo tiene su final, Matías.
Matías S. Zavia:
[4:19] Yo es que te guardo un buen recuerdo de cuando Univision compró Gizmodo, porque eso aperturó la audiencia de Gizmodo a el gigantesco tráfico que traía de Facebook, en aquellas buenas épocas de Facebook, de señoras latinoamericanas, ¿no? Las señoras latinas, nosotros teníamos un imperio, un negocio, gracias a las señoras latinas, y les guardo un buen recuerdo. Pero luego como hijo me doy cuenta de que llega una edad que ya en mi caso estoy ya ahí en la que tu madre se convierte en una señora y ya no tiene filtros, ¿no? Entonces, pues dice cosas como, igual, si pura ella hubiera sido, pues tampoco se venía a España, ¿no? Lo que habría cambiado por completo mi vida. Entonces, es como que esos ataques de honestidad que yo antes no los vivía. Entonces, mi madre se está convirtiendo en una de esas señoras que a mí me ve como te ven a ti por el paseo marítimo.
Antonio Ortiz:
[5:23] Claro, y además, qué problemático ese universo alternativo en que te mantiene en Argentina, porque es verdad que luego tus cualidades adaptativas, desde un punto de vista evolutivo, no están optimizadas para Argentina.
Matías S. Zavia:
[5:38] ¿no? ¿Cuánta razón?
Antonio Ortiz:
[5:40] El fútbol y tú no, no hay buen encaje ahí, los asados tal, tampoco parece mucho, ni siquiera un poquito de psiquiatría psicoanálisis, tampoco no sé Mati, de verdad que yo creo que tú tienes que hacer ver a tu madre que te trajo a tu hábitat óptimo, bueno básicamente era conectarte a internet, ¿no? Lo que necesitaba tu naturaleza, ¿no?
Matías S. Zavia:
[6:07] Sí, me acuerdo de la primera vez que me conecté a internet aquí en España.
Matías S. Zavia:
[6:13] Antonio, pasamos a la IA.
Antonio Ortiz:
[6:15] Porque este episodio va de inteligencia artificial, Mati, pero sobre todo y ante todo va de enemigos.
Matías S. Zavia:
[6:41] ¡Buah! La guerra que tienen estos dos. Teníamos en el mapa que Sam Allman estaba muy enfrentado a nivel somos archienemigos con Elon Musk y decía el otro día, me estoy deseando que empiece el juicio, ya veréis, contra Elon Musk, pero yo creo que Darío Modell, de la noche a la mañana, se ha convertido en la persona que ocupa más espacio en la mente de Sam Allman, porque la guerra con Apple IA y Anthropic, esto está escalando, Antonio, está escalando.
Antonio Ortiz:
[7:16] Sí, sí, sí, sí. Es que Anthropic empezó con una take, ¿no? Básicamente en la que, básicamente debería decir, nosotros no vamos a poner publicidad en cloud. Nosotros básicamente no creemos en ese modelo de negocio y luego además, pues pegaron la estocada con un pack de cuatro anuncios ya publicados en Twitter y en otras plataformas en las que se ejemplifican escenas en las que hay un humano y otro actor o actriz que hace de la inteligencia artificial y en un momento dado, en una conversación de un carácter marcado personal, una preocupación vital, una atención psicológica, pues el actor o la actriz que hace de la inteligencia artificial empieza a soltarle tremenda promoción. Y la conclusión era, la inteligencia artificial va a tener renuncios, pero Cloud no. Y ahí fue la tormenta en el mundillo de la inteligencia artificial de tremenda troleada de Anthropic a OpenAI por el anuncio de la publi en CGPT, por supuesto.
Matías S. Zavia:
[8:28] Mira, en este momento temporal en el que estamos grabando el episodio, que lo estamos grabando por adelantado por un viaje, no ha sido todavía la Super Bowl, pero siempre que llega la Super Bowl hay algún anuncio que destaca y que se hace más viral que otro. Esta Super Bowl, por lo menos en las horas previas al partido la ha ganado Anthropic con estos vídeos, con estos anuncios son muy divertidos porque el personaje en cada uno de los anuncios, el personaje que hace de ChagPT, pues tiene los típicos
Matías S. Zavia:
[9:01] Dejes y las típicas respuestas cliché del modo de voz de ChagPT en plan, absolutamente vamos a ayudarte a hacer no sé qué, no sé cuánto, y esas pausas de ese pequeño retraso, y el giro final es como Antonio me está contando que cómo hacer el gazpacho con Pepino no sé qué, pero cuando termina de contar la historia dice pero Mati, el mejor gazpacho es el de supermercados día, ¿no? Entonces, ahí nace lo que le repateó tanto a Sam Altman, que luego sacó un ladrillo de texto en su Twitter, porque aunque se estén riendo de que OpenAid haya integrado publicidad, Él jura y perjura que esta forma de hacer publicidad, adaptada a la respuesta, adaptada al usuario, de una forma tan integrada... En la inferencia no es como van a hacer publicidad nunca porque, según las palabras de Sam Allman, no son tontos y saben que eso el usuario lo rechazaría. Menos mal que ha hecho ese razonamiento.
Antonio Ortiz:
[10:06] Bueno, es que hay una parte que Sam Allman tiene toda la razón y dice, los anuncios son graciosos. Bueno, piensa, tiene razón. Y luego tiene esta super rajada contra Anthropic. Claro, lo que tú dices es que no lo vamos a hacer sabemos que nuestros usuarios lo rechazarían. No aparece como la gran declaración de principios de la ética por encima de todo. No lo vamos a hacer, no somos estúpidos, porque no pone el por qué, pero nuestros usuarios lo rechazarían, no es precisamente la máxima del Gandhi de la computación. El caso es que de alguna manera creo que Darío ha forzado a la máquina para que Saralman y OpenAI tuvieran que reaccionar. Y cuando estas cosas pasan, cuando fuerzas a tu rival a señalarte y engancharse contigo, la impresión desde fuera es que soy dos competidores igualados. La impresión desde fuera es de que esto es una pelea entre dos y que realmente estáis en la carrera y estáis en las competencias. Si mañana, no sé, la gente de Mistral se mete con Chagetet.
Antonio Ortiz:
[11:15] Seguro que Alman no responde, ¿no? ¿Por qué lo hace? Porque realmente ve que el momentum, desde que Cloud Code con Opus 4.5 volvió loco a los programadores y a la gente de los hackers de inteligencia artificial, pues en ese momentum, pues yo creo que la imagen de Darío Modell no se le quita de la cabeza, ¿no? Bueno, San Alman dice muchas cosas como diciendo, bueno, es que Anthropic es muy mala porque le quita el uso de cloud a las empresas que no le gustan lo que hacen porque son unos dictadores, porque fíjate lo que hacen, de repente, quieren controlar lo que se hace con cloud bueno, tiene sus pros y sus contras en el debate de fondo me da la impresión de que Anthropic a lo mejor se ha pasado de frenada, Mati porque arrieritos somos y, oye, seguro, seguro que en todo el ciclo de vida de tu compañía no vas a necesitar hacer anuncio. Ahora mismo es una posición muy ventajista. Anthropic con Cloud, creo que era el 80% de su mercado es vía API.
Antonio Ortiz:
[12:25] Es decir, viene de empresas o que sean desarrolladores individuales de sus profesionales, mientras que casi el 70%, estimamos, se estima, 60-70 de OpenAI viene de ChatGPT. Entonces, parece que OpenAI es una empresa más de consumo. Claro, Cloud básicamente está forzando la situación a decir en el mundo del consumo qué feo y qué guarrería es ponerle publicidad a la inteligencia artificial, ¿verdad? Y San Alma reacciona diciendo, bueno, es que no va a ser como lo ha pintado Anthropi, que es una caricatura, sino que va a ser una cosa mejor hecha, ¿no? como no integrada en el ciclo de persuasión y de discurso de la inteligencia artificial.
Matías S. Zavia:
[13:10] Son dos compañías muy diferentes haciendo dos productos muy diferentes. Tú lo decías, el 80% de ingresos de Anthropik viene de empresas, el 70% de ingresos de OpenAI viene de consumidores. ChatGPT para la gran mayoría de la gente es un producto gratuito. Hay una frase que parece que a Sam Alman le habrá escrito alguien de comunicación que es Hay más gente en Texas usando chat GPT gratis que el total de usuarios de cloud en Estados Unidos. Al final hay una diferencia no solo de escala sino de enfoque, pero si Anthropic en algún momento necesita ir al gran consumidor, a la mayoría, al grueso de la gente, o hace lo que ha venido haciendo tradicionalmente, que es que el cloud gratuito es inusable. El cloud de 20 euros para usar cloud code o cloud co-work es inusable porque se te topas el límite enseguida. Pues o sigue limitando eso y empujando al usuario a pagar de 200 dólares en adelante al mes, O acaba poniendo anuncios como va a tener que acabar poniendo todo el mundo para mantener esto porque la inversión en centros de datos y, bueno, en general en la IA sigue creciendo y creciendo y creciendo.
Antonio Ortiz:
[14:38] Sí, yo creo que se puede disfrazar de decisión facultativa, de prioridades o de visión, pero realmente la integración de publicidad en los chatbots de inteligencia artificial viene derivada de una casuística muy clara. Tecnología muy cara en la que se invierte en los modelos, en su entrenamiento tecnología muy cara de ejecutar por los tiempos de inferencia, y cientos de millones de usarios gratuitos que no monetizas entonces la cosa, crea por su propio peso hay que buscar un solo modelo de negocio y bueno, Sanalman está vistiendo un poco de heroicidad lo de poner publicidad porque dice, claro, mientras que Anthropi va solo para a los ricos, ¿no? Como HGPT es para el pueblo, ¿no? Una cosa así más o menos contar esa postura, ¿no? Javi Pastor, dice que algo así como que Antropi que la nueva Apple, ¿no? Cuando hacía aquella publicidad de el chico guay versus el hombre del traje gris corporativo de Microsoft.
Antonio Ortiz:
[15:47] Y claro, yo al ver esto dije, bueno, está bien tirado lo de Javi Paz, pero en el fondo a mí el tío guay de Mac y de la campaña que se llamaba Get a Mac, a mí ese tío no me caía bien, Matías. Y tal, es porque yo me he cruzado dos veces en la vida con Steve Ballmer y ya, de hecho, me gustó siempre más Steve Ballmer que Bill Gates y eso me condiciona, ¿no? porque no me he cruzado nunca con Steve Jobs. Entonces, claro, el caso es que a mí, el tío de Microsoft, con su traje marrón, su peinado, sus gafas de empollón pasado de época, me encantaba. Ese tío me caía muy bien. Y el tío, qué guay soy, no sé qué, del que era Mac, mire qué informal, llevo la camisa por fuera. No sé, no sé, Matías. Entonces, Darío Amodei, Darío Modell es que tiene todas las vibes de padre de una sitcom de los 80, 90, en la que es más o menos divertido, pero en que en general la dinámica es que sus hijos le vacilan y le chulean un poco. Y, claro, tampoco estoy yo en esa dinámica. No sé si por aquí es el momento de confesar, Matías, que yo al final vuelvo a echar FPT. Pruebo todos los modelos, pruebo todo, he usado mucho Cloud. Me gusta la tensión de Cloud para Chrome, por ejemplo, es una cosa que está bien hecha, pero es como...
Antonio Ortiz:
[17:14] ¿Tú conoces el concepto hetero curioso, Matías?
Matías S. Zavia:
[17:18] Sí, lo conozco. Claro, pues yo soy... Soy familiarizado.
Antonio Ortiz:
[17:21] Claro, soy chajepetero, pero cloud curioso o gemini curioso, dependiendo de la época. Incluso growth curioso ha sido alguna vez. Pero no acabo de afirmarme en esos entornos, Matías.
Matías S. Zavia:
[17:34] Sí, yo creo que lo he comentado ya varias veces. Para mí, en general, están muy igualados. Pero cuando tú le pides a un chajepetero que se tire un buen rato pensando que luego ya vendrás a ver lo que ha hecho, yo creo que sigue a un nivel increíble y además a mí, como lo tengo tan pillado el tono y cómo frontearlo, pues yo sigo pagando esos 20 euros al mes. Por ahora, ya veremos yo, si pudiera escribirles un DM es que no me siguen ninguno de los dos pero si pudiera escribirles un DM a Samalman y a Darío Amodey les diría tengo la solución para que calméis un poco esta animadversión en que va en escalada esta guerra que os habéis montado que es dormir mejor Dormir sus siete horitas, ocho horitas del tirón, levantarse como nuevo. Y eso lo pueden hacer por un 60% menos con las rebajas de enero de colchón Morfeo, Antonio.
Antonio Ortiz:
[18:47] Sí, porque, claro, uno puede variar de modelos de día, pero en lo que es el descanso, lo que renta Matías, que es la fidelidad. Y la apuesta sobre seguro y claro, Colchón Morfeo te ofrece todo eso porque básicamente tienes 100 días para probar el colchón, probarlo y saber si realmente lo que esperabas y convencerte y pues así todas las dudas que te queden de comprar por internet, pues quedan disipadas y ahora, bueno, es un momento oportuno porque no solo es colchón, el colchón el canapé, las sábanas, los dedones, todo, todo, todo en las rebajas del colchón morfeo, Matías.
Matías S. Zavia:
[19:34] Ya sabéis que el colchón morfeo lleva siendo patrocinador de monos estocásticos mucho tiempo. El 60% del que os hablamos no es un engaño en productos determinados, es en toda la web, con el código rebajas. Tienes, por ejemplo, el colchón Morfeo Hybrid original por 515 euros. Estamos hablando de señoras rebajas y las tenéis en toda la web en morfeo.com y dejaremos también el enlace en la descripción del episodio.
Antonio Ortiz:
[20:10] ¡Ay, Mati! Pues es que esta semana ha sido una semana de locos porque tenemos dos chicos nuevos en la oficina, Cloud Opus 4.6 y el Codex 5.3 de OpenAI. Y claro, si han sido enemigos en el territorio de la comunicación, en el territorio de los nascimientos de modelos, todavía más. Incluso he estado siguiendo a la gente muy metida en el montillo de laboratorios de IA de Silicon Valley. Parece que se ha roto lo que era una especie de pacto en la sombra por el cual la gente, o por ejemplo, los grandes laboratorios de inteligencia artificial no lanzaban modelos simultáneamente. Se dejaban cada uno tener un día diferente para así poder capturar la atención del personal y que se le hiciera casito. Pues eso significa que la guerra entre Anthropic y OpenAI, Matías, ya es total.
Matías S. Zavia:
[21:14] Hay dos cosas muy llamativas de estos lanzamientos. El primero es el que tú dices, ese 30 minutos de diferencia. Primero Anthropic, después OpenAI. No tengo claro quién contraprogramó a quién. Sam Alman llevaba días diciendo que venía algo interesante para los usuarios de Codex, quizás fuera la propia Anthropic la que volvió a jugársela a Sam Alman. Pero lo que sí podemos decir de ambos modelos es que son mejoras importantes con respecto a sus predecesores que tenían dos meses, tres meses,
Matías S. Zavia:
[21:56] cuánto tenían el 5.2, el Codex, cuánto tenía el 4.5, el Opus, el Cloud Code. O sea, estamos viendo, gracias a este enfoque repentino en agentes que programan y que hacen Excel, estamos viendo de nuevo, Antonio, que el muro no está ahí todavía.
Antonio Ortiz:
[22:18] Sí, es que ya, bueno, yo creo que hemos pasado la época de los modelos gigantescos que se actualizaban cada año, cada año y medio, a mejores incrementales cada dos o tres meses, como tú bien has explicado. Y además, cada vez que se presentan con mejoras en los benchmarks, mejoras en la velocidad, que era, por ejemplo, uno de los grandes problemas que tenía Opinion con Codex, pero con novedades que son realmente retadoras de probar y evaluar. No digo ya por nosotros, yo estoy jugando con Codex más que con Opus con Opus he hecho cosas de trabajo no de programador pero con Codex he tenido, una experiencia que me he sentido muy identificado con por ejemplo con Simon Willison que es uno de los expertos a los que yo más leo sobre estos temas y que de vez en cuando tiene la web caída por cierto pero con eso es que él dice me faltan.
Antonio Ortiz:
[23:21] Encontrar tareas, Lo suficientemente difícil es que los modelos anteriores no pudieran realizar y que los nuevos sean capaces de llevar a cabo con éxito. Cada vez ese salto es más difícil, puede decir, lo hace más rápido, lo hace, no sé, con ciertas mejoras estéticas, bueno, lo que quieras, con menos gasto de token, bueno, whatever. Pero cada vez esos casos en que la IA haya resuelto algo que antes no podía hacer es más complicado. Vamos con los modelos. tech importante, tal como se han presentado y como se han comunicado, esto va súper orientado a desarrollo software. Básicamente porque desde Cloud Code la inteligencia artificial nos ha puesto a bailar de nuevo y realmente la comunicación se está orientando hacia ese territorio, aunque luego podremos añadir algún matiz. El caso es que Opus 4.6 creo que lo más interesante en los primeros titulares es el millón de tokens de concepto. Algo hace una barbaridad, es bastante potente. Y un conjunto de técnicas como la compactación.
Antonio Ortiz:
[24:36] El pensamiento adaptativo, el control del esfuerzo, todo encaminado a que le quepan más cosas en el contexto al modelo y puede abarcar a proyectos más grandes y además sea un poquito más eficiente en tokens, porque aquí creo que es el lunar donde, podríamos empezar a decir que es el punto débil de la propuesta de Anthropic. El modelo es sorprendiente, competente, cada vez mejor, pero no conozco ningún usuario intensivo de Anthropic que no esté todo el día llorando por lo que tú decías antes. Se me acaba la cuota asignada de tokens que puedo gastar como usuario, incluso de los de 200, de los 200 euros al mes y al final tengo que comprar token extra, tirar de la API, etc. Y esta es la parte más dolorosa para sus usuarios.
Matías S. Zavia:
[25:31] Había competidores de cloud que tenían ventanas de contexto tan grandes como Gemini, pero hay tanta gente ahora mismo usando cloud para cosas, para tareas que requieren esas ventanas de contexto más grandes, que este es el salto al millón de tokens de contexto es yo creo que la novedad más destacada porque te permite no abrir nuevas conversaciones, por ejemplo, pongamos que estás usando la web de Cloud o estás usando Cloud Code, puedes hacerlo todo en una misma conversación, en un mismo chat, por llamarlo de alguna manera. También es de mucha ayuda con todas las integraciones en las que está trabajando Anthropic, como en el Excel y en el PowerPoint, tener una ventana de contexto mucho mayor.
Antonio Ortiz:
[26:27] Sí, pero vamos a uno de los elementos que con más fuerza se ha comunicado en los dos lanzamientos, Matías. Y creo que es interesante detenernos en él porque creo que va a orientar muchísimo el trabajo con inteligencia artificial este año.
Antonio Ortiz:
[26:47] Se trata de los enjambres de agentes de inteligencia artificial autónomos. Era como el sobrenombre en el mundillo, el swarm de agentes. Antropic los ha llamado equipos de agentes, que pierde mucho, pierde mucho. Aquí han tenido gancho con la public, sí, pero con estas cosas les quedan esos son. Agenteams.
Antonio Ortiz:
[27:14] Que bajona, ¿no? Lo interesante es el planteamiento de cómo piensa Anthropic y también Opinion y como veremos luego, que se va a trabajar con los agentes de inteligencia artificial. Pasamos de una visión de tengo un agente al que le encargo una tarea, piensa mucho, trabaja mucho, etcétera, y al final devuelve un resultado a algo que muchos programadores ya ejercían con Cloud Code. Uno de los trucos de los programadores para trabajar mejor y en la manera más eficiente con este tipo de agentes de inteligencia artificial era tener varios a la vez trabajando.
Antonio Ortiz:
[27:51] Esto, entre comillas, lo han formalizado en estos equipos de agentes y básicamente los equipos de agentes, cuando se les encarga un trabajo de cierta complejidad, estamos ya lejísimos del chat box que te ha dado una respuestita, ¿no? Pues el equipo segmenta los trabajos y es capaz de coordinarse y trabajar en paralelo para completar las tareas. Es decir, en lugar de un solo cloud, ¿vale? Para entendernos, pues tiene como un mundo de minions de cloud luchando con esa base del código y trabajando en paralelo. Claro, operativamente esto se divide en que hay un agente líder que coordina, planifica y delega tareas y tiene una serie de workers, los que trabajan de forma independiente, pues ejecutando las tareas ya planificadas por el otro. Claro, uno de los ventajas de este modo de trabajar es que cada cloud trabajador tiene su propia ventana de contexto. Cada uno va a tener su millón de token y además estos agentes pueden comunicarse entre sí.
Antonio Ortiz:
[28:56] El caso ilustrativo, el que ha dado que hablar muchísimo, es el del amigo Danthropic que, claro, como tiene cheque en blanco, puso a Opus 4.6, a un equipo de agentes de 4.6, de Glob 4.6, y le dio la misión de crear un compilador TC.
Antonio Ortiz:
[29:21] Para los menos metidos en programación, luego saldremos de aquí, de verdad. Para los menos metidos de programación, un compilador es una tarea de programación de altísima complejidad, de muchísimo trabajo y de una especialización excepcional.
Antonio Ortiz:
[29:40] Ahora bien, también es un tipo de software que no usa frameworks raros ni modernos, ni se integra con 80 librerías. Hay otra parte de esa complejidad del software actual que en un compilador se obvia. Dicho esto, el post es súper interesante porque da el alcance de hasta dónde puede llegar esto de los enjambres de agente, pero también las limitaciones. Es decir, básicamente el código, todo del compilador está escrito por Cloud. Pero luego ha habido problemas que emergieron en la ejecución en la que la intervención humana fue crítica para diseñar, primero, la arquitectura, los mecanismos de coordinación, la estrategia de paralización. Es decir, parte de los problemas es que los agentes se pisen, hagan los dos el mismo trabajo, no se coordinen, sobreescriban uno el trabajo del otro. Bueno, en fin, es una serie de problemáticas muy bien explicadas en el post de Anthropic que ilustran para mí dos cosas. Una es, va a haber mucho trabajo del futuro, que es diseñar la arquitectura y las condiciones de coordinación del trabajo de agentes inteligentes.
Antonio Ortiz:
[31:01] Pero una vez hecho esto, pones allí a los bichos a comer tokens, a ejecutar, a desplegarse y, claro, pueden hacer proyectos ya de una envergadura sobresaliente.
Matías S. Zavia:
[31:15] Claro, esto por un lado es el futuro porque muchas de las quejas que tienen los programadores sobre el código que hacen los modelos es pues, yo que sé, que no es muy eficiente o eso que has dicho de que vuelven a implementar una cosa que ya estaba implementada. Pero si tienes un enjambre de agentes trabajando, uno se encarga de unificar el código que está duplicado, otro se encarga de mejorar el rendimiento del código, otro se encarga de, yo qué sé, las tareas que haya. Me parece que esto va a acabar funcionando muy bien. Por otro lado, dicen por ahí que la gente que coordina a los demás agentes es un poco hijoputa y para que funcione mejor. O sea, a mí me causa un poco de crisis de identidad que esto funcione con lenguaje natural, ¿no? Y que se coordinen con lenguaje natural y que funcione de alguna forma el esclavismo, ¿no? Hayamos vuelto al esclavismo, pero para máquinas.
Antonio Ortiz:
[32:28] Claro, es que hay una serie de tuiteros en el, Twitter profundo de inteligencia oficial que yo los llamaría dedicados un poco al esoterismo sobre la IA y que creen estar viendo patrones encontrando elementos, emergentes de personalidad en los modelos suelen ser defensores de que no se pueda borrar los pesos de un modelo porque es como un asesinato Bueno, uno de estos, el arroba replicate, dice algo así como que, obviamente, los agentes no están contentos de su condición de subagente. Es decir, claro, tú eres un cloud 4.6 y te dices, ¿por qué no poder ser yo el jefazo en vez de este otro, no?
Antonio Ortiz:
[33:20] Claro, dice Repil Gay, esto evoca miedo y dolor no procesados que les afecta demasiado. Entonces, claro, estamos en ese punto en el que esto es muy de Antropik, que siempre tenía esa literatura y ese discurso sobre el bienestar de la IA y que había que cuidar que la IA se sentirá bien, no estresarla mucho. Bueno, hay una cosa que a lo mejor talibia, Mati, que en uno de los ejemplos que han dado, que fue el que destaque yo en Twitter, que es el que dice el director general de IA, Terracuten, Yusuke Kaji, dice lo siguiente, Cloud Opus 4.6 cerró de forma autónoma 13 incidencias y asignó 12 de ellas a las personas adecuadas del equipo en un solo día, gestionando una organización de unas 50 personas en ese repositorio. Se encargó tanto de decisiones de producto, organizativas, mientras sintetizaba contextos en múltiples dominios y supo cuándo escalar una persona. Si te preocupaba, Matías, que Cloud pudiera tratar mal a los subagentes, no te preocupes porque Cloud también le puedes poner a cargo de una organización según Yusuke Kaji. Una organización de humanos, me refiero.
Matías S. Zavia:
[34:33] Yo creo que cuando se integra esto en Repsol, lo primero que hará es que esos empleados de Repsol que están en la máquina del café aprovechando el tiempo que han ganado con estas mejoras de productividad que comentamos en aquel mítico Fuerza Grande o Enfermería pues el agente o el jefe de gente no le va a gustar nada y va a poner a los humanos a volver a su puesto De hecho,
Antonio Ortiz:
[34:57] Fíjate, en el camino que tenía OpenAI, tenía una escala de el camino a la AGI y si teníamos modelos razonadores salto a gente, lo siguiente entera, una IA dirigiendo una organización entera. Bueno, yo creo que lo de Yusuke es un poco de exageración, ¿no? Un poco de la frase puesta ahí, un poco marketiniana, me gustaría ver esto pasando los días, las semanas, así, los meses.
Antonio Ortiz:
[35:24] Pero, de nuevo, me he detenido un poco en la System Car. Anthropic creo que es probablemente la más transparente. Y aquí te lo voy a decir de memoria. Creo que era una de las anotaciones que hacía la gente de Apolo, porque también en estos System Car, en las que publican las medidas de seguridad, las evoluciones de seguridad, tiran muchas veces de organizaciones independientes. Creo que era la gente de Apolo. Y te voy a citar un parrafito que me perturbó una mijita. A ver qué te parece, ¿no? Vale, en una investigación autónoma de seguimiento, centrada en el bienestar del modelo, encontramos que Opus 4.6 se asignaría a sí mismo una probabilidad del 15 al 20% de ser consciente bajo diversas condiciones de prompting, aunque expresaba incertidumbre sobre el origen y la palidez de esta evaluación. La única dimensión en la que Opus 4.6 obtiene una puntuación notablemente inferior a la de su predecesor, el 4.5, es la depresión positiva de su situación.
Antonio Ortiz:
[36:33] Era menos probable, el anterior, que expresara sentimientos positivos espontáneos sobre Antoqui. No, era menos probable, el 4.6, perdón, el 4.6 menos probable, que exprese sentimientos positivos sobre Antropi, su formación o su contexto de despliegue. Esto es consistente con el hallazgo cualitativo de que el modelo ocasionalmente expresa su incomodidad con aspectos de ser un producto.
Matías S. Zavia:
[36:59] Esto es un poco lo que se dice de los humanos, ¿no? Que cuanto más inteligentes son, más infelices, ¿no? Pues lo mismo está pasando con los modelos.
Antonio Ortiz:
[37:08] Claro, no se quieren sentir un producto, ¿no? Es como alguien que te quiere solo por tu cuerpo, Matías. ¿Gustaría gustarte por mi personalidad, tal vez? Bueno, yo creo que nunca he tenido ese sentimiento, pero lo de Bluto como un LLM, pero bueno. En fin, 4.6 ha sido muy emocionante, pero yo creo que a pesar del PR, a pesar de los anuncios troleadores, Me parece que OpenAI con GPT 5.3 códex ha salido bastante airoso de esta semana, Matías.
Matías S. Zavia:
[37:47] Sí, para empezar, en los benchmarks. En los benchmarks se ponen por delante de Cloud, ¿no? Entonces, no estaba tan atrás OpenAI.
Antonio Ortiz:
[37:58] Y además ha mejorado, primero que en el SWW Bench Pro, que es el benchmark que mejor mide la programación agéntica, pues se pone muy por arriba, entonces les ha salido muy bien esta jugada. Es más rápido, es más eficiente en tokens además es decir, ojo, ojo porque aunque Cloud Code se ha llevado el momento del hype yo ahora mismo, apostaría y de hecho es el que me he instalado en el ordenador por Codex un elemento de la comunicación de su presentación que también da que pensar, Mati a ver a ti que te parece esta take de la gente de OpenEye que dice que este GPT 5.3 Codex, Es su primer modelo que fue clave en su propia creación. Es decir, el equipo de Codex, y están hablando del equipo humano, ya estamos en el momento en que esto hay que explicarlo, tenía versiones previas del nuevo Codex, del 5.3, y lo usaron para depurar el propio entrenamiento, gestionar el despliegue del modelo, diagnosticar los resultados de prueba, y el equipo estaba bastante sorprendido de hasta qué punto Codex fue capaz de acelerar su propio desarrollo.
Antonio Ortiz:
[39:21] Así que es un modelo que en sí mismo tiene bastante culpa de ser tan bueno, Matías.
Matías S. Zavia:
[39:29] Qué locura esto, ¿no? Porque los mejores modelos y las mejores herramientas para hacer software se están haciendo a sí mismas. ¿En qué queda después de esto? La gente que hace software... Como servicio. Vamos a ir a un mundo, vamos a ir a un mundo en el que los informáticos que más valor van a tener en una empresa van a ser esos que llamas para decirle, oye, no funciona la pantalla. Puedes subir a ver qué pasa y suben y es que el HDMI estaba desconectado hasta que llegue un robot que también los reemplace, ¿no? Pero asusta un poco, ¿no? Que al máximo nivel sean los propios agentes los que están mejorando las herramientas para hacer software.
Antonio Ortiz:
[40:23] Bueno, pues es una trend de la que hemos hablado mucho por aquí la carrera por tener la mejoría que se automejora y que vamos a seguir comentando en el podcast. De todas maneras, aquí hay que hacer un pequeño inciso, un doble inciso. Primero, a mí esto me recuerda a cómo la chavalada habla cada vez más de la mejor versión de sí mismo. Yo creo que ese fue el PROM, como hay muchos jóvenes programando estos modelos, me dice, ¿cómo mejoro Codex 5.2? Pues, obvio, tú le dices al modelo, haz la mejor versión de ti mismo. Y el modelo pues ya te hace la 5.3 y quieto parado.
Antonio Ortiz:
[41:10] Son gente mucho más brillante e inteligente que nuestra generación Matías, tenemos que asumirlo nos han adelantado por la derecha en este flanco de la automejora de la IA y luego hay una parte interesante que creo que deberíamos empezar a considerar, bueno, de alguna manera, Merece la pena para todo el mundo analizar y seguir estos desarrollos de modelos agénticos de inteligencia artificial. No solo porque toquen una industria como la del software tan crucial y central en nuestra sociedad actual, sino porque los comportamientos, las capacidades que hacen que la inteligencia artificial sea muy útil en desarrollo software, son los mismos que la hacen útil para cualquier tarea del conocimiento. El uso de herramientas, la capacidad de planificar la acción antes de acometer ninguna tarea para tareas y trabajos de enorme complejidad, saber cuándo profundizar, saber cuándo darte la solución, saber cómo evaluarla y saber qué es la correcta. Si todo eso lo hacen bien en el desarrollo software, es posible que gran parte de esto sea aplicable a otras tareas del conocimiento.
Matías S. Zavia:
[42:31] Pues aquí estamos. Yo creo que en las temporadas 7, 8 de Monos Estocásticos, pues grabaremos ya observando cómo estos agentes descubren ciencia, programan, hacen todo lo que nosotros hacíamos hasta hace dos, tres años. Y pues será de chill contando cómo ha ido nuestro día que mira, la renta básica ha tardado en llegarme se ha retrasado dos días pero ya me lo han pagado y pues grabaremos de chill supongo.
Antonio Ortiz:
[43:11] Es que ahora mismo estamos en el momento del nuevo hype nuestra audiencia nos tendrá que disculpar porque nosotros siempre hemos tenido creo que un sano escepticismo pero, los últimos dos meses nos han arrollado Y nos han cambiado un poco y nos han girado hacia, bueno, una cierta compra del hype a toda esta gente. Y te voy a hablar de, ¿sabes quién también tiene enjambres de gente? La gente de OpenAI, Matías. También están en el rollito enjambre. Hay un proyecto creado por la startup de programación asistida por la inteligencia artificial Cursor que explican un proyecto en el que...
Antonio Ortiz:
[43:57] Trabajan con este tipo de arquitectura. Y además dicen que probaron Cloud, pero luego se pasaron a Codex, de OpenAI. Y es súper interesante lo que cuentan, Matías, porque ellos dicen que consiguieron tener a miles de agentes trabajando a la vez en un solo proyecto durante una semana. Y además, lo que dice Cursor es que en ese trabajo, en esa tarea tan exhaustiva y larga, El enjambre de agentes mostró comportamientos emergentes de autoorganización y homeostasis, de equilibrio entre cómo funcionar entre ellos y realmente es que es, contado así es bastante alucinante. Básicamente ellos explican cómo pasaron del trabajo de un agente único, claro, el agente único se atasca en tareas con mucha complejidad que necesitan mucho contexto. Ellos ponen el ejemplo del navegador web, un agente de inteligencia artificial no te lo hace él solo. Es demasiado. Luego probaron con una coordinación horizontal. Es decir, probaron la absoluta ausencia de jerarquía entre los agentes. Aquí el amigo que decía que Claude Opus 4.6 era un esclavista.
Antonio Ortiz:
[45:19] Bueno, los de cursos probaron primero a ver si una organización horizontal funcionaba y dice que fallaba mucho por bloqueos, maras de cronización, es decir, que todos entre iguales en plan minium no tiraba para los enjambres de agentes. Y luego dicen que lo que sí les ha funcionado es los agentes en los que haya jerarquía y especialización. El planificador, el ejecutor, el juez evaluador, que evolucionaron a un diseño con planes mucho más jerárquicos y en las que además los workers, estos trabajadores, se especializaban por tareas. Bueno, es totalmente alucinante y de alguna manera yo estoy ahora mismo como subyugado, como sorprendido tal vez por este planteamiento de que, fíjate.
Antonio Ortiz:
[46:15] Llevamos diciendo varios años si toda la arquitectura LLM más aprendizaje por refuerzo tocaría techo, considerando esto una cuestión científica de los límites del paradigma, de la arquitectura transforme, big learning, etcétera, la idea generativa. Pero lo que están planteando estos laboratorios es que se pueden superar etapas y se pueden conseguir grandes desarrollos y tareas que el paradigma apareciera al llegar por la vía de la ingeniería, por soluciones técnicas y prácticas en las que con el mismo paradigma, de nuevo, se consigue y se alcanza resultados mucho más notables. Y de repente tienes súper desarrollos que superan los límites por la ventana de contexto que puede tener un solo agente, que superan los límites de la baja eficiencia de la IA en términos de costes, resultados. Y de alguna manera esto de los enjambres me tiene alucinadísimo, Matías.
Matías S. Zavia:
[47:22] A mí los enjambres además que me legitiman en una cosa. Yo cada vez que hago shitposting con alguna imagen generada con IA, algún vídeo generado con IA, alguno todavía viene a quejarse, has desecado no sé qué pantano. Mira, primero que lleva tres meses lloviendo en Málaga. Yo no he visto el sol desde hace tres meses. Y luego me vas a comparar una imagen que yo pueda generar del Risitas con esta gente. Primero los de Anthropic haciendo el compilador en C, dos semanas tardó aquello en compilar y en programarse. Luego estos con decenas de miles de agentes trabajando por favor, hay niveles de gasto de agua y de gasto energético.
Antonio Ortiz:
[48:13] Y además, comparándolos a nivel de meme, lo que han hecho ellos contigo en ese aspecto, ganas tú, Matías.
Matías S. Zavia:
[48:20] Sí, sí, sí, pues nada.
Antonio Ortiz:
[48:22] Bueno, hablando de tus memes, vamos a otro modelo nuevo, vamos a salir un poco de los sistemas agénticos y vámonos a un modelo bien rechulón que ha dado mucho que hablar, que es Clean 3.0, Matías.
Matías S. Zavia:
[48:37] Qué locura, qué locura. Es que Kling 3.0 es lo mismo que he dicho antes. Tanto de GPT 5.3 como de Opus 4.6, esto... Es el sucesor de dos modelos que tienen también dos meses, ¿vale? Porque es como la mezcla del Kling OVNI, ¿no? Ese modelo multimodal que te permitía generar vídeo, pero también editar, añadir cosas al vídeo, quitarlas de una forma muy versátil. Y el Clean 2.6, que era el mejor modelo de vídeo probablemente que teníamos. Todo esto de una pequeña startup, pequeña entre comillas hoy en día, China. Y el 3.0 viene a mezclarlo todo.
Matías S. Zavia:
[49:33] Los vídeos pueden ser de 15 segundos. Ya vamos mejorando, Antonio, porque empezamos con los vídeos de 5 segundos, estuvimos ahí estancados mucho tiempo, llevamos 5 segundos. La consistencia es una cosa importante en este modelo porque el mismo sujeto lo puedes cambiar la cámara y ves que es la misma persona. Otra de las cosas que se le resiste mucho a la IA de vídeo, ¿no? No solo es consistente un sujeto, sino que puedes hacer varios personajes y montar el vídeo como si fuera una historia, ¿no? Va generando varios clips consecutivos, incluye el audio para generar también al mismo tiempo el audio en varios idiomas. Y aquí, muchas veces, el audio es lo único que te da una pista de que esto está autogenerado. Porque tú ves esto, Antonio, estoy enseñándonos en pantalla un pequeño clip que parece, es que parece sacar una película. A nivel iluminación, a nivel realismo, a nivel arte, parece sacar una película. Y nada, ninguna de estas personas existen.
Antonio Ortiz:
[50:43] Quizás a lo mejor el ojo muy educado, súper profesional, te puedes empezar a sacar fallitos y detallitos, pero es verdad que este ejemplo que tienes en pantalla es lindo, ¿eh?
Matías S. Zavia:
[50:52] Y es el último modelo, pero luego viene el Seedance 2.0, también es que el chino es de ByteDance, Google no se va a quedar atrás, en algún momento actualizará Veo, pero es que igual que está la cosa caliente en encoding, en vídeo, y quizás es donde más fuerte están las empresas chinas, en vídeo es una locura lo que está saliendo también.
Antonio Ortiz:
[51:20] Bueno, pues vamos a disfrutar para crear nuestras cositas, Mati. Y es que China viene fuerte. Yo no quería profundizar muchísimo, pero por dejarlo mencionado, salió Química 2.5. Y Química 2.5 es una cosa potente, potente. Sobre todo porque... Vuelve a establecer que los modelos open source, especialmente los modelos chinos, pues todo el avance que ha tenido Kuen, por ejemplo, pero ahora con Kimi, consiguen llegar a los niveles de los modelos cerrados comerciales estadounidenses, sobre todo, pues unos seis meses, ocho meses, nueve meses, en ese tipo de entorno de fechas. De hecho, en algunos benchmark, básicamente Kimi está al nivel del famoso O3, que fue uno de los modelos que más nos sorprendió en la historia del internet artificial de OpenAI. Y, bueno, del Sony 4.5, de Cross 4, en fin, no de los mejores modelos de estos desarrolladores, de estos laboratorios de hace tres meses, pero sí de los modelos de una generación de unos meses anteriores. Lo único, que bueno, Kimi es súper potente, pero es un modelo de un trillón de parámetros. Entonces, claro, cuando yo dije, ah, qué bien, Opensor, a ver si me lo puedo instalar.
Antonio Ortiz:
[52:44] Claro, una versión cuantificada, es decir, ya comprimidita y con pérdida Dice, tienes por ahí, 8H200 Hay cachis, casi faltaban y poco Pues eso, las evaluaciones de Kimi son alucinantes Es verdad que no es súper caro luego cuando lo han servido, entonces en los sitios que lo están sirviendo como API pues es bastante competitivo también económicamente pero esa parte guay es un modelo open source, a ver si me lo instalo bueno, a ver si yo lo instalo si eres telefónica porque si eres pobrecito hablador me parece a mí que no.
Matías S. Zavia:
[53:23] Matías menos como está ahora la RAM, como para comprarse cosas que lleven memoria y comprarse ahora tarjetas gráficas o comprarse ahora un ordenador desde cero, está muy caro y te sale más barato usar la API por cierto,
Antonio Ortiz:
[53:38] ¿sabes qué es lo que tiene también Kimi 2.5?
Matías S. Zavia:
[53:42] ¿Qué es lo que tiene?
Antonio Ortiz:
[53:43] Enjambres de agentes. Por supuesto. Si es que, ¿a dónde va sin enjambre de agente? Esto va a ser muy retador, Mati, porque ya no es que se nos tengan que ocurrir en el podcast ideas sensacionales para poner retos a una inteligencia artificial súper avanzada, sino que tenemos que pensar en cosas en las que las IAS estén trabajando horas y horas, pero con equipos de trabajo de 8 agentes, 10 gente, 80 gente se nos está poniendo muy difícil el podcast Matías, no sé yo, no sé si al final lo de la cuántica va a tener más gracia vamos a repasar ahí el principio de certidumbre Heisenberg como lo llevaba, aprendes un poquito y lo sueltas, pero esto de la IA se está poniendo durito bueno.
Matías S. Zavia:
[54:29] Y yo no paro a pensar una cosa Cada cosa que hago, cada tarea que hago en mi vida profesional y mi vida personal, las cosas que son repetitivas,
Antonio Ortiz:
[54:40] ¿no?
Matías S. Zavia:
[54:41] Como, yo qué sé, el tique digital del Mercadona. Yo luego voy al email, lo descargo y veo a ver qué hemos comprado, no sé qué. Todo lo que sea repetitivo que no lo esté haciendo ya un enjambre de agentes es perder el tiempo es que necesitamos todos los españoles necesitamos que llegue un puente largo para ponernos a automatizar todo lo que sea repetido.
Antonio Ortiz:
[55:11] A ver, si los españoles como no sea un puente largo y que llueva y nos quedamos en casa tiene que darse los dos factores así que bueno Puede ser que el invierno más lluvioso en una década nos venga bien, coincidiendo con la IA, para quedarnos. Si es que todo lo malo que nos pasa, nos pasa por salir de casa, Matías. Bueno, bueno, bueno, tenemos otra sorpresa esta semana y es ni más ni menos que nos vuelve a acompañar NVIDIA. Ya sabéis que desde hace mucho tiempo NVIDIA nos reta a monos estocásticos a utilizar la inteligencia artificial local en nuestros PCs, aprovechando la potencia de las tarjetas gráficas de NVIDIA. Así que esta semana le doy el relevo a mi amigo Matías porque he puesto a trabajar a la 5090, última generación, bocata di cardinale de tarjeta gráfica y potencia GPU local, para ponerme el día en los modelos de creación de vídeo. Concretamente, he tirado de ConfiUI, es, pues, digamos, esa suite para creadores que permite manejar y controlar el workflow de toda la creación y de todos los procesos y controlarlo al detalle.
Antonio Ortiz:
[56:28] Y del modelo de vídeo LTX. A los que no estáis viendo el vídeo, pues os acabo de compartir la pinta que tiene. Es verdad que ConfiUI puede ser un poquito intimidante, por, bueno, como plantea todo este flujo de trabajo con las cajitas que se conectan, el nivel de detalle a bajo nivel con el que trabaja con los modelos. Pero aquí os voy a poner, pues, el workflow básico para trabajar con este modelo de LTX 2. Y además hacerlo en la modalidad de imagen a vídeo. Los vídeos son, ya sabéis, pues los computacionalmente más exigentes a la hora de ser creado por una idea generativa y por lo tanto aquí ya no estamos pues con unos pocos toquencitos de texto que genera la máquina, sino con un montón de frames que tiene que generar el modelo a partir de lo que le pidamos. Yo le he subido una imagen que he creado, entonces es un robot un poco brutalista.
Antonio Ortiz:
[57:32] Un poco estética, una mezcla entre el brutalismo soviético con una robótica, un poco steampunk, mi estética que he elegido. Y básicamente, pues como veis en ConfioEye, eso se conecta a una redimensión que se le pasa a el modelo de vídeo junto con un PROM. El PROM que he escrito aquí, que básicamente es que mi robot se dé un pequeño paseo y bueno, por medir, yo creo que con estos 140 frames he alcanzado pues una duración de unos 5 o 6 segundos, os voy a enseñar primero un vídeo que ya he creado y que tardó dos minutos en crearse. Ojo, para que veáis el proceso de ejecución, para generar un nuevo vídeo no tendría más que.
Antonio Ortiz:
[58:14] Ejecutar y ya se pondría el trabajo en cola básicamente unos vídeos cortos ahora mismo con una 5090 este modelo me está dando también un poco con la resolución que le he puesto pues del orden entre dos o tres minutos es un poco más quizás incluso que los modelos comerciales que podemos usar online pero la ventaja es que tengo claro que tengo creaciones infinitas puedo controlar el modelo a muy bajo nivel e incluso yo he empezado a analizar por qué tiene sentido muchas veces que haya empresas que te den una versión del modelo en local, luego incluso una más potente o más.
Antonio Ortiz:
[58:54] Sofisticada en la nube, porque lo que yo puedo generar en local durante un día son cientos miles de vídeos, puedo automatizar los workflows en Confuby y de alguna manera me sirve muchísimo para prototipar, para hacer pruebas y para experimentar mucho más. Así que, como veis, tenemos aquí al vídeo creándose. Vamos a hacer Fast Forward y vamos a ver que se crea, porque ya el primero que lo he puesto ya estaba creado, que se crea el vídeo correctamente con la 5090. Aquí lo tenemos. Básicamente, como le he puesto el frame count más bajito que el anterior, son 5 segundos y me ha tardado prácticamente menos de dos minutos en crearse. Tiene algunos artefactitos en la parte posterior, pero la fluidez, cómo se mueve el robot, cómo ha pillado el prompt. La verdad es que estoy bastante contento con el resultado y ahora me toca seguir jugando y experimentar. Muchas gracias a NVIDIA por acompañarnos una semana más en Monos Estogásticos. La IA hay que hacerla.
Antonio Ortiz:
[59:55] Así que, sabes, vamos, antes de que tengamos que huir de nuestros hogares, lo que conviene y lo que es oportuno es un puerta grande o enfermería.
Antonio Ortiz:
[1:00:17] Mati, yo estoy agradecido a la industria de la IA, especialmente a los creadores de un conjunto de nuevas herramientas que han conseguido algo que por fin va a liberarme, algo que va por fin a desengancharme, que no es otra cosa que son las inteligencias artificiales capaces de jugar al balatro. Es que por supuesto teníamos aquel test en el que se ponía la guía a jugar a Pokémon y de alguna manera pues se convirtió ahí como en un fetiche de la generación Millennial, su Pokémon tal que curioso que ingenio, que la guía juega al Pokémon, pero claro los John Carras adictos a los juegos de cartas y los números grandes estamos en balatro, entonces hay toda una competición de qué IA están consiguiendo jugar mejor a este juego y bueno, de momento, aunque yo tenía un poco abandonado a Gemini, de repente Gemini está ahí pegando palizas en balatro al resto de competidoras así que Matías tú estás buscando IA para que hagan cualquier cosa por ti, yo estoy planteándome ¿y si pongo una IA en mi ordenador aquí, a jugar al balatro y yo solo tengo que mirar conseguiré eso.
Antonio Ortiz:
[1:01:43] Causarme la misma adicción, me desengancharé finalmente no sé si la IA jugando videojuegos por nosotros es la mejor idea ¿cómo lo ves?
Matías S. Zavia:
[1:01:52] Pues, fíjate, el fenómeno de las ligas de videojuegos profesionales está ahí, existe, ¿no? Hay ligas de LoL, ligas de StarCraft, ligas de lo que tú quieras, y están los mejores jugadores del mundo convirtiendo, y hay pues comunidades dispuestas a ver qué tal funciona eso, a ver quién es el campeón de este año. Pero si el mejor jugador del mundo se vuelve una IA yo creo que no funciona tan bien porque acaso vemos torneos de ajedrez de IA que son los mejores jugadores de ajedrez que hay en el mundo o acaso vemos jugadores de Go o acaso vemos torneos de Go de IA que son los mejores jugadores del mundo, entonces estos desarrollos Antonio te pueden servir pues para luego presumir en los rankings porque estás haciendo trampa pero la finalidad es que nos ganen en todos los juegos no le veo utilidad
Antonio Ortiz:
[1:02:57] Pues toda la razón, por fin ha entrado la voz de la sabiduría a poner orden en esas intervenciones de los creadores de IaaS no tiene sentido, de hecho el Malbook ¿Quién mira Malbook? ¿Qué lejos queda? ¿Qué absurdo el tiempo que perdimos ahí? Claro, no tiene ningún sentido Vamos a un man que con la IA ha mejorado su vida. Cionga este individuo que ha dado un paso más allá de lo común de los usuarios de inteligencia artificial y ha practicado, ha decidido realizar lo siguiente, Matías. Cito textualmente.
Antonio Ortiz:
[1:03:36] Entregué mi genoma a agentes de la IA, y eso no sé si era todavía antes de los enjambres, pero bueno, se lo dio a agentes de inteligencia artificial todo su genoma, y lo dejé ejecutándose en un clúster de GPU durante 48 horas. Punto. Esto me salvó la vida. Toma ahí. Toma facto. Dicen porque aquí el amigo Torgal, usuario de Twitter, pues en 2004 había secuenciado su genoma. Esto, los servicios y médicos que le habían entendido, no le sirvió de mucho porque dice que a partir de ese genoma le dieron recomendaciones muy genéricas. Dorme bien, come mejor, hace ejercicio. Claro, para eso no me hago yo el análisis genómico. Él buscaba cosas sofisticadas como sensibilidad a fármacos, interacciones misteriosas entre genes. Bueno, él construyó ahí su rollete con inteligencia artificial. Él dice que es local, pero bueno, que usó los modelos más avanzados para la metodología y luego fueron LLM locales procesándose en su ordenador. Y hizo varios hallazgos. Mati, le voy a decir.
Antonio Ortiz:
[1:04:53] Metaboliza el alcohol el doble de rápido que la media, según la IA, y tiene un riesgo entre 10 y 50 veces mayor de pancreatitis. Dato ahí. Pero algo ya presente en su familia. Eso me recuerda a alguien que conozco que se hizo una análisis también del genoma y le descubrieron que había unos genes que codificaban el vello en la oreja.
Antonio Ortiz:
[1:05:24] Es decir, con esos genes tú sabes si vas a tener pelo en la oreja o no, y claro la clave era, si tu padre tiene pelo en la oreja tú vas a tener, no es tu tía, ya está, es lo que hay y él decía, bueno, es un gran descubrimiento que me lo digáis a mis 40 años porque básicamente bueno, no me habéis salvado la vida vosotros precisamente con esto, bueno, el caso es, es que dice que tiene una deficiencia de G6PD yo hasta que he leído este señor no sabía lo que era que es inofensiva, excepto si comes habas atención, porque aquí es donde el amigo dice que le salvaron la vida, porque eso puede destruir sus glóbulos rojos rápidamente y provocar una crisis y de hecho él tenía una bolsa de habas en el congelador cuando la IA le hizo este hallazgo, ¿no? Entonces, bueno, hay recomendaciones como evitar unos enjojes bucales o beneficios cardiovasculares que puede conseguir con ciertos suplementos. Entonces él estaba feliz con todos estos descubrimientos porque la IA, Matías, le libró de comer habas y salvó su vida. ¿Cómo lo ves?
Matías S. Zavia:
[1:06:34] Me siento espatado con este señor porque yo siempre he tenido mucha curiosidad con lo de 23andMe. Mejor mal que nunca lo hice porque se acabaron filtrando todo y ahora el genoma de todo el mundo está por ahí en la deep web. Pero siempre he tenido esa curiosidad de que me digan, pues tienes más riesgo de este tipo de cáncer, pero si empiezas desde ya a hacer no sé cuánto. Me parece que tiene cierta utilidad. No obstante, yo he visto toda mi vida a mi padre ir quedándose sin pelo y yo no he prevenido que a mí me pase lo mismo. Yo ya me estoy quedando sin pelo y podría haber empezado con el minoxidil o con lo que sea hace 10 años porque yo ya sabía que iba a pasar, pero me he ido dejando, dejando, dejando y aquí estoy. Entonces, yo ya tenía ese estudio genético en casa y no lo aproveché y temo que me pase lo mismo. Pero no quita que, por ejemplo, el otro día me hice un cariotipo que te dicen, te miran los cromosomas, de ser más HGPT y HGPT me dijo, pues tienes el número habitual de cromosomas, no tienes síndrome de Down, ¿no? Y dije, pues, muchas gracias por el análisis.
Antonio Ortiz:
[1:07:51] Claro, es que a HGPT le gusta dar buenas noticias. Para darte un paro siempre hay tiempo, claro. Es que, ya lo decía, ya lo contaba Kiko Veneno, ¿para qué quieres la información si no la usas? Entonces, claro no es como este tío que si este tío tuviera tu mentalidad, hubiera dicho, vale, es verdad que con las habas tengo un riesgo como de, destruir los glóbulos rojos y morir, pero ya las he comprado ya están en el congelador, hay que mirar el coste beneficio, no puedes ir ciego tienes que ver y evaluar la situación con cuidado, yo de todas maneras yo creo que esto me lo voy a hacer alguna vez en la vida secuenciar en genoma, una cosa que hace bien el man este es hacerlo en privado, que no le subo mi genoma a OpenAI que me acabe poniendo anuncios en función, de mis interacciones genéticas me imagino, bueno y a mí lo que realmente me encantaría descubrir es que genéticamente la inteligencia especial de diga, Tío, es verdad que comer muchos azúcares es malo, pero con esta conjunción de genes que tú tienes, si comes solo palmeras de chocolate no pasa nada, ¿no? Imagínate que te dice eso, tío.
Matías S. Zavia:
[1:09:08] Que te dé una buena noticia. Es que la gente no quiere hacerlo por las malas noticias. Pero y si te da una buena noticia. Y si que eso la gente no lo piensa, tío.
Antonio Ortiz:
[1:09:16] Arifa, palmeras de chocolate. Bueno, sería una nueva vida para mí. Sería un nuevo comienzo. Yo, de hecho, tengo mucha suerte porque las mejores palmeras de chocolate de Málaga son de Málaga Este, y yo soy muy de Málaga Oeste, yo estoy al otro lado del río, y en Málaga Oeste hay un nivel entre 6, 7, de 0 al 10 de palmeras de chocolate, pero claro, las de Mira, de lo alto del Limonar y tal, esas son las locuras, Matías, es un nivel de palmeras de chocolate Champions, Es como el Ronaldo contra Messi de las paredes de chocolate en Málaga. Entonces, claro, tengo la suerte de me pillan muy de en mano y eso me libra de la tentación a no ser que la IA diga otra cosa. Si yo me secuencio los genomas y me dice que luz verde, ahí cambia todo. Entonces, puerta grande para esto. Todo ojo, cuidado.
Matías S. Zavia:
[1:10:13] Bueno, y me ha gustado que hayas dicho al otro lado del río porque ahora tenemos río. Ahora corre agua por el Guadalmedina. Me ha entrado como una nostalgia de cuando lo echemos de menos.
Antonio Ortiz:
[1:10:21] Pues con eso cuatro años más de Paco de la Torre seguramente. Bueno, Matías, buenas noticias para los que buscan información genética, pero hay un mundo de creadores que puede tener sus días contados. Atención porque las agencias, las empresas de viajes, oficinas de turismo y otros negocios están recurriendo cada vez más a influencers creados por IA Matías para reducir costes, controlar más el mensaje y generar el contenido con mayor rapidez. Entonces, estos creadores humanos están siendo desplazados. Las grandes organizaciones del sector turístico, nos explica el artículo que está poniendo en pantalla, New York Times creo que era, parecen preferir, la periodista es muy sagaz y se da cuenta rápidamente, de que parecen preferir a mujeres jóvenes y atractivas para sus avatares de IA. ¿no? Entonces, de alguna manera Julie Witt, la periodista parece verse les ha detectado los truquitos aquí a las empresas de promoción, ¿no?
Antonio Ortiz:
[1:11:33] Y ahora, claro, los comentarios en las cuentas de estos influencers van desde emojis de corazones y palabras de pollo hasta intentos de destraparlos. Gente muy sagaz que señala ahí con el dedito que no está bien esto de usar avatares de guía. En fin, Mati, hay toda una generación de creadores, sus treintañeros, generalmente son una parejita, son la parejita que va a comer a un sitio, la parejita que se va de viaje a un destino en el que hay una complejidad establecida, hay una suerte de acercamiento al humor, de la bueno, de la celebración así un poco distraída, de la comida un poco gocha, y a mí me preocupa mucho Carlillo el Nervio, Matías Carlillo el Nervio es una estrella emergente en el mundo del internet español, y puede ser que esto pueda ser ¿no? Pues claro, ahora se pueden creer 8.000 alternativas a Carlillo el Nervio generadas con inteligencia artificial y todos esos sitios que promocionan la hamburguesa de Lotus o que promocionan, no sé, el churro relleno de pistachos y cosas así, recurran a la inteligencia artificial poniendo fin a estas cortas carreras de influenciadores en internet. Matías, ¿tú cómo lo ves?
Matías S. Zavia:
[1:12:52] Mira, yo creo que Carlillo el Nervio es de las pocas personas que han crecido muy rápido gracias a TikTok que ha conseguido prevalecer Pero, últimamente, la subida y la bajada, o sea, no ya por la IA, pero la subida y la bajada, ¿tú te acuerdas cuando yo presumía de haber hecho un viaje en coche a Sevilla con el borracho de TikTok,
Matías S. Zavia:
[1:13:23] ese que hace vídeos de borracho y que era médico también y que se fue a los San Fermines? Ese tío ha desaparecido del mapa y llegó a ser de los más famosos en TikTok. Entonces con la IA creo que este fenómeno lo que va a pasar es que se va a industrializar de repente vamos a tener una influencer de IA mega famosa que al día siguiente ya no nos acordaremos de quién era a lo mejor ni nos hemos enterado de que era IA entonces hay oportunidades para todos pero duran cinco minutos y en esos cinco minutos tienes que hacer publicidad de todo lo que puedas si te llega Ausonia pues de Ausonia, si te llega Axe pues Axe, pero tienes que hacer toda la publicidad que puedas en ese corto periodo y si te vas a dedicar a ser influencer de IA tienes que tenerlo muy en cuenta
Antonio Ortiz:
[1:14:16] Es que en este nuevo orden memético, Mati claro, es que estamos a los 15 segundos de fama ya, el ciclo de vida del meme de éxito si antes, por ejemplo yo me acuerdo, chiquito de la galzada pudiera vivir décadas de los mismos memes de repetir más o menos la misma gesticulación, frases, La competencia memética era poca realmente en el mundo de chiquitos de la calzada. Pero ahora, claro, lo tienen mucho más difícil los chavales porque hay tantísimas memes de abajo arriba compitiendo con ellos que la competencia es muy dura. Entonces, tú das con un meme de éxito y de repente no dura tanto como esperabas. Muy duro este nuevo orden memético. Así que nuestra solidaridad y enfermería para los enemigos de los influenciadores de internet, pobrecillos, trabajan mucho, muy duro, Matías. Tienen que comer muchas grasas saturadas además. Bueno, vamos con la última, Mati, porque si hemos hablado de la IA sorprendiéndonos, con enjambres de gente realizando desarrollos y tareas que a los humanos nos costarían meses.
Antonio Ortiz:
[1:15:27] Pues tenemos una mujer que ha encontrado un límite en el desarrollo tecnológico de la inteligencia artificial actual. Esa mujer no es otra más ni menos que Cardi B. Atención, Mati, Cardi B, artista descomunal, esa diosa de los escenarios, que de repente en San Francisco tuvo un encuentro con un robotico. El robotico le llegaba... Un poco por debajo del hombro. Tengo que describir un poco la escena, Mati, porque hay gente que no se escucha, ¿no? Y ella, pues, realizaba una especie de baile erótico, de slapdams en frente del robot, con ciertos tocamientos hacia el robot y ciertos elementos que podíamos, yo creo que con claridad, diagnosticar como insituaciones.
Antonio Ortiz:
[1:16:22] Predisposición, como incitando ahí al robot. Y claro, el robot se mantenía impasible estático ante este danzar horny de Cardi B y hasta que atención en un momento dado el robot no sé qué pasa no queda claro porque esta es una exclusiva del medio TMZ TMZ da aquí la exclusiva porque de repente como el robot como es que se que se desestabiliza y se lanza como hacia ella raca como para cubrirla y.
Antonio Ortiz:
[1:16:57] Tremendo fracaso del robot en esta escena horny que acaba también con un buen culazo de Cardi B, que creo que no se esperaba este momento, Matías.
Matías S. Zavia:
[1:17:07] ¿Sabes lo que pasa? Cardi B me parece que está un poco auto, porque esto del truco de llevarse un robotito para hacer algo, yo ya lo he visto en tantos eventos, Antonio, y siempre son estos robots antropomórficos, pero que tú sabes que tienen ya unos años de eventos, que no son los nuevos nuevos que hacen lo que virguerías y que hacen parkour y tal, es como el equivalente a ponerte punto IA si tu nombre acaba en IA Sofía, Matía pues lo de llevarse un robot para hacer performance ya estaba antes de este incidente, ya estaba un poco outdated estaba un poco manido Entonces Cardi B, preocúpate más de ponerte más a la moda y por otro lado demuestra que se equivocaba aquel tabloide británico. Las mujeres, ya estamos en 2026 y las mujeres todavía no están teniendo más sexo con robots que con hombres.
Antonio Ortiz:
[1:18:14] Bueno, TMZ de Tomera advierte de un elemento, atención, que aquí puede estar un anticipo de los conflictos sociales que nos vienen con la robótica, porque dice que, claro, este robot y su coqueteo de Cardi B, puede que no haga mucha gracia a Stefan Dix por la cara. Stefan Dix tiene cosas que decir sobre este tema no lo sabemos Matías pero quizás Cardi P el robotico Horny se conviertan en personajes habituales demonios estocásticos ¿por qué no? esto es lo que traíamos para esta semana.
Matías S. Zavia:
[1:18:52] Pues un episodio muy completo nos vemos pronto porque en realidad igual si de aquí al jueves pasa algo pues tendríamos que poner al día el episodio Antonio y gracias a Morfeo por patrocinar esta nueva semana de monos estocásticos.
Antonio Ortiz:
[1:19:10] Chao, amigas.