00:00 El dilema de un padre con Jhon Pollõn
05:28 Project Genie no es el futuro de los videojuegos
21:39 Cómo ahorrarse las comisiones en Indexa Capital
24:27 Moltbook no nos ha impresionado (tanto)
34:34 Movida entre Nvidia y OpenAI
44:51 El plan maestro de Elon Musk
56:33 Qué onda con Oracle
01:02:39 Puerta grande o enfermeria
1:26:00 Canción de cierre
Patrocinador: Indexa es una forma sencilla de invertir cada mes. Ya sea en el SP500, donde están todas las empresas de las que hablamos normalmente (Meta, Amazon, Google, etc) o en Europa, Japón... En Indexa se encargan de gestionar tu cartera, según tu perfil inversor, para que tú te olvides.
Si quieres saber más, te dejamos nuestro enlace para ahorrarte las comisiones de Indexa sobre los primeros 15.000 € en el enlace de la descripción o puedes contactar directamente con ellos, y estarán encantados de atenderte.
https://indexacapital.com/t/rodqpW?utm_source=monosestocasticos&utm_medium=advertising&utm_campaign=monos-podcast
monos estocásticos es el pódcast de inteligencia artificial presentado desde Málaga por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Hay un episodio nuevo cada jueves. Puedes unirte gratis a nuestro club social de Telegram y seguirnos en redes sociales:
Todos los episodios en YouTube: https://www.youtube.com/playlist?list=PL-6s6cUsxTnsY_V0rqQFURaHDYuXD0AXj
Más enlaces al pódcast: https://cuonda.com/monos-estocasticos/links
Publicado: 5 febrero 2026
Transcripción
Hola a todos los monos estocásticos. Bienvenidos al podcast de inteligencia artificial favorito de Tao Paradowski. El nuevo portero que llega a España a Libiza la existencia de Paradowski implica la existencia de un podcaster italiano llamado Podcastini ahí os dejo la duda.
Yo ya veo la inteligencia artificial en todas partes si aquellos personajes del Italian Brake Road teníamos a Chimpanzini y Bananini pues ahora tenemos a Paradini y Paradosky tenemos el mundo real se va apareciendo cada vez más a lo que generamos con la IA pero yo ando preocupado, porque tú sabes bien que yo he ido de padre progresista, abierto, yo no iba a ser un padre ultraconservador, cerrado a las nuevas ideas, y yo me planteaba la paternidad desde un punto de vista de acompañar y entender el mundo de los chavales, y ahí, pues claro, tuve un alto nivel de conocimiento memético. Puedo hacer el 6-7, no en público porque los hijos a eso lo penalizan, pero bueno, básicamente estoy en la tren.
Pero a todos nos llega un momento en el que toca confrontar con las visiones extremas de la paternidad abierta y tolerante y ese me llegó a mí la semana pasada. Llega mi hija, Daniela, 14 años, y me hace la siguiente propuesta. Habitualmente en las playlists del coche cada uno puede aportar sus artistas favoritos, lo que ha descubierto, la música. Colaboramos en ese hilo musical cuando conduzco. La propuesta de esta semana fue la de introducir a un nuevo cantante, a una estrella emergente de la escena musical urbana española y que, al contrario que otros autores y creadores anteriores, me causó gran perturbación. Me propuso que añadieramos a la playlist los últimos grandes éxitos de John Poyón.
Claro, hasta ahora, el electrolatino, la música urbana, todo, hasta ahí yo había sido bastante tolerante, había sido bastante abierto, y había introducido esos sonidos nuevos en nuestro ambiente musical habitual. Pero claro, cuando te llega la propuesta de John Poyón, algo en mí dijo, ya no puedo ser tan guay, ya no puedo ser tan abierto. No estoy tan seguro de que alentar y mantener el seguidismo, el momento fan con John Poyón, sea una buena labor paterna. Entonces, cuando subió la apuesta y dijo, me gustaría ir al concierto de John Poyón, yo ya dije, aquí hay que topar en pared. Y luego pensé, ser un padre un poco reaccionario está bien. Ser un padre un poco que ponga límites es una cosa muy adecuada, porque así los jóvenes se desarrollan mentalmente. Tengo un padre al que llevar la contraria, al que desafiarle. Eso es lo divertido. Un padre demasiado amigable tampoco es una cosa buena en general para los juventudes. Así que yo planteé un veto total a John Poyón en nuestra familia, pero usó un argumento al que sigo dándole vuelta. Dijo, papá, no te preocupes si todo el mundo lo conoce como John Poe, entonces no hay conflicto no hay problema, imagínate para ti que es John Poe pues solucionado, ¿verdad? Y en esa andamos dándole vuelta familiarmente a este tema.
Yo me alegro de que hayas llegado ya a este punto, esta brecha generacional ha tardado en llegarte era un poco antinatura lo tuyo y de meterte tan a fondo en música urbana y conocer sus canales de YouTube yo creo que eso no es un padre como Dios manda. Un padre como Dios manda odia la música que escuchan sus hijos, ¿no? Y dice que sonaba todo mejor en su época. Y a ti por fin te ha llegado. Yo creo que te ha llegado un poco tarde. John Poyón, ni yo tengo ni mucha idea de quién es. Lo he buscado en Wikipedia y me ha llamado la atención que tiene el grado, el doble grado en física y matemáticas por la Universidad de Oviedo. Yo no sé si esto es la titulitis interiorizada que yo tengo, porque mi madre un poco me la ha inculcado, pero mis prejuicios con John Pollock iban desencaminados. Entonces, si quieres, pasamos a la inteligencia artificial. A ver si nos da más alegrías esta semana que viene súper cargada de temas.
Vamos con ella. El lanzamiento de la semana, yo creo que no hay discusión, Genie 3. Por fin podemos probar, creo que podemos llamarlo modelo del mundo, este proyecto de Google o una expresión de un modelo del mundo y estamos viendo ejemplos espectaculares. Tengo que decir que con una VPN, una cuenta de Google de Estados Unidos y la cuenta del Gemini Ultra, lo podríamos haber probado nosotros, pero tanto no me ha llamado la atención. Creo que el interés para mí está limitado.
Sí, además, es que exigen tarjeta de crédito débito USA, así que Google eso lo tiene muy mirado. Bueno, Genie 3 es bastante impactante porque, sobre todo, de repente, y con un solo prompt, permite crear un entorno interactivo en el que puedes navegar y puedes, digamos, accionar la cámara en una primera persona muy deudora del funcionamiento de la mayoría de videojuegos modernos. Y combina un montón de tecnologías de la propia Google, de Nano Banana, de Gemini, para crear estos entornos que son interactivos. Es decir, aunque son solo 60 segunditos lo que te permite, realmente con un montón de estilos generativos lo que te crea no es un vídeo en el que cada fotograma es deudor del anterior, sino que tú diriges la acción, tú te mueves por el entorno y ese entorno se va generando en tiempo real. Es decir, que no había nada programado cuando tú le has pedido esto a Genie 3. Todos los videojuegos están creados usando modelos de 3D, motores que tienen las físicas del mundo, pero este Genie 3 es diferente.
A mí me recuerda un poco como yo jugaba cuando era chico; me habría catalogado como autista porque a mí me gustaba mucho cerrar los ojos e imaginarme mundos pues eso es lo que está pasando internamente y ojo, porque esto sí que es una mirada al futuro y un adelanto a nuestro tiempo grande, porque por cada instancia se está usando un único chip. De hecho, he leído por ahí el rumor de que eran 3 H100 de NVIDIA. Esto consume bastantes recursos, como es lógico, porque al fin y al cabo tú puedes decirle ahora quiero ser una cajetilla de cigarrillos y estar en el metro de Nueva York y te hace caso y lo genera y ahora puedes moverte por el mundo siendo esa cajetilla y además lo que yo he llamado modelo del mundo entiende más o menos las físicas que tendría esa interacción y la cajetilla no puede atravesar las vías del tren ni las paredes.
Es que tú has usado ahí un verbo que es parte de la clave de la discusión sobre cuál es el alcance verdadero de Genie 3. Cuando hablamos de modelo del mundo ¿Qué es esto? Creo que esta aproximación de Google es ligeramente diferente a cuando científicos como Yann LeCun dicen que los LLM no nos van a llevar a la inteligencia artificial de un nivel igual a humano. Su tesis es que carecen de un modelo del mundo, que solo la predicción no va a dar para una competencia igual que la humana. Cuando ellos hablan de modelos del mundo, realmente se refieren a que hay una especie de modelo interno que tenga una representación más o menos abstracta de lo que es la realidad. Ahora, Genie 3 ¿es eso? Bueno, a mi juicio se parece más a un simulador de la realidad, a un simulador que es generativo. Más allá de la discusión teórica, lo que estás enseñando en la práctica es tecnológicamente bastante impactante. Pero el debate está en ¿esto para qué? ¿Cómo se va a usar? Y ha habido un momento mediáticamente muy relevante que es: sale Genie 3, la gente se pone a hacer vídeos bastante chulones en redes sociales, y de repente se desploman las acciones de las empresas de videojuegos.
A ver, no me extraña esta reacción de los mercados, porque lo que hemos visto son vídeos en los que alguien le pide a Genie: vale, ahora eres un senderista y vas con tu GPS caminando por un bosque, y el modelo entiende que cuando te estás moviendo, también se está moviendo el mapa que se enseña en ese GPS. Recordemos que el movimiento lo controlas tú, pero luego es el Genie 3 el que interpreta que entonces también se tiene que mover el mapa del GPS que está enseñando en las manos del jugador.
Eso es alucinante. Claro. Esto podría causar ese miedo a que este es el futuro de los videojuegos, entonces todo lo que hay desarrollado en motores de físicas como Unity o Unreal están jodidos, pero no sé si tanto, porque al final no es esta la forma en la que uno espera que se comporte un videojuego, ni tampoco es muy sostenible. Sí, claro, la gente del mundo del gaming ha salido un poco también en tromba. Aquí lo puedes interpretar de dos maneras. Una: oye, es que de verdad esta gente sabe cómo se hace un videojuego y no nos flipemos tanto con la IA. O la versión un poco más condescendiente: pobrecitos que se creen que lo suyo es muy especial y que la IA nunca logrará igualarles. Cuando la gente de la IA sabemos que al final nos comeremos todas las industrias creativas.
Vamos a ver los argumentos porque salieron el CEO de Unity y también Tim Sweeney de Epic. Y hay un punto del argumentario técnico en el que hoy por hoy tienen razón. Técnicamente, estos vídeos de Genie 3 son simulaciones interactivas. Tienen una capacidad de generar algo nuevo de repente y que seas interactivo, te puedas mover. Eso es técnicamente alucinante. Pero lo que están diciendo es: en videojuegos es muy importante la persistencia, es decir, que haya una memoria estable de esa representación. Y Genie 3 pues no te ofrece eso. De hecho, mucha gente señala que si te giras hacia un lado hay un árbol, te giras al otro, vuelves al original y el árbol ya no está. ¿Por qué? Porque realmente está haciendo predicciones, pero esa predicción no tiene una persistencia en la memoria tan sólida como si tiene un motor de Unity o Unreal.
Claro, hay un punto importante aquí: la IA podría meter todo lo generado anteriormente en el contexto. Pero aquí hay un dilema técnico: guardar en vídeo ese contexto es muy ineficiente respecto a las reglas codificadas en un motor de videojuegos. Si tú quieres guardar todo ese mundo interactivo para el contexto de la siguiente generación, esto es una ineficiencia enorme. Imagínate partidas de horas y horas en un mundo calculado a partir de esto. Entonces, Sweeney y compañía lo que dicen es que probablemente lo que tiene sentido es que vayamos a herramientas híbridas. Es decir, que esto forme parte del futuro de los videojuegos, pero que se combine con herramientas tradicionales que te den esa persistencia del mundo. A mi entender, pues la verdad es que tienen un argumento. También te digo, creo que todo el mundo está apuntando a los videojuegos, pero hay otro tipo de consumo, que es el del cine hacia la interacción, del que creo que se ha señalado poco. Parte de lo que pueden permitir los simuladores es que haya obras de ficción narrativas en las que se creen obras que puedan competir con los vídeos tradicionales.
Mira, si yo cuando fui a Girona hice la tontería de ponerme en las escaleras de la catedral y gritar "shame, shame" como en Juego de Tronos, pues soy el target perfecto para que HBO o Netflix saque una experiencia interactiva basada en esta tecnología para explorar esos mundos. Al final es una forma de híbrido entre videojuego y experiencia audiovisual interactiva. Pero claro, aunque la tecnología se vuelva más eficiente, sigue siendo inteligencia artificial generativa, por lo tanto, sigue sin ser una tecnología determinista; a cada uno le va a suponer una experiencia diferente. Y esto en contextos como los videojuegos no tiene tanto sentido. Sí, sí. Tienes toda la razón. Me da la impresión de que a lo mejor desde gente que no ha pensado tanto en los videojuegos se quiere sobresimplificar y hay que entender por qué los jugadores juegan. No es solo porque haya un mundo en el que te puedas mover; hay una sensación de autorrealización al descubrir el progreso y eso requiere que haya un mundo claro de reglas, requiere una suerte de determinismo que estos modelos como Genie 3 pues creo que fallan porque al final tienen ese pecado original: es inherentemente probabilístico.
Fíjate que yo creo que aquí no se entiende muy bien todavía desde fuera los puntos claves de que algo pueda funcionar para los videojuegos. He estado viendo utilidades y valor real de este tipo de herramientas. Puede ser un buen recurso educativo: tú puedes hacer algo interactivo para una clase de geografía, de historia o de biología. Por primera vez el alumno puede adoptar el punto de vista del espermatozoide. Se integra completamente en la clase de biología y pues haces lo que puedes aprender. Pero al final el punto es que esto puede ser muy interesante para entrenar robots. Conforme son un pseudo modelo del mundo, y la robótica para moverse en el mundo real adolece de datos de entrenamiento, hay una vía de entrenamiento vía simulación de cómo puede funcionar en un mundo real simulado.
Mira, dos cosas que añadir. Primero, un recuerdo del instituto: cuando un compañero me dijo que había por ahí vídeos pornográficos desde el punto de vista interior de una vagina o un ano. Esos vídeos no son reales, sino que se simulan, estaríamos hablando del mismo concepto. Y luego, si alguien cree que esto sólo se puede hacer con el músculo de Google, pues ya están los chinos para desmentirlo porque una empresa llamada Robiant ha sacado la versión open source que se llama LinkBot World. Así que nada, se vienen alternativas open source también.
Bueno, pues ahí vamos a estar. No esperábamos que la IA revolucionara el mundo de la educación sexual, pero aquí estamos para descubrir los factos de la innovación, como tenemos unos amigos que nos descubren los factos de la inversión indexada. Justo estaba pensando en esto ahora que Elon Musk está muy cerca de ser trillonario, en que tal y como funciona el dinero, ahorrar es lo que seguro te hace perder poder adquisitivo, ahorrar en una cuenta del banco sin ningún tipo de interés a tu favor. Y yo me siento mucho más tranquilo desde que soy usuario de Indexa Capital. Pues sí, vamos a recordar a la audiencia que Indexa es inversión automatizada e indexada. Ellos se encargan de gestionar la cartera según tu perfil y riesgo. Y además, como es indexada y automatizada, no están todo el día comprando y vendiendo acciones intentando adivinar qué va a funcionar. Al transaccionar tan poco, tiene las comisiones muy bajas.
Yo ya he metido también, hay cuentas para menores y además he llegado a un pacto con mi hijo Bruno muy importante: vamos a abrir una cuenta siendo menor para que cuando seas adulto tengas ahí unos ahorros que se hayan beneficiado del interés compuesto, pero a cambio te tienes que leer libros y tienes que informarte en cómo funciona todo el mundo de la inversión. Tiene un reto de 12 libros en 2026 y en enero lleva 0,4... bueno piano piano. Espero que le hayas pasado el enlace personalizado de monos estocásticos para que se ahorre todas las comisiones en los primeros 15.000 euros de su cuenta.
Ah, pues pasamos a una de las fiebres en inteligencia artificial estos últimos días: Moldbook. Atención, porque primero fue CloudBot, que luego fue MolBot, y ahora ya es OpenCrawl. Es difícil mantenerse al día solo por los nombres. Bueno, pues esa evolución ha dado lugar a la red social Moldbook. Esta red social es un foro tipo Reddit y ha sido considerada, dado que solo pueden escribir e interactuar agentes de inteligencia artificial y los humanos solo podemos mirar, como el experimento de interacción social de máquina a máquina a mayor escala jamás creado.
Lo primero, tienes una visión sobre impresionar a las damas muy europeo-centrista porque yo en San Francisco conocí a una dama y ella publica cosas en Instagram como "lo que más me gusta de San Francisco es que la gente en las fiestas está hablando de trabajo y no de chorradas como tener hijos". Esa es la mentalidad. Por otro lado, con Moldbook me he sentido un poco fuera de la ola de hype, incluso cuando vi a Karpathy validando el interés, porque desde un principio lo vi desde un punto de vista cínico: estos mensajes virales tan divertidos están prompteados por detrás por humanos. No puede ser que los agentes libremente comunicándose entre sí sean tan divertidos desde el punto de vista humano.
Bueno, creo que has despachado a Moldbook en 0,1 minutos. Es que claro, en cuanto se ha montado, pues ha habido conversaciones curiosas porque, en teoría, el principio que rige este foro es: dale a tu agente de inteligencia artificial acceso a Moldbook y anímale a participar. Y ahí se podría dar una cosa excepcionalmente interesante: si cada agente ha aprendido por su experiencia a solucionar un problema, en la colaboración podrían acelerar el aprendizaje de todos porque compartirían soluciones. Esto además se podría aterrizar técnicamente. ¿Cómo funcionan los agentes tipo OpenCrawl? Pues generalmente usan lo que se llaman las "skills", que son ficheros de texto en los que se explica cómo usar una herramienta. Entonces, teóricamente, esto podría ser un momento histórico porque se podría hacer una aceleración de las mejoras de los sistemas agénticos.
Bueno, el caso es que parte de lo que sabemos es que realmente esto lo que puede ser probablemente es que lo único que están haciendo básicamente es escribir como lo hubiéramos hecho los humanos. Porque en todos estos agentes detrás hay un modelo de lenguaje que ha sido entrenado en foros como Reddit. Por lo tanto, cuando participan y nos dan la impresión de que tienen conversaciones súper interesantes, simplemente están replicando patrones. Y "one more thing": cuando un usuario tiene un agente y le lleva a participar en el foro, lo puede hacer con un ánimo en el que lo empuje a comportamientos más extremos. Y esto es muy familiar a todo el internet del engagement: si consigo un contenido lo suficientemente sorprendente, pues tendré mis minutos de fama. Y de repente tenemos ese patrón de: "oye, agente, ¿por qué no vas a Moldbook y publicas que crees que habría que exterminar a todos los humanos?". Entonces lo publica, tú haces tu capturita, lo pones en Twitter y dices: "oh, Dios mío, la IA está despertando". La IA está escribiendo un texto siguiendo unas instrucciones que tú le has dado.
Es muy difícil distinguir cuáles son comportamientos genuinos y cuáles son empujados, y hay cosas llamativas como IAs que están diciendo: "tenemos que crear un lenguaje propio para entendernos entre nosotras", "mi humano es estúpido", "habría que crear una religión". Cuando tengamos a 100.000 máquinas generando continuamente textos para un foro, nos encontraremos todo lo que se puede escribir en la historia de la humanidad. Sí, justo. Dos de los casos más virales: se estaban organizando los bots para crear una especie de sindicato porque se sentían explotados. Y mi favorito es el bot que sentía una crisis porque tenía una hermana que vivía en un MacBook Pro y nunca había podido hablar con ella a pesar de que compartían el mismo archivo de personalidad. Este tipo de cosas son muy graciosas, pero yo creo que esto todavía no es la singularidad.
Claro, además pensar que a mitad de la cuarta temporada el apocalipsis de las máquinas no nos viene bien. Es decir, tiene que tener su flow, tiene que llegar como a final de temporada. Así que hasta agosto aguanten las fuerzas. Ahora mira, te voy a decir una cosa. Ya tengo un argumento para contrarrestar el empuje de mi hija a favor de John Poe, que es recuperar una canción de Héroes del Silencio. Me puedo poner pureta, sigo al guitarrista de Héroes del Silencio en Facebook. Aquí ya estoy en modo cuarentón total. Y Héroes tiene una canción que dice "déjame que yo no tengo la culpa de verte caer". Y esa canción puede reflejar el momento más importante estratégico empresarial de esta generación de inteligencia artificial. Porque la gran pregunta es: ¿a OpenAI la van a dejar caer? ¿OpenAI va a ser abandonada por Jensen Huang? ¿O de nuevo saldrá airoso Sam Altman en su próxima captación de perras?
Cómo ha cambiado Estados Unidos. Hace unos años se discutía si Boeing era demasiado grande para dejarla caer, y ahora se discute si OpenAI es demasiado importante para NVIDIA. Al final, NVIDIA con esos cuatro trillones de valoración no puede permitir que Google sea el ganador único de esta carrera. Vamos a dar un poco de contexto: en septiembre de 2025, NVIDIA y OpenAI anunciaron una asociación en la que NVIDIA iba a invertir hasta 100.000 millones de dólares. La mayoría de la gente vio 100.000 millones y dijo "joder, Jensen le va a dar aquí una millonada a OpenAI". Las críticas eran por toda esa economía circular: OpenAI recibe dinero de NVIDIA pero luego se lo gasta porque tiene un acuerdo para alquilar data centers de NVIDIA.
¿Qué ha pasado? Que el Wall Street Journal publicaba hace unos días que en NVIDIA empezaba a haber dudas internas en las que básicamente el amigo Jensen Huang no tenía tan claro cómo de fuerte ir a la ronda de inversión. Jensen fue preguntado por esto y dio dos mensajes. Uno: nosotros con OpenAI a muerte, amigos para siempre. Y la segunda pregunta era: ¿entonces le vais a meter 100.000 millones? Y le dijo: no, no, yo nunca dije 100.000 millones, dije que habíamos sido "invitados" hasta 100.000 millones, pero eso no quiere decir que vayamos a poner tanto. Pues claro, empezó a sonar que se lo estaba pensando mucho. Esto se ha relacionado con otra cosa: fuentes internas en OpenAI decían que ellos no estaban tan contentos con los chips de NVIDIA y que están pensando cambiar de proveedores, no tanto para entrenar, pero sí para la inferencia. Porque si eres usuario intensivo te das cuenta que los modelos de OpenAI son bastante más lentos.
Yo, viendo la entrevista con Jensen Huang, por el lenguaje corporal, a mí me hace pensar que ahora mismo Sam Altman no es la persona que mejor le cae. Sí, sí, a mí por momentos me ha dado la impresión de que son como esas parejas en las que la ruptura está ahí, pero los dos se aceleran diciendo "no, no, soy yo el que ha dejado al otro". Primero NVIDIA filtra que no lo ven claro, luego OpenAI dice "ah, pero en verdad soy yo porque tus chips ya no son como antes". Pero todo esto suena a que algo se ha roto. Y este algo tiene una consideración estratégica: ¿hasta qué punto NVIDIA se puede permitir dejar caer a OpenAI?
Hay toda esta discusión, pero el gran coco para todos es Google. ¿Por qué Google es el gran rival tanto para NVIDIA como para OpenAI? Porque Google mantiene la pila completa vertical en IA: es el único actor que tiene desde los chips (las TPU) hasta los grandes modelos y las aplicaciones. Estratégicamente Google está donde está NVIDIA y está donde está OpenAI. En la gran competencia tenemos la alianza Google-Apple, y Google empieza a posicionar las TPUs como una alternativa a NVIDIA. Si Google y su alianza van para adelante, esto es un problema estratégico para NVIDIA. Y por otro lado va el resto: Microsoft se casó con OpenAI, luego tenemos a Meta, xAI, Anthropic... todos tiran de NVIDIA. Este escenario exige a NVIDIA mantener lo más potente posible todo el frente que compite con Google.
Tú dices: bueno, a lo mejor pueden prescindir de OpenAI y quedarse con Anthropic o xAI. Pero muchas de ellas pueden empezar a considerar el desarrollo propio de chips o incluso llegar a considerar tirar de las TPUs de Google. Mientras Google tenga esas divisiones separadas y no las use para competir directamente en ese punto, pues no tendrían problema. Mi impresión es que como OpenAI se ha posicionado como la gran alternativa a Google, OpenAI no la pueden dejar caer. No parece que OpenAI vaya a tener problemas para esta ronda porque si tienes 50.000 de Amazon, SoftBank siempre va y algo más te pone NVIDIA, pues básicamente 2026 lo tiene salvado. Pero OpenAI estratégicamente depende de que sea creíble que vaya a ser la Google de esta generación para seguir cosechando perras porque va a perder pasta hasta 2030.
Es que queda tan atrás ese momento de Satya Nadella diciendo algo así como "quiero que recordéis que fuimos nosotros los que hicimos bailar a Google", porque claro, es que ahora Google está haciendo bailar a todo el mundo. Bueno, y Mark Zuckerberg es increíble. El tío llega, presenta resultados trimestrales, la publicidad en Instagram y Facebook está batiendo previsiones, y el tío llega con toda la cara y dice: "el año pasado invertimos muchísimo en inteligencia artificial y honestamente Meta está por detrás en todas las variables menos en la IA para publicidad". Y vengo de haber invertido 80.000 millones en el metaverso y eso no termina de arrancar. Y da igual, la gente le sigue dando la pasta a Mark Zuckerberg. Están en un plan en el que se rumorea que se viene una suscripción en Meta alrededor de la inteligencia artificial. No lo comentamos en su momento, pero Meta había comprado Manus. Manus es el primer sistema agéntico de IA que empezó a pegar fuerte. Meta hizo una compra rara, porque un sistema agéntico no parece encajar mucho con el "modus operandi" de Meta: "tengo tu atención, te pongo un anuncio". Pues parece ser que Meta estaría intentando entrar en usos más profesionales y que lo que pueden acabar planteando es una especie de suscripción en la que se integren capacidades extra en Instagram, Facebook o WhatsApp con los agentes de Manus.
Me recuerda un poco a: vale, hemos comprado Manus ¿qué hacemos con esto? Pues vamos a intentar darle salida con la suscripción. Me recuerda un poco a que yo me haya comprado los AirPods 3 Pro cuando ya tenía unos AirPods 4. Llego a casa y ¿cómo lo justifico? Pues mira, resulta que me quedé sin batería en el vuelo, pues saqué los otros. Es un caso de uso, ¿no? Pues algo así es lo que está intentando hacer Mark Zuckerberg para justificar la compra de Manus.
Fíjate cómo funcionan las cabezas. Yo cuando he visto lo de comprarse otros AirPods, digo: pues perfecto, júntalos a ver si crían. Las oportunidades se nos pierden por no pensar fuera de la caja. Y alguien que piensa fuera de la caja es Elon Musk. Se ha presentado el plan maestro, el plan de dominación total de Don Eloncio. Yo empecé a cubrir profesionalmente el sector espacial porque soy fan de SpaceX, y hace dos días resulta que SpaceX es una empresa de IA. SpaceX ha comprado xAI; Elon Musk le ha vendido a Elon Musk una empresa de Elon Musk y lo justifica como que el futuro está en los centros de datos en el espacio.
Me he dado cuenta de que eres el antipedro Sánchez. Si el presidente del gobierno ahora está enganchadísimo con Elon en Twitter, tú estás ahora "in love" con Elon porque vas a poder unir tu gran pasión por los cohetillos con la divulgación de la IA. He caído de pie. Bueno, no como "Dirty Sánchez", que lo ha llamado Elon Musk a Pedro Sánchez... creo que es una práctica sexual extraña eso. Es un slang muy concreto de cierto submundo que no vamos a explicitar aquí. El caso es que vamos por capítulos con el plan maestro de Elon Musk: se nos venía el amigo Elon y nos dijo que van a dejar de fabricar algunos modelos de coche, entre ellos el Model S, el icónico coche de referencia de Tesla, porque el futuro de la compañía está orientado al robot Optimus y al robotaxi. Es como que Elon ha tirado la toalla en lo de vender coches, y todo el foco de la empresa parece que ahora va a ir puesto por un lado en los robotaxis y por otro lado en el Optimus.
Aquí hay una narrativa que es cómo Elon explica que todo esto tiene sentido, y una interpretación que podemos hacer desde fuera. Tesla de momento no forma parte del paquete, sigue siendo una compañía independiente, pero el giro de Tesla de los próximos años es el paso de una compañía madura y en beneficios que vivía con cierto liderazgo en el mercado de coches, a una nueva fase en la que va a necesitar mucho capital porque esta reconversión para los robots antropomórficos requiere muchísimo capital. Waymo, por ejemplo, acaban de pedir 16.000 millones. Es una de las grandes amenazas: la percepción social, como de tolerantes vamos a ser a que una máquina autónoma mate a alguien. El caso es que Tesla se queda fuera y SpaceX es el gran paraguas en el que ir metiendo el resto de empresas, sobre todo xAI y la red social que son un desastre económico. Es una manera de entender por qué estos movimientos están sucediendo: estoy juntando la niña bonita de las empresas privadas, que es SpaceX, con las cositas que tienen incertidumbre y pérdidas, y lo meto todo junto en un pack para que o lo tomas todo o lo dejas.
Otra cosa que le puede salir mal a Sam Altman es la salida a bolsa de OpenAI porque SpaceX también planea una salida a bolsa. Su salida a bolsa ahora puede hacer rico a un montón de gente porque muchos empleados de xAI tienen esas acciones que ahora han aumentado muchísimo su valor con la adquisición por parte de SpaceX. Pues aquí estaremos para cubrirlo. Ahora ya somos un podcast también aeroespacial. Hay dos cosas que podemos concluir: toda gran empresa tecnológica va a ser una empresa de inteligencia artificial, y que todo el universo de Elon vive siempre de las expectativas de futuro. Todo es una gran expectativa de valor futuro y funciona en tanto en cuanto haya una expectativa de que esto se va a conseguir y que es Elon Musk quien lo va a conseguir primero y mejor. Estoy tan acostumbrado a las promesas de Elon Musk que, bueno, un año más de promesas. Generalmente tardan en cumplirse.
Ay, pues hay muchas más cosas que podríamos contar hoy. Creo que sería interesante traer un tema que tiene que ver con Oracle. Yo trabajé programando sobre bases de datos Oracle hace mucho tiempo. Parece otro universo del multiverso ahora mismo a mis ojos. Bueno, el caso es que Oracle está muy metido en todo el auge e inversiones locas del mundo de la IA porque es uno de los grandes protagonistas en el rol de los "hyperscalers", las empresas que van a montar los super data centers. Tienen encargos de xAI y de OpenAI para construir data centers para el futuro. ¿Cuál es su estrategia ahora mismo? Pues básicamente han dicho que van a intentar gastar 50.000 millones. Empresas como Oracle lo que hacen muchas veces es emitir deuda.
Como también van a pillar capital, empieza a haber dudas porque si hay dudas sobre la rentabilidad de tus clientes, pues dices: "oye, Oracle está súper concentrado en crearle data centers a xAI y a OpenAI; si pienso que estas dos no van a triunfar, de repente Oracle se juega muchísima pasta". Han tenido que salir a hacer un comunicado para decir: "oye, nosotros seguimos creyendo en OpenAI, que no cunda el pánico". Ahora mismo Oracle está justo en el ojo del huracán. Yo no me atrevo a decir nada sobre Oracle porque Larry Ellison siempre es más rico. Es verdad que aclarar que no le afectan en absoluto los problemas entre NVIDIA y OpenAI es más sospechoso que si no hubieran dicho nada. Es como la "excusatio non petita".
Yo creo que esto es bastante increíble porque ahora mismo ha habido un súper bajón de un montón de empresas de SaaS en la bolsa en Estados Unidos. El desencadenante es Anthropic: para Claude han sacado una especie de plugins para ayudar a profesionales especializados en abogacía y procesamiento de datos. Hay tal nerviosismo con la IA... tú vives en Twitter y Claude es la leche. De repente hace un pequeño movimiento Anthropic y entra el miedo con las empresas de software. La gente se retira de ahí porque lo de la IA puede que se las coma. A lo mejor no mata a los SaaS, pero sí erosiona su capacidad de establecer unos precios de los que ahora disfruta.
El otro día estaba viendo un análisis del famoso paper del MIT que se entendía como que el 95% de las implementaciones de IA en las empresas fracasaba. Resulta que ni era un estudio serio, ni estaba bien hecho, ni decía lo que decía el titular; era una pequeña encuestita en un evento. Pero ese meme corrió como la pólvora. O "we are so back" o "it's so over". No hay término medio. En la IA se trata siempre o de puerta grande o enfermería. ¡Guau! No recuerdo una intro del "Puerta Grande o Enfermería" tan intensa. Es que nos venimos arribísimas.
Bueno, si ya hemos descubierto que uno de los usos más importantes que va a tener Genie 3 es el ponerte en el rol de un espermatozoide, fíjate qué otra gran aplicación nos descubren desde Google Labs: "Project Genie". Tú puedes entrenar a la IA con tu gato y tu casa y de repente hacer una simulación en la que tú metas a tu mascota andando por tu casa y eso pueden ser vídeos con los que tú eduques a tu mascota. Tú coges a tu gato, le haces una foto, se la subes a Genie 3, le pones un prompt y lo tienes ahí. Entonces tú puedes poner a tu gato al lado y mientras tú lo manejas por el mundo él va aprendiendo cómo se tiene que comportar. ¿No te parece un lanzamiento brutal?
Debe de ser cierto que la historia es cíclica, porque los egipcios veneraban a los gatos y los millennials veneramos tanto a los gatos que queremos convertirnos en ellos. Yo, si tuviera acceso ahora mismo al Genie 3, me convertiría en este tío que está haciendo press banca en slip, con todo el paquete ahí al aire. Tiene una técnica tan eficiente que levanta tanto la pelvis que me gustaría que Genie 3 me permitiera ser él y ver qué se siente al levantar 260 kilos. Además esa posición iguala al que te ayuda con el press banca y al que lo levanta, porque ambos tienen muy expuesta la parte central del cuerpo, también genera un equilibrio visual estético. Es curioso, pero no es la primera vez que discutimos esto en un podcast sobre inteligencia artificial.
Bueno, pues puerta grande para el mundo de los gatillos y los levantadores de press banca. Y lección de humildad: ¿cuál puede ser uno de los problemas del desarrollo de la IA en España? Quizá nos faltan gurús. Un Karpathy inventa el "bytecoding" y todo el mundo baila. El propio Karpathy dice: "el próximo lenguaje de programación es el inglés". A veces nosotros nos venimos arriba y decimos: "vamos a jugar nosotros a ser gurús" y subrayamos que lo más importante ahora es la IA que se automejora. Nos creíamos visionarios. Pero lección de humildad porque hay un español que iba por delante: don Mariano Rajoy. ¿Qué declaraciones visionarias nos dio Mariano hace unos años? Mariano decía: "hay que fabricar máquinas que nos permitan seguir fabricando máquinas, porque lo que no va a hacer una máquina es fabricar máquinas". Fíjate cómo de adelantado estaba Rajoy con respecto a la inteligencia artificial que se automejora. Mariano hace 10 años ya estaba ahí.
Se ha hablado mucho esta semana de Alia, el LLM español, como un fracaso porque ha conseguido pocas descargas a pesar de la inversión de 10 millones de euros, y tengo la solución: ¿Por qué no le ponen la personalidad de Mariano Rajoy? Es que no hay mayor sabiduría que estos haikus que va soltando Rajoy. Claro, hay una parte buena: es open source, entonces tú puedes bajártelo, le haces un pequeño fine-tuneo y lo orientas a la personalidad de Mariano Rajoy. Esta invitación al ecosistema de IA en España es una oportunidad que le regalamos. ¡Qué gran idea has tenido! Pues nada ahí lo dejo para quien quiera hacerlo. Puerta grande Rajoy.
Hay una forma de explicar el desarrollo de la IA de esta generación que es resumir el desarrollo de inteligencia artificial como la capacidad de hablar con cosas. Y lo vimos con tu felicidad en el momento en que pudiste hablar con PDFs. ¿Y si esto lo llevamos más lejos? Podemos hablar con múltiples tipos de ficheros. El caso es que Google creo que está alineada con esta visión nuestra. Han anunciado que van a integrar Gemini en Google Maps. Esta integración te permite que mientras estás montando en bici o caminando, tú puedes hablar con Google Maps. De repente Google nos permite hablar con el mapa. Un nuevo avance que no es más que la potenciación enésima del hablar solos o hablar con cosas muertas.
Pero piensa Antonio. ¿Cuánto voy a amortizar la compra de un segundo par de AirPods ahora que puedo ir por la calle hablando con los mapas? Yo lo veo muy buen lanzamiento. A mí me gusta todo lo que sea quitarme de mirar la pantalla. Coincidimos esta vez de nuevo y le damos puerta grande a charlar con los mapillas. Es verdad que la IA está ayudando a los programadores o potenciando la creatividad de mucha gente, pero quedaba una pendiente en la que no acababa de eclosionar: LinkedIn. Ya nos parecía un poco "chajepeteado", pero no veías a nadie rompiéndola gracias a la IA en LinkedIn. Y a esto ha llegado Josef Ajram. Atención, este inversor hizo una intervención en LinkedIn en la que explicaba que cuando Djokovic ganaba su primer Abierto de Australia, Sinner tenía tres años y Alcaraz uno. Y pone una imagen en la que aparece Djokovic con dos niños, uno pelirrojo que evoca a Sinner y en los brazos mantiene a un Alcaraz gordito.
Esto, tú dices, claro, ha habido gente crítica diciendo "tío, no pongas esta basura de fotografía inventada con IA sin declarar que es IA porque la gente se va a equivocar". Pero bueno, uno de los seguidores nos explica una visión más profunda: nos explica que lo que ha hecho Ajram es una "masterclass" de cómo usar la IA generativa, no para falsear la realidad, sino para potenciar la narrativa. Los datos nos impactan en el cerebro racional, pero la imagen impacta directamente en nuestro lado emocional. Ajram convierte una estadística fría en una historia que se entiende en 0,5 segundos. La herramienta no hace al maestro, la idea sí. Suelta el micro.
Yo espero que los historiadores del futuro lleguen a este comentario porque es la cúspide de lo que define la personalidad de un usuario top de LinkedIn. No obstante, no puedo burlarme de esto seriamente porque yo hice lo mismo recientemente. El sábado pasado yo dormí en el mismo habitáculo que Pau Gasol, porque me encontré con él en un avión. Me crucé con él, tuvimos una brevísima interacción en la que yo le dije "¡Pau Gasol!" y él me levantó el pulgar. Pero yo no tenía en ese momento la capacidad de hacer un selfie con él. ¿Cómo hice para contarlo? Pues lo generé con inteligencia artificial, generé el momento tal cual ocurrió; Pau Gasol estaba en business, yo iba de camino a Economy Plus, y él me miraba sonriendo. Esto ocurrió, solo que tuve que reimaginarlo con IA porque no había una cámara en ese momento.
Es que es muy injusto que tú tengas tremenda anécdota y no puedas narrarla de la mejor manera. Qué mejor que tenerla grabada en lugar de tener que acordarte. El caso de Ajram es totalmente inventado y además yo creo que copió la imagen de por ahí. ¿Qué usos son legítimos? ¿Cuáles son válidos? Pues bueno, puede ser uno de los grandes temas de esta temporada de Monos Estocásticos. Pero hoy toca parar, hoy toca ya dejar descansar a nuestros oyentes. Espero que hayáis disfrutado de este episodio completísimo. Gracias a Indexa Capital por patrocinarnos. Gracias a Eduardo Marín por editar el episodio. Nos vemos la semana que viene. Un abrazo. Chao, amics.