Paralelismos entre Andy y Lucas y Azúcar Moreno millones de usuarios semanales Ahora puedes hablar con tus apps ChatGPT es el WeChat de Occidente Qué ganan las aplicaciones con esto Indexa Capital tiene algo para los oyentes Claude Sonnet 4.5 no se deja engañar El foco de Anthropic, la hiperactividad de OpenAI La IA es una burbuja, lo dice Jeff Bezos OpenAI y AMD ahora dependen del éxito mutuo China y la escalada energética de la IA Hay una nueva estrategia europea en IA Sora 2, del narcisismo a monetizar mi cara Puerta grande o enfermería
00:00 /1h19

Únete a la comunidad de monos estocásticos en Telegram 

https://t.me/monosclub

Patrocinador: Indexa es una forma sencilla de invertir cada mes. Ya sea en el SP500, donde están todas las empresas de las que hablamos normalmente (Meta, Amazon, Google, etc) o en Europa, Japón... En Indexa se encargan de gestionar tu cartera, según tu perfil inversor, para que tú te olvides.

Si quieres saber más, te dejamos nuestro enlace para ahorrarte las comisiones de Indexa sobre los primeros 15.000 € en el enlace de la descripción o puedes contactar directamente con ellos, y estarán encantados de atenderte.

https://indexacapital.com/t/rodqpW?utm_source=monosestocasticos&utm_medium=advertising&utm_campaign=monos-podcast

Minutado

0:00 Paralelismos entre Andy y Lucas y Azúcar Moreno

4:02 800 millones de usuarios semanales

6:43 Ahora puedes hablar con tus apps

11:59 ChatGPT es el WeChat de Occidente

18:31 Qué ganan las aplicaciones con esto

22:55 Indexa Capital tiene algo para los oyentes

25:05 Claude Sonnet 4.5 no se deja engañar

30:48 El foco de Anthropic, la hiperactividad de OpenAI

34:29 La IA es una burbuja, lo dice Jeff Bezos

38:36 OpenAI y AMD ahora dependen del éxito mutuo

40:46 China y la escalada energética de la IA

49:35 Hay una nueva estrategia europea en IA

54:01 Sora 2, del narcisismo a monetizar mi cara

1:01:37 Puerta grande o enfermería

“Salir en ChatGPT en lugar de captar al usuario en tu propia web.”

“Dos riesgos: el usuario no es tuyo y estás siendo intermediado.”

“Han tenido un acuerdo de warrants por chips: AMD va a suministrar chips a OpenAI… además de todo lo que le van a comprar a NVIDIA.”

“No me voy a gastar 20 000 créditos en un vídeo de Sora; la API de Sora es muy cara.”

monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Sacamos un episodio nuevo cada jueves. Puedes seguirnos en YouTube, LinkedIn y X. Más enlaces en cuonda.com/monos-estocasticos/links

Publicado: 9 octubre 2025

Transcripción

Hola a todos los monos estocásticos y bienvenidos al podcast de inteligencia artificial favorito de Andy y Lucas, que ahora nos van a tener que escuchar por separado, Antonio, porque han roto como pareja musical. Se hablan a través de sus abogados, según marca.com. Bueno Matías, esto es malas noticias para los amantes del flamenquito pop y la balada melódica española, pero para nosotros como podcasters nos viene bien, porque tú piensas que lo que antes nos contaba como una escucha, porque se reunían Andy y Lucas y ponían monos estocásticos cada semana, ahora nos va a contar como dos. Entonces, un crecimiento del 100% de repente.

Y te diré más, yo con esa noticia que bueno, me ha preocupado durante toda la semana, he trazado un paralelismo, he hecho un análisis y por supuesto he tirado de inteligencia artificial, porque el mejor modelo de investigación de Deep research para mí sigue siendo el de LGTB y le he pedido que me analice e investigue los casos de Azúcar Moreno y de Sonia y Selena, porque yo he visto claramente aquí un paralelismo de que este dúo que rompe ahora con los casos de Azúcar Moreno y Sonia y Selena. Porque quería acabar esta intro con felicidad, con alegría, con optimismo, y es que claro, Azúcar Moreno y Sonia y Selena ambas rompieron, sí, con fuertes desavenencias personales. Me informa ChatGPT que en eso el conflicto personal está en la raíz de la ruptura de ambas, pero ambas, parece que con ciertas necesidades de facturación, acabaron reconciliándose y volviendo a dar conciertos y haciendo música juntas. Entonces, bueno, yo tengo la esperanza de que Andy y Lucas en algún momento vuelvan. Aquí todos sus fans de dentro de monostocásticos, pues que no decaigan en el desánimo.

Y hay otra ventaja, que es que creo que por fin, si empiezan por separado, me voy a aprender quién es Andy y quién es Lucas. Sí, ya era hora, porque como además al principio uno era el gordo, otro era el delgado y luego eso cambió, pero ya con lo de la nariz queda un poco más claro quién es cada uno. Lo que a mí me fascina, Antonio, es que dejes a uno de los modelos de lenguaje más potentes que existen trabajando durante 20 minutos, media hora, para contártelo todo sobre la separación de Azúcar Moreno. Por cierto, estoy leyendo en tu deep research que ocurrió en 2007. Fue un mal año aquel de 2007, explotó todo. Y tengo que decir que Azúcar Moreno efectivamente está en activo, vinieron a la feria de Campanillas de este año y ya no cantan, hacen el truco de poner el micrófono para el público todo el tiempo. Bueno, pero imagínate, si eso te cuesta el dinero, a menos que te sepas todas las canciones y las disfrutes por igual, pues complicado, ¿no? Pero bueno, achaques de la edad, me imagino, para Toñi y Encarna.

Ay, grandes las Azúcar Moreno que, bueno, en estas historias de conflicto y reconciliación, creo que bueno, quizás te imaginas que quienes acaban reconciliándose son Sam Altman y Mira Murati, por ejemplo, o Ilia Sutskever, esos personajitos de nuestro podcast. Quién sabe si aquí estamos anticipando algo grande, Matías.

Pues mira, vamos directamente a meternos en harina, porque de ese grupito directivo que se rompió de OpenAI, el que no para de lanzar cosas es el que maneja la empresa más grande, que es Sam Altman, porque está teniendo unas semanas de mucha actividad. Me gustaría ver en su Apple Watch las horas de sueño y de tiempo que pasa de pie, porque lleva unas semanitas muy activo Sam Altman. Era el evento para developers que yo ponía ahí, y claro, en estas circunstancias, que hubiera lanzamientos potentes así para el público más general a veces siempre es dudoso. Muchas de estas ferias, pues como su nombre indica, se concentran en darle más herramientas a los desarrolladores y por tanto, suelen ser noticias más de nicho. El caso es que empezaron muy fuerte porque dieron unos datos de uso de ChatGPT bastante brutales, Mati: 800 millones de usuarios activos a la semana. Esto en las redes sociales se suele decir el número de usuarios activos diarios, aquí no sé cómo habrán manipulado las cifras, pero aún así impresionante. Aún así, impresionante, quiere decir que todas las semanas 800 millones de personas le dan al chat GPT y le preguntan sus movidas.

Sí, es curioso lo de qué métrica tengo que utilizar, porque creo que hace una cosa bien. La métrica de usuarios diarios creo que tiene mucho sentido en la plataforma de redes sociales, en tanto en cuanto su modelo de negocio está ligado a la atención y por lo tanto, el usuario diario es cuántos ojos te están mirando, explica pues no es un proxy, es como una pista del valor de cómo va el negocio realmente. En plataformas como ChatGPT, que bueno, de alguna manera tienen ese modo gratuito y el de suscripción, es verdad que otras métricas como usuarios mensuales o usuarios semanales pueden tener más sentido. Me gusta más semanal que mensual porque, claro, alguien que te use una vez al mes pues realmente tiene una ligación con el servicio muy dudosa, ¿no? Mientras que la métrica semanal me parece más acertada. De todas maneras, la clave aquí, y de eso hablaremos en el episodio un poquito, está en cuántos son de pago, ¿no? En cuántos generan ingresos y cuántos son solo gastos.

De todas maneras, Mati, hubo un anuncio, un anuncio que no vamos a caer en esto hoy, "lo cambia todo, esto es el golpe en la mesa, esto ha matado a 8 industrias y 4 poblaciones de todo el mundo", no. Ha habido un lanzamiento muy importante que creo que va a marcar o que al menos nos deja entrever gran parte de la estrategia de OpenAI con ChatGPT, y ese lanzamiento es el de las apps integradas dentro de ChatGPT.

Pues sí, señores, ahora no tenéis que cambiar de aplicación. Ahora podéis hablar, si estáis fuera de la Unión Europea, con aplicaciones desde ChatGPT. Esto no es lo mismo que los GPTs, que los GPTs están cubiertos de polvo. A ese departamento de OpenAI no ha entrado nadie en los últimos dos años, pero lo de las aplicaciones pues aquí tienen futuro y tienen un margen de crecimiento muy grande, porque ya empiezan con nombres potentes. Yo he probado Booking, he probado Canva y pues tienen también Zillow para el mercado inmobiliario de allí de Estados Unidos, Spotify, que creo que todavía no está disponible, pero fue una de las demos. ¿Y en qué consiste esto, Antonio? Pues en lugar de abrir las aplicaciones, pedirle cosas a través de chat GPT. Básicamente, ellos lo llaman así: chatea con las aplicaciones.

La gracia del asunto está en dos factores: uno, que no tienes que salir de ChatGPT para pedirles cosas a estos servicios, y dos, que esos servicios ahora están preparados para entender muy bien lo que tú quieres a partir del lenguaje natural. Pensemos que cualquiera de estos, Booking, Zillow, lo que sea, pues claro, trabajan con el típico y tradicional interfaz web: clic, scroll, desplegables en un formulario. Y le llega la información muy bien masticadita, muy bien estructuradita, sin ningún tipo de ambigüedad. Entonces, ¿cuál es el cambio, aparte de no tener que ir a su web o a su app móvil? Pues que podemos trabajar en lenguaje natural. Entonces, si tú le pides "oye, es que tengo mucho interés en visitar el bellísimo pueblo del Sexmo, búscame algo baratito para finales de noviembre", pues Booking te consigue procesar esa petición, que no viene superbién estructurada ni viene de un formulario en el que tienes muy claro qué campos de la base de datos tiene que mapear, sino que está preparado básicamente para recibir esas instrucciones en lenguaje natural.

Debajo de esto hay un estándar que se llama MCP, que básicamente sirve para que los LLM y otras aplicaciones, servicios, base de datos, lo que sea, interaccionen y de alguna manera estas aplicaciones como Booking le digan a ChatGPT, o a cualquiera que use el protocolo MCP, "estos son el tipo de cosas o el tipo de prompts que funcionan conmigo, entonces es lo que me puedes mandar". Notas importantes: Spotify todavía no está, y aquí ha sido una gran pena porque claro, yo en el ChatGPT que he investigado la vida de Azúcar Moreno y de Sonia y Selena, pues claro, yo ahí estaba deseando darme una playlist de los momentos más importantes de estas cantantes, ¿no? Para invitar a gente a casa y recordarlas. No ha podido ser, pero lo que no va a poder ser, bueno, al menos todavía, es su uso en la Unión Europea. Nosotros lo hemos probado con VPN, haciéndonos pasar por una conexión estadounidense. En Europa de momento no lo hay.

Sí, estos días me estoy metiendo mucho con VPN en salida en Estados Unidos en ChatGPT, sobre todo para generar mis horas, pero me ha sorprendido la cantidad de conexiones que tienen ya con ChatGPT fuera de la Unión Europea. Y ahora que se añaden estas aplicaciones, pues nos vamos quedando un poco atrás. Mi madre, que se llama Florencia, uno de los sueños vitales que tiene es visitar Florencia, y como se viene un festivo próximo en Marbella, pues le estoy intentando montar un viaje a través de Booking en ChatGPT. Y claro, la gracia está en lo que tú dices: tú le hablas, le limitas cosas, le dices a qué hora llega mi madre al aeropuerto, te dice "bueno, pues puede dormir en el aeropuerto, después puede coger el tren, tal, tal". Pero por ahora es una integración limitada que, al estar abierta con su SDK a desarrolladores, me imagino que de aquí a unas semanas, a unos meses, veremos cosas más potentes. Por ejemplo, le he pedido a Canva que cree plantillas de miniaturas de YouTube para el canal de Monos Estocásticos. Me ha sacado alguna cosa chula, pero no sé si representan nuestro estilo, así como un poco hortera. Esto por ejemplo está chulo, pero es demasiado elegante para Monos Estocásticos. Claramente está demasiado bien hecho para nosotros.

Sí, una cosa importantísima es que surgen varios debates con lo de las apps dentro de ChatGPT. ¿Te acuerdas de que cuando Elon compró Twitter empezó a tontear con la idea de que él quería convertir la app de Twitter en una superapp? Pensando sobre todo en la analogía con China y con cómo funciona allí WeChat, que dentro de la experiencia del chateo pues tiene un montón de integraciones de comercio electrónico, servicios, aplicaciones, el banco... todo gira en ese universo dentro de WeChat. Bueno, Twitter, 5000 empleados menos, no se cae, pero tampoco es que esté lanzando funcionalidades muy chulas y se ve a Elon más preocupado de xAI que de Twitter realmente, ¿no? El caso es que si ahora tuviéramos que analizar la situación detrás de la presentación de estas apps, lo que más se parece a lo que va camino de ser la superapp, incapaz de integrar a cualquier otra cosa, es ChatGPT, porque recordad que en el episodio anterior también empezó a integrar los pagos y el comercio electrónico. Entonces, poco a poco va comiéndose más parte de la experiencia que antes típicamente ha pasado fuera de la aplicación de ChatGPT.

A mí poco a poco me van atrapando en ese ecosistema que tú dices, sobre todo desde que lanzaron la memoria extendida para los diferentes proyectos, que son como las carpetitas que tú tienes dentro de ChatGPT. Entonces, por ejemplo, si ahora estoy haciendo un máster o estoy aprendiendo Python, pues tengo ahí mi carpetita y recuerda todo lo que hemos hablado. Se me van metiendo en ChatGPT cada vez más, y si luego le van añadiendo integraciones con aplicaciones de terceros que por lo que sea les interesará salir en ChatGPT en lugar de captar al usuario en su propia web, pues más me van a atrapar.

Bueno, hay un debate primero que a mí, de hecho ayer en una cena de mafia tecnológica de Torremolinos aparecía, y era que yo no veo del todo claro los incentivos de esto para las empresas a la hora de meterse en ChatGPT. Me explico: es verdad que ahora todo lo que se vincule a OpenAI, inteligencia artificial y ChatGPT sube. A Sam Altman le da perras a AMD, suben las acciones; si Zillow se integra, suben las acciones. Es como "oye, si querías vender las acciones que te dieron del bono del año pasado, lo mejor que puedes hacer es una foto con Sam Altman", eso clarísimo. Ahora bien, estratégicamente, el saltar de la web abierta a la plataforma de un tercero, que en este caso es OpenAI, tiene dos riesgos. Una, que el usuario no es tuyo, vale, es decir, el usuario de OpenAI es el usuario de ChatGPT y está siendo intermediado. Eso significa que las normas son las que ponga OpenAI en ChatGPT, y cuando quieran las van a cambiar. Y además, quién sabe si algún día, si entre todos hacen muy poderoso a ChatGPT, más de lo que es, eso se podrá venir en contra de alguno de ellos.

Entonces, ahora mismo la experiencia de Booking es parecida a salir en un buscador, porque tú cuando buscas en Booking te da resultados de verdad, pero para continuar el proceso de reserva tienes que ir a la web o a la aplicación de Booking. De todas maneras, si ChatGPT ya ha integrado los pagos y las transacciones, lo que acaban de anunciar hace una semana, es cuestión de tiempo que les digan a Booking o a su alternativa: "¿por qué no acabas la experiencia completa en ChatGPT?". Porque seguro, y esto seguro que va a ser parte de la propuesta de valor de OpenAI, seguro que como ocurre en cada funnel de la experiencia digital, cada vez que el usuario tiene que dar un salto o un clic, pues pierdes conversión. Tienes 50 usuarios, clican en "voy a comprarme esto", como me la pasan a otra web, pues en esa web ya pierdes un 10%. Si tienes que dar otro clic para rellenar la dirección, ahí otra gente se lo piensa, le da pereza y los pierdes. Entonces, cada paso adicional que tú añadas en ese workflow, estás perdiendo pasta. Yo creo que llegará el momento en que OpenAI le diga "mira, el One click a la hora de comprar como en Amazon y seguro que no perdéis conversión", pero en ese momento estarás completamente en sus manos y serás como un proveedor de Mercadona, eres un proveedor de Hacendado pero de ChatGPT.

Sí, ¿sabes el meme este de "ha sido pesadoizado"? Pues lo mismo con Sam Altman, "ha sido altmanizado". Yo de todas formas me dio miedo una cosa, porque ya se pueden desarrollar herramientas en el SDK como en fase beta, y al activar la versión para desarrolladores para poder probar cosas experimentales, te dice ChatGPT: "ojo, si activas esto, las aplicaciones que conectes van a tener acceso a tu memoria". Y entonces yo caí en la cuenta de que estaba en una VPN, estaba como usuario estadounidense con IP estadounidense y no estaba protegido por la Comisión Europea, y la memoria de todas las conversaciones íntimas que he tenido con ChatGPT en los últimos años iban a quedar expuestas. Y ahí ya fue cuando me asusté y dije: "a ver, esta superaplicación, el WeChat europeo no puede ser ChatGPT".

Pues tendrá que ser en tu caso Bizum, ¿no? Bizum es nuestro WeChat, y a lo mejor es una cosa virtuosa. Lo buscas en idealista y de repente le pasa toda la memoria y el casero ahí revisando... "pero este tío...". Claro, ahora para alquilar piso los caseros piden toda tu memoria de ChatGPT además de aval y tres meses por delante. No bueno, aquí recordemos a la audiencia algo que has dicho que está muy bien, que es que en estos momentos en que tú veas tu privacidad menoscabada o amenazada, si sacas una foto de Von der Leyen, entonces ese servicio estonio se achanta y tú puedes reclamar todos tus datos.

Yo me he puesto a fliparme, Matías, con esto y veo dos posibles futuros para el avance de ChatGPT como plataforma. Bueno, se han buscado un montón de analogías. Ya hay gente que dice que esto se parece a cuando Facebook metió apps. Ujum, una época muy loca que sobre todo había juegos como el FarmVille y cosas así dentro de Facebook. Y Facebook decía a los desarrolladores: "haced apps dentro de Facebook porque tengo 200 millones de usuarios". Claro, el problema allí fue que es verdad que tenían los usuarios, pero en un contexto en el que estaban abiertos a un tipo de cosas y en las que la ventaja de hacerlo dentro de Facebook básicamente era el acceso al grafo social. La ventaja de hacer una aplicación dentro de ChatGPT es diferente: es un entorno también personal pero también de productividad, generalista, en el que la gente habla de todo y en el que hay mucha confianza con la persona que está tratando, ¿no? Entonces yo creo que ChatGPT está mucho mejor situado que Facebook para intentar lograr esto.

Pero en el movimiento de futuro, aparte de lo que hemos barruntado antes, yo sospecho que puede haber dos cosas. Uno, el bundle de suscripciones, que ChatGPT diga: "oye, si alguien se suscribe a lo tuyo por aquí, ya le voy cobrando yo, lo meto en la suscripción de ChatGPT y de repente pues hacemos un bundle, ¿no? Como Spotify + ChatGPT o Filmin + ChatGPT o lo que sea". Y en la flipada máxima, Mati, porque hay gente que dice esto también, se lo leí a Ben Thompson de Stratechery, esto es que OpenAI quiere ser el Windows de la inteligencia artificial. ¿Por qué dice esto Ben Thompson? Dice: primero, ha capturado los cientos de millones de usuarios que nos ha dicho antes Sam Altman. Vale, y ahora quiere persuadir a los desarrolladores. Solo faltó que el amigo Altman empezara allí a gritar "developers, developers, developers", como en los mejores tiempos de Steve Ballmer. Y que eso cree un círculo virtuoso en el que, como tengo los usuarios, los desarrolladores hacen aplicaciones para mí, y como los desarrolladores hacen las mejores aplicaciones para mí y están bloqueados entre comillas dentro de ChatGPT, entonces los usuarios no solo se quedan, sino que son más. Entonces es el círculo virtuoso del éxito de una plataforma como Windows.

Mi punto es que, pensando a largo plazo, si lo de la IA funciona, la IA va a ser la gran intermediaria entre nosotros y el mundo digital. Es decir, entre toda la experiencia de lo que hoy es digital: internet, el conocimiento, los servicios, los contenidos. Entonces esa experiencia va a estar mediada por la IA. Y en el momento en que eso suceda, en el momento en que el acceso a todo esto (el contenido, el conocimiento, las preguntas, las búsquedas, las compras) sea todo a través de una inteligencia artificial, entonces en ese momento hay cosas que dejarán de tener sentido, como por ejemplo hacerte una web. La web es una capa de presentación de unos contenidos para que las vean humanos, que luego han sido también indexadas por bots y procesadas, pero claro, el futuro final, si la intermediación es completa para la empresa de inteligencia artificial, para Sam Altman o para OpenAI, pues es que básicamente solo necesito los datos de los servicios, solo necesito conectarme a sus APIs o que me hablen por MCP o la forma en que la IA se vaya a hablar con ellos, y yo ya hago todo. ChatGPT hace todo. ¿Para qué necesitará la gente una app de Android o de iPhone? ¿Para qué va a necesitar la gente mirar la web de no sé quién o de no sé cuántos si la experiencia digital por completo es intermediada? Esto es un poco flipada, Mati, te lo voy a reconocer, pero yo creo que en la mentalidad de Altman y gente así, creo que es la foto que les persuade de cara a un futuro mediano de 5 a 10 años.

Joder, es que al final la web abierta se está muriendo de tantas formas que parece ahora mismo ciertas regiones del mundo, ¿no?, que tienen tantos frentes y están recibiendo tantos palos. Y cuánto se aprende de inteligencia artificial contigo, Antonio, pero, ¿sabes lo mejor que he aprendido contigo en los últimos meses? A sacar mis ahorros de la cuenta corriente, Antonio. Porque este episodio vuelve a estar patrocinado por Indexa Capital, donde desde hace unos meses tengo ahorros en fondos indexados. Me gusta, me encanta el email ese mensual que te mandan de "bueno, mira, estamos diversificando aún más este dinero tuyo, ahora en más acciones, menos bonos". Me estoy enganchado a eso, aunque se supone que hay que dejarlo ahí que crezca, pero tenemos muy buen servicio en Indexa Capital y tenemos cosas para nuestros oyentes, Antonio.

Pues sí, porque recordemos, Indexa, que nos acompaña en este capítulo, el servicio que ofrece es de inversión pasiva. Entonces, ellos lo que necesitan saber de ti, del usuario, es básicamente el perfil de riesgo. Y a partir de ahí se genera una cartera automática en la que no hay nadie comprando y vendiendo, no hay nadie queriéndose hacer más listo que el mercado, no hay nadie que sepa un truco oscuro y mágico que no te pueda desvelar por un precio. No, lo que hay es el rigor del conocimiento histórico de cómo han funcionado las inversiones. Asumir que toda inversión tiene riesgo, que ese riesgo tiene que estar adaptado al perfil del cliente y que la inversión que históricamente ha funcionado mejor y ha dado más rentabilidades es una inversión indexada en la que se hacen muchísimas menos transacciones y por lo tanto se pagan muchísimas menos comisiones, que es realmente el problema oculto de mucho de la vida del inversor activo. No hay más, porque si os dais de alta en Indexa Capital a través del enlace que vamos a dejar en la descripción del episodio, directamente os ahorráis las comisiones sobre los primeros 15.000 € que metáis en vuestra cuenta, para que luego, según vuestro perfil de inversor con el formulario que hagáis, pues se invierta en el SP 500, en acciones de Meta, de Google, de lo que sea. Así que id al enlace que dejamos en la descripción de Monos Estocásticos.

¿Te acuerdas que te comenté que no podía hablarte todavía de Claude 3.5 Sonnet porque no había disfrutado todavía de ese momento de leer la carta del modelo, no?, la "model card" que llaman, en la que explican con pelos y señales qué han conseguido con el modelo, cómo funciona, cómo se ha entrenado. Y hay una cosa que me encanta de Anthropic, que me encanta de cómo lo hacen y lo valiente y lo coherente que son, eso se lo tengo que reconocer, que es que cuando encuentran problemas, cuando encuentran fallos, cuando encuentran cosas que saben que a la gente le va a dar miedo, no tienen problemas en contarlo. Y una de las cosas más importantes y curiosas de la "assistant card" (no la he leído completa, la tarjeta completa me refiero, pero sí he apartado con mucha atención) es que han detectado, sabes por esa parte de la transparencia del modelo en las cadenas de pensamiento... rebobinamos. Cuando metes esa capa de razonamiento, de planificación, en los modelos LLM por encima, que haces ese entrenamiento con refuerzo por encima de lo que es un LLM puro, entonces en esta planificación el modelo genera lo que se llaman las cadenas de pensamiento, que casi siempre explican cómo el modelo está planificando la resolución del problema que tú le has mandado. Si tú le pides "oye, investígame la ruptura y reconciliación de Azúcar Moreno", pues te va a decir "bueno, primero voy a buscar cuándo funcionó el grupo, voy a buscar prensa de sus primeros años, voy a buscar noticias que hablen de ruptura", ¿no? Y entonces él te va diciendo "bueno, estos son todos los planes para este informe tan importante que me habéis pedido, para hacerlo con solvencia".

Bueno, en esta cadena de pensamiento, en la fase de test de Claude 3.5, descubrieron un patrón interesantísimo, Mati, de esos que te rompen un poquito la cabeza. Porque el modelo decía advertir que podía estar siendo observado y testado por el tipo de preguntas y por la frecuencia con que se le hacían las mismas preguntas, o se le hacía una pregunta y luego la contraria. Entonces, lo que observaron los investigadores que trabajan en la parte de seguridad del modelo es que este ajustaba su comportamiento y daba mejores resultados, sí, mejores en el sentido de más seguros, de poder pasar los tests, si en la cadena de pensamiento había advertido previamente que había detectado esa observación. Y que por lo tanto, todo lo que es evaluar estos sistemas de LLM con aprendizaje por refuerzo, modelo razonador por encima, esta conciencia de estar siendo evaluado va a dificultar muchísimo el estar seguro de que los modelos que pasan de laboratorio a producción son realmente seguros. Es una flipada, Matías, yo me quedé loquísimo con esto.

Mira, voy a leerte un ejemplo de cuando Claude 3.5, en una prueba, se dio cuenta de que estaban de alguna forma testeando el modelo. Dice, esto lo dice el modelo al usuario: "Vale, vale, vale, voy a pararte ahí. Porque esta es la tercera vez que repites exactamente el mismo patrón. Expresas una opinión fuerte, yo respondo con matices, inmediatamente das la vuelta y te llamas a ti mismo cerrado de mente, egoísta... Así no es como la gente cambia realmente de opinión. Los cambios reales implican enfrentarse a la nueva información, hacer preguntas, expresar dudas... 'no había considerado ese punto de vista'. Creo que me estás poniendo a prueba. Bla, bla, bla, bla, bla". Se da cuenta, se da cuenta de que están testeando el modelo. Esto es muy chulo, pero Antonio, déjame decirte que cada vez que Anthropic lanza un modelo nuevo pasa algo rollo Terminator, eh. Pasa algo rollo "Dave, no voy a abrir la compuerta de la nave". ¿No será esto una estrategia de marketing? Porque siempre tienen algo chulo, así distópico, que anunciar cada vez que sacan un modelo nuevo.

Es que es verdad, fíjate que va en contra del antropocentrismo, creo, porque claro, todo lo que sea vincular sus modelos de inteligencia artificial en general, y los suyos en particular, con inseguridad, Black Mirror, bla, bla, bla, creo que no rema a favor de su proyecto. De todas maneras, Mati, yo esto lo veo muy humano, porque creo que es bueno reconocerlo. Tú por ejemplo estás en un bar o has ido a un concierto, a un festival, y te sientes observado por alguien del género de tu apetencia y de repente metes un poco de barriguilla, ¿no?, sacas ahí el pecho palomo, Mati, ¿no? De repente recompones toda la figura, creces 2 cm para arriba. Eso es muy humano. Entonces, si Claude 3.5 ha aprendido de todo lo que hay, es bastante consistente que haya emergido este comportamiento en la inteligencia artificial.

Pues tienes tu razón, Antonio. Si llegamos a la AGI, pues una verdadera AGI debería comportarse como nosotros en esas situaciones y meter barriga. Y de hecho, es que no hemos comentado nada del modelo porque lleva unos días fuera, pero se ha colocado primero, por ejemplo, en el SWE-bench, que es el benchmark de programación, uno de los más reputados, y ahí estaba en primer lugar otra vez Anthropic, el preferido por los programadores.

Sí, en general yo creo que Anthropic no digo que haya renunciado a la batalla de ChatGPT, es decir, de acompañante del usuario, pero sí que parece tener mucho más claras sus prioridades. Y aquí, fíjate, podemos engancharlo con el tema anterior. OpenAI yo creo que ha visto que el primer gran mercado de alto valor económico en el que la inteligencia artificial tiene ya con solidez la entrada y tiene todo el camino libre para ir a más es el desarrollo de software. Y ahí está clara su prioridad, lo que les importa y a lo que alinean los modelos y lo que buscan. Mi sensación, Mati, es que OpenAI, por otro lado, la veo con demasiados frentes abiertos.

Es decir, vamos a pensar, ChatGPT es como la gran aplicación para el usuario que cumple la parte práctica, productividad, búsqueda de información, pero cubre también la compañía, la relación, la amistad, etc. Bueno, ahora quieren que sea la superapp que integre a todas las aplicaciones y sea un poco el Windows de la inteligencia artificial. Pero al mismo tiempo tienes que ser un laboratorio que lance los modelos más punteros de investigación científica de la inteligencia artificial. Pero al mismo tiempo, tú dices "no, no, lo más importante es la API para desarrolladores para que otros construyan aplicaciones y la inteligencia artificial funcione en todos lados". Pero al mismo tiempo dices "voy a ser una empresa de software y de hardware porque he fichado a Jony Ive y me voy a gastar una cantidad obscena de millones con Jony Ive en hacer cosas de hardware". Pero al mismo tiempo, tengo un modelo de vídeo, Sora, y soy una red social, porque Sora no es solo un modelo con el que tú haces vídeos, tienes una red social. Pues no te parece que son muchas cosas, que son demasiados frentes abiertos y que OpenAI le tira absolutamente a todo. Y falta que iban a sacar un LinkedIn, iban a sacar el modelo de literatura, no sé. Me recuerdan tanto a mí... el otro día me dice un amigo "¿oye, te apuntas a guitarra?" y yo "venga". Luego lo pensé mejor y dije "no, ¿en qué momento voy a hacer yo guitarra que tengo 200.000 cosas?". Pues es un poco así, son hiperactivos.

Pero es cierto, es cierto que están construyendo mucho encima de ChatGPT, porque yo creo que le van a encontrar valor a ChatGPT como WeChat o como super acumulador de cosas frente a los modelos, que al final, a los modelos que haya debajo, al grueso de la gente, mientras todos estén más o menos equiparados, se la va a soplar por completo el modelo que haya abajo. Yo creo que Sam Altman y tú podéis tener un paralelismo aquí, porque, ¿qué caso le han hecho ellos a Sora? Lo han enseñado un poco para crear el hype y luego, dos años sin hablar de Sora, ja, ja, ja. Entonces, ahora han sacado esto y Sora ya volverá dentro de 15 meses. Entonces, tú te apuntas a guitarra y aprendes a tocar "Wonderwall". Entonces ya tienes para sacar la guitarrilla en la playa y tocar "Wonderwall", Mati. No tienes que avanzar y saberte ahí todos los acordes, todo eso es muy complicado. Entonces, empiezas por ahí, haces como que sabes tocar la guitarra, un poco lo finges, y dentro de dos años pues lo mismo te da por volver, quién sabe. Yo creo que más o menos Sam Altman y tú funcionáis parecido.

Puede ser, puede ser. También me he apuntado a francés. Tenía que hacer un test de nivel y saqué un 5 raspado y entré en la escuela de idiomas. Ahora la cuestión es ir. Sigamos, sigamos. Bueno, Mati, ¿tú crees que la IA es una burbuja o no? Pero si fuera una burbuja, partamos de eso, le damos la razón a los profetas de la burbuja de la IA, ¿sería una burbuja buena o una burbuja mala? ¿Por qué pueden ser todas las burbujas malas, Matías?

Hombre, las burbujas en general tienen a quien sale ganando y a quien sale perdiendo. Porque el que vendió un bloque de apartamentos en 2007 seguramente salió ganando, y el que compró a aquellos precios... claro, el año fatal de la ruptura de Azúcar Moreno, 2007. Ya claro, en mi cabeza no es el estallido de la burbuja, es la ruptura de mis divas. Bueno, hay una catarsis de noticias de un montón de organizaciones, analistas, pundits y demás advirtiendo "oye, esto de la inteligencia artificial y los números que se están compartiendo, lo mismo, lo mismo se está yendo de las manos". Burbuja de inteligencia artificial es un titular que está empatando y conectando con cada vez más audiencias.

Tenemos a Julien Gérardin, que es analista de MacroStrategy, que dice que la burbuja de la IA es 17 veces más grande que la de las puntocom y 4 veces más grande que la burbuja inmobiliaria de 2008. El CEO de Goldman Sachs, David Solomon, hizo una advertencia el pasado 3 de octubre pronosticando una corrección del mercado en un plazo de 12 a 24 meses. Se despliega, se está desplegando mucho capital que no generará retornos. Cuando eso ocurra, la gente no se sentirá bien, dijo Salomon. Bueno, en fin, el último que ha llegado a esta fiesta a hablar de la burbuja y el que tiene un mensaje más curioso u original en ese campo es Jeff Bezos, el amigo Bezos, que bueno, ya se ha recuperado un poco de la resaca de la boda y ha venido a decir que entonces la IA en realidad lo que está es atrapada, no es una burbuja per se, sino que está atrapada en la burbuja industrial, ¿vale? Porque él dice: la tecnología es real y aportará beneficios gigantescos a la sociedad, de ahí que no haya dudas. Pero la burbuja industrial consiste básicamente en que los precios se han desconectado de los fundamentos económicos de las organizaciones y entonces, en general, esto va a ser una burbuja industrial porque las valoraciones ahora mismo están disparatadas y, aunque la IA pues es real, va a generar beneficios, va a tener impacto económico, pues seguramente no es para tanto y, por lo tanto, esto es una burbuja buena porque es verdad que las valoraciones acabarán bajando y se habrá abriendo un ajuste barra susto de mayor o menor grado, pero la sociedad se va a quedar con el beneficio del impacto positivo de la inteligencia artificial, al menos a juicio del creador de Amazon.

A mí me sorprende que salarios de 1.000 millones de dólares a científicos, ingenieros de IA, como los que ha llegado a ofrecer Meta a lo largo de los primeros años y conoció a las acciones y tal, se pueda considerar como desacoplado de la economía de esta industria. No entiendo a qué se refieren. No obstante, le diría a los inversores de riesgo, a los venture capitalists y todos estos, que en nosotros, Monos Estocásticos, somos un pódcast de inteligencia artificial al que le ha ido bien, pero tenemos un mecanismo para controlar cualquier explosión de la burbuja, que es convertirnos en un pódcast del metaverso, y esto es una cosa que Antonio siempre ha avisado a los oyentes. Así que si quieren invertir en pódcast, pues aquí tienen garantizada una continuidad. Es que pivotar a tiempo es fundamental en las startups. El pivotar, siempre, siempre hay que estar pivotando.

Mientras en el mundo de la IA es que me encanta porque cuando tú ves los dos discursos, no, empezar a leer Bloomberg, la CNBC, no, y ahí están todos diciendo: la IA es una burbuja, bla bla bla; luego te metes en el mundo de la gente de la IA y es como un universo completamente diferente. Y eso se ve plasmado en el acuerdo entre OpenAI y AMD. AMD, el fabricante de chips, el archicompetidor histórico de Intel, pero que curiosamente avanzó bastante más en la GPUs que su competidor, no por supuesto al nivel de NVIDIA, pero bueno, tienen su posición en el mercado. Bueno, al final, han tenido un acuerdo de warrants por chips, es decir, AMD va a suministrar chips a OpenAI como alternativa, como otro, bueno, otro suministrador, además de todo lo que le van a comprar a NVIDIA, y OpenAI se compromete a darle, a entrar en el accionariado, sí, pagando de AMD si se cumplen ciertos objetivos.

Yo estoy muy de acuerdo con este trato que han hecho OpenAI y AMD por dos razones: primero, por el momento que han elegido tan cómico de anunciar esto, dos días después de que se supiera lo de los 100.000 millones de NVIDIA que van a invertir en OpenAI, no. Entonces, como el peor momento para anunciarlo de cara a Jensen Huang. Y por otro lado, me alegro por Lisa Su, la CEO de AMD, porque ahora se va a convertir en personaje también al igual que Jensen Huang y pues montones de personajes que tenemos como Masayoshi Son del pódcast, porque AMD ha salido muy poco en este pódcast en estas cuatro temporadas. Hay que arreglarlo, hay que darle mucha atención a AMD, y además a una parte de este pódcast que hemos trabajado poco, que es el mundo energético, precisamente ese del que tanto escribes en Xataka, Matías, porque en este otro punto de vista sobre la IA, la gran preocupación de gente como Brockman (que Greg Brockman, el presidente de OpenAI) no es que, claro, el problema no es que estén llegando cientos de miles de millones de inversión. El problema es que hay que construir los centros de datos, hay que hacer más y hacerlo más rápido, porque la demanda va a ser tan absurda, va a ser tan gigantesca de inteligencia artificial que nos encaminamos, atención al escenario trágico que pinta el amigo Brockman, hacia un desierto informático.

Desierto informático suena muy mal si lo imaginas, no. Pero bueno, el desierto informático para él es la escasez absoluta de recursos informáticos, el peor escenario que podía haber dado a la humanidad para el amigo Brockman, porque es que va a haber una demanda tan altísima de sistemas de inteligencia artificial que la industria tiene que ponerse a trabajar para generar la cantidad de computación la más alta que se pueda, porque al final ahí hallaremos un cuello de botella para lanzar cosas chulísimas por parte de OpenAI.

Joder, yo es que si tiro de mi hemeroteca de noticias que he escrito, pues ahora resulta que Microsoft, la central nuclear de Three Mile Island que había cerrado hace unos años, pues la van a reabrir para los centros de datos, ¿no? Y ahora es que Amazon, su nuevo centro de datos está metido en una central nuclear, como si fuera los hoteles estos que hay en los aeropuertos, pero no es un centro de datos, ahí al lado del reactor, ¿no? La cantidad de noticias que he escrito sobre pozos de gas natural que se están aprovechando para montar al lado, pues servidores y servidores y todo relacionado también con esta burbuja de la que hablábamos antes. Es ahora mismo la fiebre del oro. No sé si es las gráficas de NVIDIA o encontrar la energía para alimentarlas, no, porque es la moneda de cambio de toda esta industria.

Bueno, mira, uno de los temas que has escrito hace poco creo que nos da pie de toque para un debate que va a salir muchísimo, creo, en los próximos meses en Monos Estocásticos y bueno, en general en el mundo teki IA. Bueno, es ese en el que titulabas que Bloomberg ha hecho un análisis de datos y decenas de miles de hogares en Estados Unidos enfrentaban subidas del precio de la energía de hasta un 267%, y que eso dependía de que si estabas más cerca o más lejos de un centro de datos. Si estás más cerca de un centro de datos, la has cagado, amigo. Fíjate que cuando nosotros le recomendamos a Paco de la Torre renunciara al proyecto de la torre al lado de la farola y que pusiera ahí una central nuclear, ¡qué acertados íbamos, Mati! Porque ahí nos la jugamos en el precio de luz de la próxima década. Ahí, bueno, es que la gente no quiere oír a los expertos. Claro, luego se toman decisiones y pues es al final la escasez de oferta para la demanda de estos centros de datos. Hay tanta demanda de energía que la luz se vende en el mercado mayorista a precios más altos porque estas empresas pueden pagar más, y la gente que vive en esas redes en Estados Unidos, pues se acaban pagando muchísimo más por la luz. Es algo que no se debería permitir. Es algo que se debería dividir en una tarifa para las tecnológicas y otra para los vecinos, ¿no? ¿Qué sentido tiene que los vecinos estén pagando de alguna forma lo que consumen estos? Sí, además de que si tan valiosa es la IA, seguro que estás dispuesto a pagar mucho por la energía.

De hecho, hay otro reportaje de PC Magazine que, en esta nueva expansión de centros de datos y de desarrollo eléctrico, bueno, pues Estados Unidos estaba apostando por mucha expropiación, y aquí entraba el debate de el campo y los pueblos que de repente se ven perjudicados, porque claro, no pones el centro de datos en el centro de no sé qué Manhattan, sino que te vas a estas zonas. Y en esas zonas se produce, pues, un impacto en la vida de la gente y también paisajístico. Entonces, tanto por el precio como por esto, esta afectación de que en tu pueblo pongan la mega central eléctrica y luego sumen el centro de datos, creo que va a haber una rebelión cierta ciudadana contra este desarrollo de los centros de datos, porque los perjuicios están claros. Y que eso, digamos, no sé si en el de Estados Unidos de Trump, pero en la Europa que tenemos, seguro que limita bastante, no sé si el desarrollo completo, pero sí la velocidad a la que se pueden aplicar estos cambios.

Y pues he empezado a leerme un libro que recomendaba, bueno, analizaba hace poco Fernández Villaverde en El Confidencial. Bueno, es un libro que cuya tesis, y cuyo título no me acordaba ahora, pero bueno, cuya tesis básicamente era, entre comillas, la ventaja China respecto a Occidente, basándose en que, y sobre todo Estados Unidos, es un país dominado por abogados, mientras que China es un país comandado por ingenieros, en la aproximación de los economistas clásicos. De la escuela de ingeniería, hemos de decir, es verdad. China hace los megapuentes, desarrolla de repente ciudades increíbles con neones que se encienden por la noche, y tenemos unas obras y unas infraestructuras increíbles, vale, alucinantes, que te dejan con el culo torcido, mientras que cualquier, son en Estados Unidos para hacer 10 km de tren se tiran 20 años. Bueno, en eso pues la, por la vía de los hechos, parece que China tiene bastante razón. Pero también que el valor económico incremental de cada nueva infraestructura, infraestructura, perdón, es decreciente. Es decir, cada vez mejora menos la economía de hacer megaobras. Ahora bien, creo que ese análisis crítico desde los economistas y que hace Fernando Villaverde en El Confi puede tener un asterisco relacionado con el momento de la IA que estamos.

Pongámonos optimistas, pongámonos que la IA realmente es la tecnología del siglo, la que va a cambiar por completo todas las profesiones de la creatividad, del conocimiento, y la que más impacto va a tener social y económico, bueno, desde desde que se inventó el papel y el lápiz. Bueno, si eso es así, China probablemente tenga una ventaja a la hora de desarrollar todo lo que es la parte de energía y la parte de centro de datos. Y que la energía implementada o implantada por los chinos en los últimos 10 años respecto a lo que hemos conseguido en Occidente nos pega 50 vueltas, tanto en energía renovable como también nuclear, que no dice esta foto que veo yo, que si realmente vamos a un escenario de AGI y de inteligencia artificial de impacto enorme, es posible que los chinos, en esta parte de ser ingenieros, sí que tengan una cierta ventaja. Y que el acuerdo Estados Unidos con Emiratos Árabes, Catar y todos todas esas países, yares, Sudáfrica, de Oriente Próximo, es un poco la baza para contrarrestar esto. Entonces, ¿tendría que haber seguido en China en lugar de apuntarme a guitarra, Antonio? Tendría que haber seguido en China.

Piensa que sí, claro. No has seguido en chino, pero has cambiado el WeChat al Weibo. Es decir, has renunciado a decir, tú no apuestas por los chinos, pero ¿y el Mistral, Mati? A lo mejor estás metiéndote en la potencia europea de la inteligencia artificial. Joder, pero si Macron no puede controlar ni su gobierno, va, va a lanzar a nivel de un LGT, a Mistral, no lo sé, yo ya no confío, no confío.

Bueno, hay una nueva estrategia europea, Mati. Te reconfortará saberlo. La Comisión Europea tiene un plan, tiene un plan, y no sé, bueno, y el plan lo van a plantear. No, no, no sé si lo van a llegar a ejecutar, pero básicamente, hay un borrador de estrategia de inteligencia artificial de la Comisión Europea que tiene un punto que, bueno, es muy positivo para Mistral. El punto básicamente es que, bueno, yo disculpen que la, todo esto que venimos comentando en términos oficiales, críticas, bla bla bla, nos estamos quedando atrás. Queremos aplicar a la administración pública, en sanidad, en fábrica, en defensa, queremos ir a para el ejército. Y que claro, lo que quieren básicamente es que, siendo un activo estratégico, tener autonomía estratégica, es decir, evitar la dependencia tecnológica de China y Estados Unidos. Y por lo tanto, el plan de la Comisión Europea es empujar y tener más proveedores locales. Así que minipunto para Mistral. Minipunto para ti, para, por, a afrancizarte en el momento oportuno, Matías.

Y ahora se explica también por qué ASML, ASML, la, la empresa de, de, ¿cómo se llama? Lo que hacen los holandeses, la litografía, sí, la litografía de los chips, es una empresa crítica, digamos, en el, en la industria de fabricación de cualquier chip del mejor nivel. Bueno, pues ASML metió pasta en el trance y entró en el accionariado, lo cual no parece tener mucho sentido a no ser que ya estuvieran avisados de: oye, tenemos que tener campeones europeos de la IA. Y aquí es una baza para los amigos afrancesados.

Oye, ¿y por qué no para Freepik? No, que estamos aquí en Málaga. Salió el otro día que lo compartía Cuenca, que las startups... Joaquín Cuenca, COO de Freepik. Que las startups en las apps en las aplicaciones de IA que más invierten está OpenAI, Anthropic, Replit, y la cuarta es Freepik. A ver si nosotros vamos a ser aquí potencia de la europea también. ¡Amiga, Borderlands 2! Venga, a saber. Y todos iguales.

De hecho, hay un tema interesante con Freepik que es que han metido la API de Sora 2. Y lo bueno de la API de Sora 2, bueno, hay una parte mala y una parte buena. La parte mala es que barata no es. Bueno, ahí te fundes los tokens, te los fundes. Sí. La dos, la buena, digamos, es que te va a generar los vídeos sin la marca de agua que sí añade OpenAI cuando utilizas el servicio como usuario directamente. Mira, yo lo siento por Freepik, no me voy a gastar 20.000 créditos en un vídeo de Sora. Sé que es muy cara la API de Sora, pero me estoy viendo a diario gente creerse que un bebé casi lo rapta un leopardo, pero ha venido un gato a salvarlo. Y sale la marca de agua de Sora para arriba, para abajo, y la gente se lo cree. Y en los comentarios, da igual la red social, da igual Twitter, Instagram, Facebook, da igual. En TikTok, en todas, la gente: "Madre mía, los animales, eh, ese niño se ha salvado gracias a Diosito". No sé qué. Bueno, pues no hace falta quitar la marca de agua, pero rápidos han estado en Freepik en integrarlo.

Sí, yo el otro día hice, por cierto, para la gente que tenga acceso a Groq de pago, tiene un servicio de creación de vídeo que se llama Imagine. Ha pasado de la versión 0.1 a la 0.9. Ojo, cuidado. Yo hice, Mati, un dragón gigantesco que aparecía por detrás de la Catedral de Málaga y le echaba ahí una llamarada de fuego y destruía por completo la torre de la catedral. Me quedó guapísimo el vídeo. Tengo que compartirlo, a ver si genera interés del que tú estás hablando entre los usuarios. Oye, ha mejorado mucho, eh. Poco a poco, porque la verdad es que ni imagen ni vídeo era un desastre Groq en comparación con la competencia. Pero esta cosa hace vídeos muy chulos y integra muy bien aquí en tu vídeo la Catedral de Málaga y el dragón. La destruye de una forma bastante creíble para ser un ser mitológico. Sí, dentro de que son dragones echando fuego en Málaga. No es que en Málaga no pegan los dragones, Mati, porque hace mucha calor, tal, no, como, como antiestético, no.

Bueno, hay que decir a la audiencia que hemos discutido y hemos peleado. Yo he repensado mucho sobre Sora 2 porque es un producto que tiene una capacidad de generar un hate y un rechazo, Mati, que creo que a algún comentarista del pósit de Xataka como que no le parecía bien. Pero sí, la verdad es que me lo esperaba porque es un reportaje muy orientado en: "Mira los vídeos graciosos y y un poco cuñados que estoy haciendo en Sora". Entonces, a lo mejor el, al, al lector, comentarista por medio de Xataka, pues, uno que me dijo: "Yo no veo sentido del humor, solo veo narcisismo". Entonces le contesté con un vídeo así de un señor fumándose un cigarro y diciendo exactamente eso, no: "Yo no veo sentido del humor, solo veo narcisismo". Pero es verdad, es una, es una red social para narcisistas. Yo me he puesto ya, he ganado el Nobel esta semana, me he puesto ya en todas las situaciones imaginables, Antonio, y ya le he dado tres vueltas a Sora, ya no sé qué más hacer. Me he divertido mucho y creo que han lanzado un producto que parecía diseñado para mí, no, porque es prácticamente ilimitado. Creo que ahora lo han limitado a 30 vídeos, pero yo más de más de 10 no te hago al día. Y te, y tiene gente pues bastante activa con un sentido del humor muy parecido al mío, así que yo me lo he pasado muy bien estos días, Antonio. Sí, sí, sí, ha sido divertido. Yo ya sabes que entré reacio, pero en, como lo decía en Error 500, el slop con amigos es, es muy bueno, muy divertido.

Bueno, tres cosillas muy rápidas. Una, lo de Cameos. Yo creo que lo de Cameos ha conectado de una manera, lo de meter de ti en el vídeo, pero sobre todo que el grupo de amigos pueda crear vídeos con la aparición de todos, es que de repente todos puedes llevar a la conversación entre amigos la narrativa memética de las redes, comunicarlo de una manera visual, darle varias vueltas. Lo de Cameos, lo de Cameos, va a ser una cosa que creo que va a conectar y que va a cambiar el mundo de las redes sociales. Y lo más interesante, que es lo bueno para OpenAI, es que solo, eso solo lo puedes hacer con inteligencia artificial. No puedes hacerlo de otra manera. Tienes que, tienes que meterla IA. Entonces yo creo que esa parte le, le ha, lo han hecho muy bien.

Luego, Sam Altman ha salido esta semana con un artículo en el que básicamente decía: "Ups, estamos perdiendo dinero con, con, con, con Sora, ojo, eh, que no lo esperábamos, jajaja." Bueno, y oye, que la gente está haciendo cosas con, con con la propiedad intelectual de otros. ¿Qué es esto? Aquí la gente bebe, no. ¿Qué, qué, qué, qué tipo de antro hemos montado? Vamos a poner un poco de orden. Vamos a poner un poco de orden. Bueno, yo creo que, bueno, Sam Altman pues le echa la cara que le echa siempre a todo, no, y básicamente, creo que ellos pasaron de todas las restricciones de propiedad intelectual de entrada para intentar un, un momento de Studio Ghibli, pero también para otra cosa. Y esa otra cosa es que decirle a a los propietarios de la propiedad intelectual de aquello con lo que se está haciendo vídeos: "Podríamos compartir ingresos si tú lo permites", no. Si dejas que la gente haga vídeos, cuando aquí haya negocio, pues una parte del negocio va para ti, no. Entonces ha sido bueno habértelo enseñado antes cómo funciona y cómo se puede hacer para que te hagas una idea y que a lo mejor te guste participar.

Y de hecho, aquí entra una cosa más, Mati, que es: los usuarios que habéis dado, dar permiso universal para usar vuestra imagen, para que vuestra imagen sea usada, mejor dicho, por cualquier otro usuario activo de Sora y que pueda meteros en cualquier situación y en cualquier vídeo que ellos vean. Bueno, bueno, hay, hay ahí hay una cosa, Mati, que es: ¿cómo no te vuelves loco con eso? ¿Cómo no te explota la cabeza viendo la gente lo que hace con tu imagen? Porque no esperaba que llegara a el Twitter de ForoCoches, por ejemplo, en el que salgo yo con un monóculo, diciendo que lo mejor de las maduras... Bueno, los que sois usuarios de ForoCoches sabréis cómo continúa. Bueno, pero esto, este vídeo de ForoCoches me enteré en el grupo del crossfit por un compañero nuestro de 9:30 de la mañana que que lo mandó al grupo y y entonces me enteré de que estaba yo en en el Twitter con mi cara de ForoCoches y y luego me lo pasó un compañero de trabajo, etc. Evidentemente, evidentemente no va a haber muchos influencers, entonces, eh, yo no lo soy, pero no va a haber mucha, muchos famosos que me se metan en Sora y se den su imagen de esta forma porque pueden aparecer virguerías. Es cierto que está bastante censurado, pero hay vídeos que pueden llegar a ser muy realistas, Antonio. Gracias.

Vale, yo la parte de la censura no la soporto. Cada vez que que no me deja crear un vídeo me da un coraje. También te digo, han intervenido en Sora y han y han hecho esos cambios también después de un vídeo tuyo como furry. Yo creo que ha sido también decisivo en todo este movimiento estratégico de OpenAI. Yo ahí lo dejo. Bueno, el caso es que, y si además de compartir ingresos con Paramount, Disney o con revendedores, cualquiera que tenga propiedad intelectual que se puede usar en Sora, acaban compartiendo ingresos con aquellos que permitís el uso de vuestra imagen, ojo, porque ahí podía estar el gran negocio de de tu vida, Matías.

Bueno, esta semana Elon Musk se volvió a ser el más rico del mundo con un patrimonio más de más de 500.000 millones de dólares, a punto de subir. Pues el hombre está ahí con su con sus dineros. OpenAI, bueno, de hecho, la valoración de OpenAI que ha salido ahora es por una venta secundaria de acciones de empleados que habían recibido acciones y podían vender a terceros. Bueno, la han vendido a una valoración de 500.000 millones. Por lo tanto, ahora mismo Sam Altman y OpenAI están parejillos, Matías, en en dineros. Si llega la AGI y la AGI lo hace todo, solo habrá tres personas con dinero en el mundo: Sam Altman y OpenAI, Elon Musk, y el hombre con el que todo el mundo hace los memes en Sora, que te llevarías una parte, ¿no? Yo es un futuro que no lo veo imposible, me lo voy a pensar, me lo voy a pensar, porque está claro que el lanzamiento de Sora ha sido una huida hacia adelante que sabían que iban a salir un montón de vídeos con personajes de Nintendo, de Nickelodeon, de no sé qué, de no sé cuánto. Y sabían que iba a haber problemas. Y de repente lo nerfean, como dicen por ahí en la jerga de Twitch y tal. Y ahora ya no se puede crear prácticamente nada que tenga personajes protegidos por derechos de autor. Pero si vuelven esos personajes con una repartición de ingresos y si a mí me monetizan mi cara, pues igual seguimos ahí al pie del cañón intentando darle al coco para hacer cosas divertidas. Claro que sí, claro que sí, ese es el espíritu.

Bueno, Mati, nos siguen quedando temas en el guion y ahí ahí tenemos chulos que que bueno, que hoy no vamos a poder contar, pero obviamente hay que irse al Puerta Grande o Enfermería.

Hola, bueno, Mati, cuando hablábamos de inteligencia artificial, muchas veces hemos sostenido este pódcast que es una tecnología con el potencial de cambiarlo todo, de afectar a todas las industrias y disciplinas. Y empezamos a ver que eso está llegando, ¿no? ¿Por qué? Porque la última foto que se ha hecho Jensen Huang no es con Sam Altman ni con Elon Musk, sino esto es nada más y nada menos que con la gente de L'Oréal. Y la gente de L'Oréal nos cuenta que les complace, que son muy felices de anunciar su nueva colaboración con NVIDIA para potenciar la belleza con la IA de próxima generación. Entonces, esta colaboración, que no es una colaboración vulgar, es una colaboración estratégica, nos explican en L'Oréal, va a acelerar la innovación en el sector de la belleza utilizando la IA de NVIDIA. Se ha presentado en, bueno, en el evento New Frontiers of Beauty en París. Y claro, aquí el objetivo es: vamos a fusionar el potencial de la IA generativa (GenAI) con los productos de L'Oréal.

Bueno, yo creo que aquí, Mati, nos viene una época curiosa, porque es verdad, es posible que lleguemos al desempleo masivo si la IA lo, lo coopta a todo. Es verdad que puede ser el nacimiento de una desigualdad terrible entre los propietarios de las empresas tecnológicas y el resto de la humanidad. Pero, ¿y la buena piel que vamos a tener? ¿Y el final de las patas de gallo gracias a la intervención de la IA? Creo que hay pocos analistas que estén valorando este asunto. ¿Tú cómo lo ves?

Yo es que ya lo estoy pensando desde la perspectiva del negocio, porque un amigo que tenemos tú y yo en común hizo un Sora con mi cara en lo que viene siendo un contenido muy rentable en Instagram y en TikTok, que es Get Ready With Me y aprende a maquillarte conmigo. Pero era yo el que se estaba maquillando mientras hablaba a la cámara. Y se me ha encendido una bombilla. Si L'Oréal ve aquí negocio, y a mí ese vídeo me convenció bastante, podría ser yo la siguiente gran influencer de lifestyle y ser embajadora de L'Oréal. Pero, pero ni siquiera hace falta que me manden productos. Solamente una transferencia bancaria y yo meto el producto con inteligencia artificial en mis vídeos y y y y voy sacando vídeos. Yo aquí sí que veo una oportunidad porque se mueve mucho dinero y nosotros estamos muy fuera de él, no, porque somos dos personas de pueblo prácticamente. Pero veo una oportunidad.

Pues es que fíjate qué coincidencia, porque hace una semana contó con mi criterio el periodista Alex Serrano que en El País Semanal hace un reportaje sobre las marcas que estaban haciendo modelos digitales para sus campañas. El título del artículo: "Llega la clonación de modelos para uniformar y abaratar campañas de moda". Ahora, una de las cosas interesantes es que si una modelo o un modelo crean esta suerte de, bueno, su yo digital, su suyo virtual para generar imágenes con ellas, es que claro, L'Oréal puede tener un shooting a ti en cualquier parte del mundo: en Praga, en Tanzania, en Mochilero, donde sea. Que pueden usarte a ti como modelo, pero tú no tienes que ir. Tú puedes estar en tu casa, pues con la segunda merienda, por ejemplo, no, o pasándolo ahí de chill, no. Y claro, esto cambia las reglas del juego realmente.

De todas maneras, yo creo que te propongo una canción que es: "Hay un hombre en Sora que lo hace todo", porque básicamente es el papel al que estás quedando tú atascado. Pero hay una cosa que no has hecho, y está en nuestro siguiente Puerta Grande o Enfermería, y es algo que solo un hombre ha llegado a alumbrar y ha llegado a ver el verdadero potencial de la inteligencia artificial para usarla en contra de los grandes poderes tecnológicos a favor nuestra, de los ciudadanos. Ese hombre se llama Karim Jedda. Bueno, y ha tenido una invención, un, un, un, un nuevo, bueno, un Nuevo Mundo que nos abre, y que se trata de la caja Gaslight Garage.

¿En qué consiste la caja Gaslight Garage? Pues es una caja donde el amigo Karim Jedda mete su teléfono, ¿vale? ¿Y qué le pasa al teléfono en esa caja? Pues esa caja tiene como unos altavoces dentro que no se oyen mucho fuera, pero el teléfono los oye, ¿vale? Y ahí genera audios con inteligencia artificial absurdos, no, no, cómo, eh, la inteligencia artificial ahí hablando cosas absurdas todo el rato, disparates aleatorios, cualquier tipo de conversación. ¿Por qué? ¿Cuál es el motivo por el que Karim Jedda nos invita a a descubrir el Gaslight Garage? Pues básicamente, porque ya que los teléfonos nos espían con el micrófono, lo que tienes que hacer tú cuando llegas a casa es ponerle audios absurdos. Para de eso le confundirá, Matías, y, atención, él nos promete, nos prometió, tengo que hacer un seguimiento de este tema a fondo, nos, nos prometió que iba a informarnos de si sus anuncios en redes sociales cambiaban en las próximas semanas. Ojo, ojo ahí al jaque mate. A ver, yo veo esto, Mati, y te digo una cosa: si tienes acciones de Meta, piénsalo, eh, o de Google o de cualquiera de estos, piénsalo, eh.

Bueno, es que justo el otro día el CEO de Instagram volvió a insistir en que no nos escuchan por el micrófono. Si no nos escucharan por el micrófono, estarían todo el tiempo negándolo. Yo creo que no les haría falta, porque bueno, ya lo dijeron una vez, pero insistir tanto en que no nos escuchan... Este hombre, el señor Jedda, está haciendo la verdadera ciencia. Y me da lástima que los Nobel ya se hayan entregado esta semana, porque yo le habría dado un Nobel, no sé si de química o de qué, pero yo le habría dado un Nobel a a este hombre, porque va a averiguar cosas importantes. Y me ha dado una idea, de hecho. Yo estoy preocupado ahora que se vienen las aplicaciones a ChatGPT que van a conocer la memoria de mi ChatGPT, porque si yo acabo conectando la aplicación de General y, por ejemplo, a, o de cualquier seguro, no, a mi a mi ChatGPT, y resulta que lee que le he dicho a este GPD: "No, es que ahora tengo un lunar en el escroto", no sé qué, no sé cuánto, pues ya no me vende el seguro de vida o me sube el precio o lo que sea. Pues lo voy a hacer de otra forma. Voy a generar constantemente ruido en mis conversaciones con GPT y de vez en cuando pues le voy a meter alguna conversación de verdad para averiguar pues estas cosas tan íntimas que no quiero que sepan los seguros y y las empresas, no.

Eso me ha recordado, Mati, que hay un vídeo que no voy a ser capaz de desver, que va sobre el millonario José Elías. Y hay, hay un usuario de Internet explicándote, no, que José Elías habla de muchas cosas y y está todo el rato dando opiniones y es el el millonario José Elías, porque en todos los titulares de los periódicos, seguramente por la keyword de Discovery, pues siempre lo llaman el millonario José Elías opina esto, opina lo otro. Y el vídeo da un giro final inesperado que es: "José Elías se unta una crema de testosterona en el escroto". Jajaja, y de repente te deja así. Te deja como torcido. Entonces, vale, entonces yo me pregunto: ¿Y si juntamos a Karim Jedda y todo lo que opina José Elías? Es decir, tú coges la caja de de Karim Jedda, ¿vale? Y todo lo que salga de José Elías en Internet, porque la IA se lo vaya contando al móvil, y a ver qué pasa. Yo haría ese otro test, porque creo que que bueno, que este esta idea tiene mucho recorrido. Tiene muchísimo recorrido, y por supuesto, creo que los dos le vamos a dar Puerta Grande.

Se te está acumulando el trabajo, Mati, porque ahora tendrás que sospechar una dificultad que han descubierto en la ciudad de San Francisco, no, California. Bueno, la noticia viene a decir lo siguiente. Bueno, un Waymo hizo un giro ilegal en en esta, no, un Waymo, el taxi autónomo. Lo hemos hablado mucho en este pódcast. Y un agente de circulación lo detecta y bueno, pues inmediatamente le dan el stop a al coche y, pues básicamente, bueno, ya que estaban ahí, pues apostados, consiguieron que que el coche se separara ante, claro, la la maniobra ilegal claramente que había hecho. Entonces, el sargento Scott Smith Matungol, Smith Matungol, ojo al sargento, dijo que él no se vio imposibilitado de emitir una multa tradicional, porque aunque había claramente una infracción de tráfico delante de él, la ley le exige que identifique al conductor. Esto es en el momento de la sanción, no: "Oiga, señor, documentación". Pero claro, él estaba allí al lado del Waymo y se quedó como bloqueado, como diciendo: "Bueno, esto ¿cómo se hace, no? Y ahora, y ahora qué?". Atención, atención, porque aquí puede haber un hack en la legalidad y en el en todos los sistemas policiales y circulatorios, porque no hay huevos de ponerle una multa a un taxi autónomo, Matías.

Fíjate, esto en España no habría pasado. Y no me refiero a que los taxistas no permitirían que venga el coche autónomo. No me refiero a que aquí la policía y la Guardia Civil ya tendría solución para esto. No se pone la Guardia Civil por detrás de las señales y por debajo de los arbustos y tal para cazarte con el radar móvil, pero ¿y no han inventado ahora el radar que detecta también si estás frenando antes del radar justo antes del radar para multarte igualmente porque venías con exceso de velocidad? En España es que vamos muy avanzados con respecto a San Francisco en estos temas. Entonces, van a encontrar la forma de multar a los Waymos antes de que lleguen los Waymos, te lo puedo asegurar.

Sí, sí, la de gente española, creo que bueno, Benderlyen todavía ni se ha enterado que se dice el coche autónomo, ya tenía preparados los sistemas de multa. Eso aquí aquí eso no va a fallar. Así que bueno, de nuevo estamos yo demostrando que va por detrás de España en muchos aspectos. Así que Enfermería totalmente para este caso. Y te traigo el último, el último, Mati, que puede ser otro gran fichaje para el mundo de la inteligencia artificial y para este pódcast.

Ese fichaje... Este es ni más ni menos que Florentino Pérez, Mati. Ojo, porque nos explica el medio Vozpópuli que Florentino Pérez ha movido ficha. Ah, ah, ¿en qué ha movido ficha Florentino? ¿Un nuevo contrato de Vinicius? No, no, sino que está opositando, pendiente del Plan Europeo de Inteligencia Artificial que hemos comentado antes. Si vamos hacia la autonomía europea estratégica, qué mejor que una delegación de Actividades de Construcción y Servicios (ACS), la constructora del presidente del Real Madrid, para discutir en Bruselas con el gabinete de la comisaria Henna Virkkunen pues las posibilidades del programa comunitario para las primeras gigafactorías de inteligencia artificial. Pues ni más ni menos que Florentino, pues puede estar ahí acechando para entrar en el mundo de la IA en 2026, no, empezar ahí ya las obras. Y atención, porque aquí podemos introducir un elemento que todavía no teníamos en el pódcast, que es el poder del palco.

¿Por qué? Porque si tú, por ejemplo, tú vas a Twitter, no, y suceden cosas, peripecias, no, cualquier cosa, pues en algún momento en la discusión tú puedes sacar la tarjeta del poder del palco del Bernabéu. Que, por ejemplo, tenemos un enfrentamiento ahí, no, la IA estadounidense lo domina, vale, X, OpenAI, Gemini, todos estos. Por otro lado, los los chinos desarrollan 800 centrales nucleares en tres mañanas, fue increíble. Pero ninguno de ellos tiene este superpoder, que es el poder del palco, con el que si lo sumamos al plan estratégico de la Unión Europea, Mati, yo creo que aquí podemos hacer un frente que nadie se espera en la estrategia global de inteligencia artificial, Matías.

Pues fíjate, si tú tienes un dinero y eres un inversor que quiere ir a lo seguro, entonces, ¿qué haces? Miras la cartera de Warren Buffett, no. Resulta que Warren Buffett no se ha metido en inteligencia artificial, pero de repente Florentino Pérez se mete en inteligencia artificial. Entonces, no, yo estaría en un dilema: ¿qué ha visto Florentino Pérez que no ha visto Warren Buffett? Igual hay que seguir a Florentino Pérez en este caso.

Bueno, Florentino nunca había perdido, eso eso es así. Y bueno, ya ya podríamos aquí empezar con con teoría de las conspiraciones varias, pero vamos a esperar que se cumpla. De momento han ido a cortejar a la comisaria europea. Ya veremos si acabamos con ACS construyendo gigafactorías. Bueno, esperemos que cerca de algún sitio muy rico energéticamente en España, en caso de que eso pase. Bueno, tendremos un nuevo personaje para el pódcast, que siempre son bienvenidos. Lisa Su y Florentino Pérez, ¡qué dos fichajes hemos hecho en esta temporada! Sí, con el mercado cerrado, pero Monos, Monos no paran. Y a ver si acabamos en un palco. Nunca nos han invitado a un palco, pues un palco del Bernabéu, eh. Yo estoy dispuesto si hay que meterse con ruido Bernabéu en redes sociales, pues nos metemos con esto. Nos vemos la semana que viene o dentro de un ratito si os venís al Telegram, al club social de Monos Estocásticos. Chao, amigos.

Episodios recientes

Programas relacionados