Solo había que seguir las pistas de Matías OpenAI entra en fase 3 con Operator Introducción a DeepSeek Mucho más barato que o1 de OpenAI La aplicación más descargada Pánico en Wall Street y Silicon Valley La tecnología detrás de DeepSeek Los económicos de la IA china La seguridad de DeepSeek Puerta grande o enfermería
00:00 /1h38

0:00 Solo había que seguir las pistas de Matías

3:29 OpenAI entra en fase 3 con Operator

15:02 Antonio está durmiendo bien y se nota

16:38 Introducción a DeepSeek

21:41 Mucho más barato que o1 de OpenAI

29:30 La aplicación más descargada

38:38 Un evento en Madrid

40:19 Pánico en Wall Street y Silicon Valley

55:56 La tecnología detrás de DeepSeek

1:08:28 Los económicos de la IA china

1:21:30 La seguridad de DeepSeek

1:24:48 Puerta grande o enfermería

Patrocinador:

Tu mañana empieza esta noche con Colchón Morfeo. Pasamos un tercio de nuestra vida durmiendo y todo empieza con un buen descanso, como demuestra Antonio. ¿Por qué no darnos el descanso que merecemos con el mejor colchón hecho en España? Usa el código "Rebajas" para conseguir hasta un 60% de descuento en colchones y packs https://morfeo.com/

La liga de las empresas imparables: SAP Innovation Day. Evento gratuito en Madrid el 20 de febrero que no nos queremos perder. Es práctico: vas a aprender de temas IA aterrizada en sectores como distribución y logística, sector energético, servicios digitales y consultoría... y hasta fútbol con el gran Esteban Granero. Para apuntarse https://events.sap.com/es/sap-innovation-day-imparables/es/home?source=paid-email-ad-AntonioOrtiz

Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com

Publicado: 29 enero 2025

Transcripción

Matías: Hola a todos los monos estocásticos Antonio, Níhao, Níhao, ma.

Antonio: Matías, tiempo de zozobra, momentos de pánico, lo inesperado, un cisne negro, tal vez. ¿Nadie anticipó lo que está ocurriendo en la inteligencia artificial? ¿Nadie? Bueno, vengo a decirte que una persona sí. Una persona sí estuvo dándonos las pistas, anticipándonos los elementos clave para que, no con un paternalismo, no no diciéndonos a las claras va a pasar esto, sino dándonos las herramientas para que los demás pudiéramos concluir y anticipar la gran tormenta de la inteligencia artificial en la que hemos vivido esta semana.

Y esa persona nos indicó, mira a Xi Jinping en esta caratula de un vídeo de YouTube, una pista. Voy a empezar a tomar clases de chino meses antes, semanas antes de que ocurrieran los acontecimientos. Qué qué fraude, lo último que ha sacado OpenAI, declarado en un podcast. Esa persona que nos anticipaba, esa luz que nos guía en medio de la oscuridad y la impredecibilidad del futuro en la tecnología y la sociedad, es Matías ese punto sabia.

Matías: Bueno, yo pensé que ibas a decir Andrey Carpazzi, que lleva también tiempo tuiteando, pero es cierto, Y además me alegra, me alegra este homenaje a mi persona, porque el viernes fui a mi primera clase de chino. En realidad, podría haber ido hace dos viernes, pero me la fumé la anterior y por poco acabo llorando, Antonio. Es que son muchas cosas para retener con treinta y cinco años, sobre todo ya no te digo los hancy, los caracteres chinos, sino los tonos de las palabras. O sea, el único tono que me sale es el que hace ese, pero los demás no me salen, Antonio, no me cuesta mucho retener. También te digo que no había yo ponderado de verdad, no me había dado cuenta de hasta qué punto el tema dipsyk ha llegado a todo el mundo, hasta esta misma mañana, en el box, cuando se nos acerca un chico con el que yo, honestamente, creo que no había hablado nunca, y nos dice, el DeepSync ese está registrando las pulsaciones de teclado y las IPs de los usuarios.

Así que fíjate hasta qué punto la conversación está en la calle, ¿no? A favor y en contra.

Antonio: Ahora, nuestras conversaciones son mainstream. Ahora, hombre, V tres hizo bien lo del mix of Esper, ¿no? Este tipo de frases que alejan y espantan a la gente, que muchos oyentes del podcast nos lo dicen. Mira, yo os os tolero un rato, pero en cuando ya hay tres palabras, pues salgo corriendo, no no puedo, no no es mi mi no es mi tema, pero como no me caáis mal, pues escucha de vez en cuando, ¿no? Tenemos ese perfil de oyente también.

Pues claro, ahora nuestras fricadas y nuestras conversaciones y nuestros puntos son son mainstream, ¿no? Y llegan al gran público, es un momento de enorme responsabilidad, Mati, menos que estás tú ahí para para iluminarnos y para guiarnos, y está este episodio, porque este episodio es el gran episodio de la tormenta perfecta Ipsoshi y China contra Occidente en inteligencia artificial.

Matías: ¿Te parece si antes de entrar en materia de de meter las manos en la masa, en harina o como se diga, repasemos brevemente el último gran lanzamiento de OpenAI? Porque es que si no va a quedar totalmente eclipsado, y ojo, que es más interesante de lo que parecía en la demo esta, que, la verdad deberían darle una vuelta a cómo presentan productos en en OpenAI, porque se hacen un poco durillas de ver las demos, fallan algunas. Yo lo presentaría ya todo atado, porque si luego la gente que prueba el producto, este caso estamos hablando de Operator, ahora hablaremos de lo que es, te convence más que la propia OpenAI vendiéndote el producto, pues ahí algo algo falla a nivel de marketing.

Antonio: Bueno, un poquito, de hecho, claro, yo creo que le falla también el momento, porque ¿quién está hablando de Operator? ¿Quién está usando Operator a día de hoy? Pues, una semana después de la presentación, pues nosotros, nosotros, nosotros estamos aquí para explicarlo y comprarlo, porque es un paso importante, es un paso importante por varias razones. Una, en el camino hacia la inteligencia artificial de nivel humano, OpenAI tenía un plan muy establecido y muy claro. Recordemos, primer nivel, los chatbots que dominan el lenguaje, lo dan por superado.

Dos, la I es capaz de reaccionar con los modelos O uno a O tres, y eso también lo dan por conseguido. Y el tercer paso importante era los agentes. Los agentes inteligentes va a ser, a a pesar de que vayamos a dedicar mucho tiempo a Deep SIC y a y a y a todo lo que ha supuesto y etcétera, lo vamos a a debatir, lo vamos a analizar, pero los agentes siguen siendo la gran asignatura de la inteligencia artificial en dos mil veinticinco. Y a riesgo de ser pesados, vamos a intentar repasar un poco el concepto y vamos a ver cómo lo ha implementado OpenAI. Un agente debería ser, pues, un sistema de inteligencia artificial que cumple varias características.

Una, que es transaccional, es decir, es capaz de ejecutar cosas. Mientras que el chatbot simplemente es una gestión de la información, tú le preguntas, él te responde, el agente debería sacar de acabar ejecutando y realizando acciones por nosotros. Es autónomo, es decir, no en en en impunidad. Le daríamos un objetivo y él lo ejecutaría y no y no necesitaría de nuestra involucración, supervisión, etcétera. Eso es en teoría, luego en esto habrá distinto grado y lo veremos con Operator.

Y tres, es capaz de planificar, no son acciones solo atómicas. Cámbiame el contrato de una foto, eso sería una acción atómica. Pues una acción mucho más compleja es ve a ocho webs de comercio electrónico y búscame en en qué páginas son más baratas las cazadoras de pelo de borrego, y luego, créame un email con las ofertas y luego cómprame una. Pues eso sería un agente absolutamente completo que tiene que hacer muchos pasos, acciones complejas, navegar, comparar y al final acabar con plan. Lo de operator no está tan ahí, pero es muy interesante, Mati.

Matías: Bueno, estamos iniciando esta fase tres. Recordemos los los niveles que mencionaba o que desglosaba OpenAI, estamos empezando con los agentes de IA, decíamos en episodios anteriores que los agentes iban a ser el gran tema de dos mil veinticinco, incluso algunas declaraciones inquietantes por parte de Mark Zuckerberg, Sam Alman, sobre agentes de IA incorporándose a la fuerza laboral. No sé si están todavía capacitados, pero por ejemplo, respecto a lo que había sacado Anthropic, pues lo de Open AI se desenvuelve bastante bien. No sé, por ejemplo, tenemos a Adobe CSV pagando los doscientos dólares al mes, porque eso sí, Operator solo está disponible en el plan Pro y solo en Estados Unidos por ahora, accesible por VPN, resto de países próximamente, Europa va a tardar un poquito, dijo textualmente Sam Alban. Entonces, por ejemplo, CSV le dice que quiere comprar un billete de tren tal y cual de Madrid a Barcelona después de comer, y directamente se va a la oferta de a partir de las dos de la tarde.

Bueno, a lo mejor tiene un horario un poco yanqui de a qué hora almorzamos los españoles.

Antonio: Fíjate que, según le iba describiendo, hay elementos para entender cómo funciona Operator que hay que que hay que subrayar y explicar. Es decir, un agente, en principio, como es, pues eso, un un programa, un software, claro, un sistema de inteligencia artificial, pero no deja de ser un software, en teoría, podría relacionarse con los otros software vía API. Sí, claro. Llamamos, se llama una API de tal o cual servicio, con esa información llamo a otro servicio. Pero claro, realmente lo más universal o la manera en la que puede acceder a más servicios y contenidos y y propuestas y aplicaciones es usando un navegador como lo usamos nosotros.

Entonces, realmente lo que utiliza Operator es que es capaz de analizar lo que hay en la pantalla, es capaz de simular que tiene un ratón y un teclado y es capaz de, por lo tanto, navegar por nosotros. Ese navegador no está en nuestro ordenador. De hecho, es es uno de los problemas con Anthropic que que que desplazaba su propuesta de agente que usa el navegador a a nuestro equipo, mientras que OpenAI dice, mira, el navegador lo manejo yo en una máquina virtual en mis servidores, PC y Bulock eres tú. ¿Vale? Entonces, claves y cosas importantes de Operator, pues dos.

Una, pues que la IA es tan buena analizando lo que hay en la pantalla y, por lo tanto, siendo capaz de navegar por nosotros con unas instrucciones tan básicas como búscame un billete de tren para este día y a este horario y que sea el más barato y es capaz de todo ese trabajo semántico hacerlo y hacerlo bastante bien. Es decir, esto está de lotable, alto, es decir, es muy buena tecnología. Y dos, como es un navegador dentro de OpenAI, en muchos de estos servicios, cuando queramos que ejecute cosas, claro, necesitará login, contraseña, datos de tarjeta. ¿Qué es lo que te dice OpenAI? Te dice, bueno, habrá momentos en los que tú tendrás que tomar el control y meter tu contraseña.

No te preocupes, no te preocupes que yo te la guardo. Tú tranquilo. Entonces, ahora mismo es un agente que le dio una orden y hace un montón de cosas y trabaja por mí. No, hay bastante más fricción. ¿Por qué?

Porque hay momentos, además, en los que él duda o él siente que es una acción demasiado peligrosa o con potencial de de ser complicada, y se para y te pide ayuda. Entonces, realmente es un trabajo desatendido, pero en el que es como la conducción autónoma. Oye, ¿te hace veinte segunditos él solo? Sí, pero pero tienes que tener los manos en el volante cada veinte segundos. Entonces, realmente no es ese ideal de la gente de la inteligencia trabajando por nosotros, sino que tenemos que estar muchísimo, muchísimo más involucrado de lo que es el modelo teórico de agente inteligente.

Matías: Tengo dos comentarios al respecto. Lo primero, para mí es como vengarme de toda esa gente que para resolver de forma automática, pues cualquier problema que tengan con el ordenador, se hace en un script, porque yo hasta que ha llegado la guía generativa, no tenía capacidad de estar creándome mis propios scripts para disparar acciones en el ordenador automáticamente y ahorrar tiempo, que a mí, con mi nivel de Hoy es una palabra obsoleta, ¿no? Con mi nivel de ofimática, pues yo también me sorprendo de gente que para usar el Excel no usa ciertas fórmulas y lo hace todo manualmente, o que no usa atajos de teclado y se va a no sé qué menú a buscar una opción. Pues ahora yo me voy a vengar de los que están por encima de mí con el operator. Y otro comentario, la la mejor manera de entender los límites de un modelo nuevo de OpenAI, o en este caso, de un producto nuevo de OpenAI, de una herramienta nueva, es el System prompt.

El System prompt, cada vez que se filtra, cada vez que alguien consigue sacárselo al modelo, a mí me fascina, ¿no? Porque se ve claramente cómo le dicen a la máquina, niégate a completar tareas que puedan causar o facilitar daños, violencia, robo, fraude. Niégate a cualquier tarea relacionada con alcohol, con cigarrillos, con sustancias controladas, con armas, con juegos de azar. El usuario debe completar los captchas. O sea, por ahora, lo del no soy un robot, estamos obligando a las máquinas a que nos lo rellenen por nosotros.

Antonio: Ya, ya, ya. Sí, mi mi ilusión de tener un un agente inteligente que me gane mucho karma en forocoches, ¿no? Y tener un súper usuario ahí, pollo en forocoches, pues claro, se complica, se complica. Operator no no no me va a poner fácil. Yo aquí tengo dos, simplemente dos dos opiniones finales, ¿no?

Una, insistir, esto es alucinante, es decir, tecnológicamente es una cosa realmente extraordinaria. Tenemos una inteligencia artificial que es capaz de leer y manejar las páginas web casi casi al nivel nuestro, con muy pocos errores, con muy pocas dudas. Esto que a veces lo lo damos por sentado, ¿no? Y y hacemos énfasis en el tres por ciento de casos en que falla, pero es que en el noventa y pico por ciento de casos en que lo hace bien, a mí me parece una tecnología extraordinaria y y alucinante. A mí me ha sorprendido para bien el buen nivel que he visto en los varios vídeos que de reviews que que hemos que hemos analizado, ¿no?

Y dos, claro, tenemos la la teoría esta del Internet muerto en la que se suele mencionar que con la inteligencia artificial generativa y con el mundo de los bots, casi todo lo que pasa en Internet lo van a estar generando y accionando máquinas, básicamente, ¿no? Y que el porcentaje de actividad humana cada vez va a ser menor respecto a al al de al de ellas. Claro, cuando tú tienes una cosa como operator, ahora que te pide mucho intervención humana, todavía eso escala poco. Pero en uno, cuando ya tengas, por ejemplo, y descubras, en estos sitios te dejo mis log in y te dejo operar durante muchas horas y hacer un montón de acciones. Claro, ahí, de nuevo, va a haber una guerra entre los servicios de Internet y las empresas de inteligencia artificial.

¿A qué me refiero? A que hay servicios de Internet cuyo valor depende de que ellos administran a que puede acceder un humano. Por ejemplo, el LinkedIn, pues tú tienes las cuentas premium que tienen acceso a muchas más acciones extra. Pero si yo puedo venir a un operator que se se dedica a navegar todo el día, a indexar y utilizar los currículos de LinkedIn y los perfiles de LinkedIn y metérmelos en un Excel, pues de repente ahí hay un conflicto entre lo que me permite la empresa inteligente artificial y el sitio web. De hecho, va a haber plataformas y Reddit parece ser una de las primeras de ellas, que van a bloquear bloquear al Operator.

Ellos lo que quieren es que tú hagas un uso humano de Reddit y, por lo tanto, no les interesa gente que pueda estar automatizando cosas ahí dentro. Entonces, yo creo que ahí va a haber, en esta teoría del Internet muerto, una batalla de los sitios que, por modelo de negocio, como LinkedIn, o porque el contenido lo quieran genuinamente humano, van a intentar resistirse a a ser domeñados, ¿no? Por por gente con con agentes inteligentes. Sí,

Matías: de hecho, si no recuerdo mal, pasó en la demo, que entró abrieron una una web bloqueada. Entonces, yo creo que muchos usuarios de operators se van a encontrar con esto, con plataformas web, servicios que bloquean activamente el uso de estos agentes de IAM. Te tengo que comentar otra cosa, Antonio. El tema ya me dice mi mujer, porque comimos todos juntos, me dice mi hijo, oye, veo a Antonio como muy feliz, muy bien, muy viril, muy muy contento, muy hablador, muy conversador. Y yo pensando, ¿qué hace Antonio distinto a lo que hago yo?

Pues Antonio tiene desde hace muchos, muchos, muchos años, un colchón Morfeo, que es probablemente la mejor opción para descansar y además el patrocinador de este episodio.

Antonio: Sí, Matías. Bueno, ¿casualidad? Pues, bueno, y si la gente cree en casualidades, yo te voy a decir una cosa. Me estás tapando varias semanas de viaje porque doy conferencias, doy clases, así estoy a eventos y ando por ahí, pues, con con mucho viajecito. Y hay un síndrome, que es el síndrome de vuelta a casa, porque como en la casa uno y en el colchón que uno tiene al que está acostumbrado, que es cómodo y que está adaptado a ti y que lo ha elegido, como eso no hay nada.

Entonces, yo en los viajes acabo como más a disgusto, ¿no? No acabo de descansar bien y el regreso a casa es una celebración, es una fiesta. Por eso me vi ahí tan contento, porque no solo es que en el día a día descanse muy bien, en mi colchón morfeo, por supuesto, sino que la comparativa con otros sitios donde los de que me toca descansar o que me toca viajar es que no, no hay color, y por lo tanto, pues nada, aquí súper recomendado Colchones Morfeo, que además tienen, atención, no tardéis mucho en mirarlos porque tienen tienen rebajas, Matías.

Matías: Ojo, un sesenta por ciento de descuento con el código rebajas, así que, bueno, ya sabéis que hay que darle importancia al descanso.

Antonio: Ay, se merece mucha importancia los amigos de Deep Six, Mati. Vamos a ver, vamos a intentar desentrañar este tema paso a paso. Aquí, Matty, te voy a pedir un esfuerzo, has sido brillante en tu visión del futuro chino. Ahora te pido un poco de disciplina en el guion, porque, bueno, la la audiencia no sabe que tú tiendes un poco a saltarte de una punta a otra del guion.

Matías: Sí, y además te tenía que decir una cosa. Esto me lo has comentado antes, me vuelves loco, Mati, cuando te saltas el guión. Hoy es importante que vayamos explicando paso a paso DeepSick. Y te voy a decir una cosa, todas las chapas que has dado en el podcast han llevado a Deepci, porque tres grandes chapas que recuerdo fueron la importancia de los modelos razonadores y este nuevo paradigma de los modelos razonadores. ¿Cómo funciona el la arquitectura o el paradigma del mixher of experts, la mezcla de expertos, no?

También DIRCIK se basa en eso. Y la gran chapa, ese gran episodio dedicado al aprendizaje por refuerzo, que es una de las razones por las que ahora veremos que Emilia ha perdido. No sé si tiene justificación que Emilia haya perdido tanto valor de mercado. No sé si tiene justificación, pero cuando grabamos esto, pues ha perdido como quinientos mil millones de de dólares de de valor, ¿no?

Antonio: Sí.

Matías: Así que te voy a

Antonio: decir, Antonio. Bueno, lo la la parte buena de las chapas es que ahora las puedo aplicar en el crossfit, Mathi. Es decir, hasta ahora solo podía contar contigo, ¿no? Que te tengo cautivo en el podcast, sería muy feo por tu parte, ¿no? Yo empiezo una chapa y tú te vas, ¿no?

A hacer otras cosas, ¿no? Ahí a prepararte la merienda, no estaría bonito.

Matías: Esta mañana además ha pasado que hemos paralizado la la clase hablando de Deep Six, porque nuestros compañeros estaban verdaderamente interesados y el monitor ha dicho, bueno, vamos a hacer un poco de hombro, que ya toque.

Antonio: Pues venga, vamos con con lo básico. ¿Vale? Es decir, para alguien que esté totalmente desconectado de lo que ha sucedido, y y creo que incluso gente muy de Internet y muy metida en la tecnología puede estar en ese en esa situación, ¿no? Un poco noqueada por los sucesos y lo repentino, vamos a explicar de dónde salen, qué es lo que ofrece y y todas las aristas del debate que ha llevado a a la tormenta perfecta, el mundo de la ILA. Lo básico, lo fundamental, pues DeepSig es un proyecto, una empresa china de inteligencia artificial que, básicamente, te ofrece una web y una aplicación muy similares a la experiencia que ya conocemos de ChatGPT.

Es decir, tanto la web como la aplicación, pues tú puedes entrar, te puedes registrar, bueno, esto entre comillas. Ayer empezaron a acapar los registros desde fuera de China por el exceso de demanda, porque todos estamos, todo el mundo está intentando probarlo. Pero, en general, el concepto es similar, tienen varios modelos, en eso también es igual a lo que hace OpenEye con ChatGPT, y, pues, básicamente, la experiencia es de un chatbot. No tienen todas, todas las opciones que tiene un ChatGPT, pero lo importante es que tienen dos modelos realmente muy buenos. El primer modelo salió hace varias semanas, se llama V tres y, lo comentamos en el podcast, tiene un nivel muy parecido a lo que puede ser GPT cuatro de OpenAI o Cloud tres punto cinco de Antheroping.

Es decir, con V tres que hicieron, que hizo DeepShip, se puso al nivel de los modelos conversadores, los chatbot basados en modelos grandes de lenguaje, aquello con lo que nos sorprendió ChatGPT. Y luego, lo más interesante es que hace apenas poco más de una semana, salió R uno. R uno era, o es más bien, su modelo razonador, es decir, este modelo es el que compite directamente con la línea de los O, con el O uno de de OpenEye, y hay dos elementos que han hecho y han sido la mecha con la que ha empezado el la gran crisis de las grandes tecnológicas de estadounidense. Bueno, yo diría que son tres. Una, que R uno tiene el nivel de o uno.

Si los chinos, esto lo explicamos en el episodio anterior, igualan al segundo mejor modelo disponible de Estados Unidos, el mejor modelo disponible sería el O uno Pro para los usuarios que pagan los doscientos dólares. Dos, es en abierto. Es decir, cuando se dice es open source, es un modelo abierto, recordemos, los modelos de inteligencia artificial son de, bueno, tienen bastantes elementos, es complejo ver que es un modelo totalmente abierto. Este lo podemos considerar de pesos abiertos. Los pesos abiertos significa que tú te puedes bajar el modelo con sus pesos y que tú te lo puedes instalar el local y que tú puedes ajustarlo, fentunearlo, pero no puedes cambiar todo su entrenamiento.

El entrenamiento viene ya dado y ya bien hecho y, por lo tanto, tú puedes hacer un uso gratuito local o si eres una empresa o una organización, en tus servidores puedes poner estos modelos de de Tixi. Y tercero, lo más importante, Mati, esto fue, yo creo que la bomba H, esto fue el movimiento, el gran detonador, los chinos, Dixie presume de que ha entrenado estos modelos con un coste, varios órdenes de magnitud menor que el en el que están incurriendo las empresas occidentales. Si hablábamos de que las empresas occidentales estaban pensando en gastar miles de millones en dos mil veinticinco, ellos dicen, mira, nuestro modelo los entrenamos gastándonos diez millones, cinco millones, quince millones, unas órdenes de magnitud muchísimo, muchísimo, pero que muchísimo menores.

Matías: Fíjate la latencia que tiene, de alguna forma Wall Street desde que sacó V tres Deep Six a finales de del año pasado, que hemos comentado, impresionante lo que están haciendo los chinos con menos gráficas, con menos presupuesto, o sea, han puesto a la altura de GPT cuatro, y ahora, cuando sacan el R uno, pues ya se estaba comentando en el episodio anterior, también hicimos una mención a esto, y sin embargo, no sé por qué, pero hemos tardado en ver una reacción, por un lado, la prensa y por otro lado, lo los mercados, pero se veía venir. De hecho, antes me he mencionado a Andrey Carpazzi, pero es que lleva tuiteando, ojo, lo que están haciendo los chinos con con menos infraestructura. Y aquí estamos y aquí estamos, y tiene mucho que ver en los costes, Antonio, cómo utilizan el aprendizaje por refuerzo con datos sintéticos, ¿no?

Antonio: Sí, los costes ha sido el punto nuclear, porque, ¿qué ha pasado en Estados Unidos? Ha pasado por varias fases. Mucha gente es la fase de negación, no me lo creo. Los chinos mienten. Nos están engañando para que caigamos en su trampa y, bueno, ellos obtengan un rédito que que no merecen.

No costaron cinco millones de dólares entregarlo. Es verdad que no costaron cinco millones es el coste del modelo. ¿Por qué? Porque cuando DeepSit dice esto, dice que es, pues, el el tiempo de de de GPU, ¿no? Y el y el tiempo de procesamiento, pero no tiene en cuenta los los salarios, por ejemplo, no tiene en cuenta el coste fijo de de crear ese súper clúster, es decir, no tiene en cuenta muchos otros costes que se que habría que instruir para entender cuál es el el coste total del modelo.

El caso es que DeepSeak, aunque lo podemos comentar un poco más más tarde, hay razones para pensar que el coste sí es el que han dicho que es. Es decir, esa fase, no me creo los costes, se ha visto alimentada por una cierta rumorología. Por ejemplo, el CEO de Scaleyee dice que DeepSig en realidad sí que tiene las tarjetas gráficas HC. Vamos a ver, porque este es un tema de mucho detalle y difícil de de debatir. ¿Qué es lo que una de las cosas elementos clave en la guerra China de Estados Unidos?

El veto de la exportación de chips que estableció la primera administración de Donald Trump. ¿Qué hizo el amigo Donaldo? Pues, estableció ciertos límites a la exportación de de empresas occidentales, no solo estadounidenses, sino cualquiera de del bloque occidental a la hora de exportar a los chinos. Eso incluye a la ASML holandesa, a la TSMC de Taiwán o incluye también a, por supuesto, la estadounidense Nvidia. ¿Está vetado todo a exportación de chips?

Pues no. Y además, hay lo que establecía el veto es que las tarjetas gráficas más avanzadas, estando en el caso concreto de Nvidia, las H cien, eran las que no podía venderse a los chinos. Sin embargo, modelos con menos memoria y menos potente, como las H ochocientos, pues es algo que sí era posible conseguir en China. ¿Vale? Entonces, ¿cuál es uno de los elementos de discusión?

Pues que Meta, OpenAI, Microsoft, Google Anthropic, todas tienen las H cien, las mejores tarjetas gráficas, las más potentes. ¿Qué es lo que dicen los chinos? Los chinos dicen, nosotros, como tuvimos estas restricciones, tuvimos que mejorar mucho en la eficiencia. Acuérdate del debate justo con DeepSit la semana pasada, en la que decíamos que algunos tótems de la de la industria china, como Kayfolí, que volverá a aparecer hoy, decían eso, que esto es, esto se parece a como los cubanos arreglan los coches de los años setenta. Es decir, en cuanto tuvieron el el el veto a la importación de automóviles de última generación occidentales, tuvieron que desarrollar mucho en Hoot, manteniendo y usando lo los coches viejísimos y, por lo tanto, son los que más saben de esa generación de coches con muchísima diferencia y que los chinos han innovado y han desarrollado muchísima eficiencia ingenieril a la hora de sacarle provecho a las generaciones anteriores de tarjeta gráfica o de menor nivel, como las H ochocientos.

Matías: Sí.

Antonio: Que ese es el debate.

Matías: Bueno, recuerda un poco a los informáticos polla vieja que dicen que hoy en día no se optimiza nada, o, por ejemplo, la guerra Nintendo Switch versus PlayStation cinco, Xbox, que Nintendo te saca un Zelda que con un alambre te consigue un juego visualmente espectacular. Además, esta teoría a la que, por cierto, Elon Musk le dio un poco de de leña al fuego, de que en realidad tienen cincuenta mil envidias H cien y que no las están declarando por el veto comercial, Elon dice, obviamente las tienen, pues no está tan clara, No está tan clara. Yo creo que no podemos poner la mano al fuego ni por una teoría ni por la otra, pero tiendo tiendo a creerme a los chinos. Además están siendo bastante transparentes con ese paper que, por ejemplo, OpenAI no saca papers tan tan detallados.

Antonio: Absolutamente, es decir, en el paper son muy transparentes sobre cómo lo han conseguido, lo cual junto a la apertura del modelo tiene una buena noticia, luego hablaremos de de la importancia del Open Source, y lo que explica Carpathy leyendo el paper a un nivel yo creo que la mayoría de humanos no somos capaces, es decir, profundizando en el en el nivel técnico, él explica que aplican un montón de optimizaciones para trabajar con la cantidad de memoria de la H ochocientos, y que toda esta teoría de las H cien viene de que en noviembre Dylan Patel dijo en Twitter que tenían los de Deep Six más de cincuenta mil GPU Hopper, pero Hopper es como la familia, en la familia están las de gama baja, como las ochocientos, pero también las cien. Y alguien debió inferir que eran H cien porque sí, pero no tenemos pruebas de que sí sea. Es posible que nos estén dañando, incluso en el paper estén fingiendo. Yo creo que esa es es una posición que tiene las patas cortas, porque va la gente va a coger el paper y va a empezar a aplicar las cosas del paper y se va a dar cuenta si si si están mintiendo.

En todo caso, el debate está ahí. Yo estoy contigo en que los chinos tampoco tienen necesidad de de fingir esto, a no ser de que fuera muy astuto y dice, bueno, vamos a poner cortos en Nvidia en bolsa y vamos a a facturar. Pero bueno, el caso es que este es el tema nuclear. Es decir, si los chinos han conseguido el nivel de la inteligencia artificial dos mil veinticuatro de Estados Unidos, lo han igualado, pero en varios órdenes de magnitud menor en el coste, esto tiene unas consecuencias, unas consecuencias que vamos a analizar económicas, geopolíticas y de varios órdenes y tecnológicas, porque también está el el tema de de ser abierto. Pero el caso es que las aplicaciones de DeepSick, es decir, la aplicación de de de este asistente de inteligencia artificial, es el número uno, el App Store para iPhone, Estados Unidos, es la, bueno, yo yo no he llegado a pillarla, dicen que llegó a la número uno en Android, Yo en Android siempre había número uno más a a Temo y otras cosas así, pero he entrado en el top también de Android en Estados Unidos.

Matías: Yo creo que es la tormenta perfecta. Todos los rumores sumados a que realmente la gente empezó a descargarla, empezó a probarla, se descargó incluso el modelo. Los modelos más pequeños se pueden ejecutar directamente en el teléfono, modelos razonadores, es una locura tener un un razonador directamente en el teléfono, es lo que ha causado esta tormenta perfecta de entrar en pánico junto con el anuncio reciente del proyecto Stargate, que es básicamente vamos a inyectar quinientos mil millones de dólares en OpenAI para que sigan desarrollando esto. Puedo entender por qué están corriendo todos en círculos. Además, hay un chiste que hizo alguien en inglés, que la verdad es que no tiene buena traducción al español, que es, no es la primera vez que la gente de San Francisco se enamora de un chainese model, ¿no?

De una modelo china. Claro, en español con con los géneros no es tan gracioso el el chiste, pero realmente está pasando, la gente ha entrado en pánico.

Antonio: Bueno, vamos a vamos a ver porque es que la aplicación, la aplicación es muy colosa, Mathi. Es decir, ¿por qué llega el número uno? Básicamente tiene una cosa muy a favor, es gratis. Entonces, la gente empieza a hablar de Deep Six y poco a poco se hace bola, es gratis, no tiene, bueno, es gratis sin anuncio. El modelo es realmente bueno, tú empiezas a usarlo efecto las funcionalidades un poco más específicas que que como el modo de voz o el procesamiento de imágenes, no es multimodal, es decir, bueno, es condenadamente bueno.

Una cosa además que dijiste tú, que es muy interesante, Mati, que los modelos razonadores, lo que establecen y explicamos de una manera algo por OLIJA en su momento, es que tienen esa cadena de pensamiento. Les dejamos pensar, inferir mucho tiempo y ahí ellos, como veremos luego, exploran en todos los razonamientos que pueden aplicar al problema que le hemos dado. OpenAI te oculta esas cadenas. ¿No? Se queda pensando y te te dice muy poco, pero DeepSig no.

DeepSig te cuenta todos los razonamientos y cómo ha llegado a la respuesta final, lo cual es bastante divertido y es muy curioso de ver. Más para lo que nos interesa tanto la inteligencia oficial es como, es que, no voy a decir que es como ver porno, pero es es muy interesante.

Matías: Sí, me lo llaman el momento cuando el propio modelo aprendió, por ejemplo, con tu problema típico que le pones del hombre y la cabra cruzando el río, que siempre intentas engañar al modelo variando el ejercicio, pues cuando el deepsic se da cuenta de que lo estás engañando, es lo que los chinos llaman un momento ajá, y tú lo puedes leer en su cadena de de razonamiento, en su cadena de pensamiento, puedes leer como el propio modelo de una forma súper antropomórfica con lenguaje natural, dice ajá, pero aquí Antonio me está colando una cosa que no estaba en el ejemplo original. Y claro, eso es fascinante de ver, la verdad, y es más divertido que lo que hace Penneja, que unas frases chorras.

Antonio: Sí, sí, sí. El punto es, ¿qué tan bueno es? Podemos tener esta impresión inicial de que el modelo es por los rangeback del nivel O uno, pero hay hay hay una elemento que que no recogen del todo los benchmark, que es tu sensación. ¿No? De de cómo funciona, de cómo va.

Yo lo he estado probando bastante y sencillamente, he intentado dedicarle mucho tiempo y, además, me he leído análisis y comparativas de de gente. Recordemos, dos son dos modelos en realidad, el V tres y el R uno, los que nos ocupan y aplican, que podemos utilizar de de Deep Sik. Probablemente, lo más interesante es comparar el R uno, porque es la última frontera por donde está avanzando la inteligencia artificial en estos momentos. ¿No? El R uno a mí me ha sorprendido para bien.

Me ha sorprendido para bien, porque sabemos que los demás, pues, está un poquito mejor en algunas cosas que uno, un poquito peor en más cosas que que que uno. Entonces, bueno, probablemente se pierda un poco. Y una cosa es que que sí me gusta mucho de de R uno, es que aunque pierdas un poco, como hemos dicho, en en programación, en matemáticas, tú dices, pierdo un poquito con respecto a los uno de de ChagPT, pero pasan dos cosas. Una, que a un precio tan, tan, tan inferior que esa pérdida marginal de calidad en algunas tareas matemáticas y decodificación, etcétera, pues yo creo que es muy asumible para la mayoría de usuarios. Y dos, que en escritura es mejor.

Es decir, en escritura las respuestas que me está dando R uno no tienen la vibra de ChatGPT. ¿No? Tú cuando te presentan un texto y que está tan tan correctito, tan blanco, tan buenoide, tan alejado de los extremos que puedan molestar a nadie. ¿No? Como tan flanders.

¿No? Ese problema de la Flanderización de la inteligencia artificial. Pero R uno, sin decir barbaridades, sin ser, ¿No? De acuerdo de de Sydney, de del modelo de inteligencia artificial, un poco asarbajado que hemos tenido, pues realmente creo que que tienen que tiene una textura, una calidez del techo superior.

Matías: Me hace mucha gracia el contraste de, podemos llamarlo censura entre los modelos occidentales y este modelo chino, porque lo comentamos en el episodio anterior, cualquier mención a Xi Jinping, a Tenamil mil novecientos ochenta y nueve, a un hombre delante de un tanque, cualquier mención a esto, automáticamente te trunca la conversación y y no puedes seguir hablando, pero, a cambio, pues es un poco menos woke, ¿no? Que lo que diría Javier Mileu o Elon Musk con Martín Barzawsky. Pero me parece gracioso esa ese contraste, ¿no? Hablando de lo bueno que es Deep Six, hubo alguien en España que le le pasó el examen del MIR de de los médicos internos residentes de este año y está en el percentil noventa y nueve. O sea, bastante, bastante probable que si eligió cardiología en La Paz, en Madrid, el el DeepSick acabe sacando plaza,

Antonio: Sí. Mira, hay hay hay gente que tiene que estar un poco tirándose de los pelos, que que son la gente de Anthropi, que tenía a Cloud, que realmente es bueno, que genera mucho entusiasmo, pero que es como un poco esa vibra de, vivo en San Francisco y quiero ser diferente, ¿no? Tengo este rollo alternativo. Ese es un poco el el segmento de Cloud y no ha llegado, no ha quedado nunca de calar en el en el gran público. Y de repente llega DeepSeak los chinos y se ponen el número uno con, si si si Leí una estadística que era Cloud tiene unas trescientas mil descargas al mes.

DeepSeak, que todavía está teniendo trescientas mil descargas al DeepSick estos días está teniendo trescientas mil descargas al día. Es una comparativa bastante dolorosa. Y hay un problema, porque leí yo un una pieza de de de unos analistas en Bloover que dicen, yo ahora soy un dipsyk a bro. Claro. No es problemático, Matías, y es donde puede entrar tu know how.

Es decir, ahora que estás aprendiendo chino, claro, los chinos deben decir bro. Entonces, no no tienes que aprender muchísimo de chino, pero sí tienes que aprender cómo es un AI, AI, pro en chino, porque es el tiempo que viene, ya lo bro, usted bro, todo eso. Aparte, tenemos que buscar el término chino para que la gente que está metida en Deep Six, pues, en español, pueda pueda decirle ahí con con orgullo y marcar un poco la diferencia.

Matías: Sí. Por todo lo que me estoy empapando de cultura china, es que casi que no me extraña que hayan conseguido un modelo tan eficiente por cómo son la los padres chinos, ¿no? De no, no, tú tienes que estudiar, estudia informática, incluso las universidades públicas en en China son muy buenas, y estos son geniecillos, no hemos hablado mucho de los orígenes de DeepSick, ya no me acuerdo ni cómo se llama el fundador, pero eran quants, que eran genios matemáticos que se dedicaban al trading y a básicamente hackear las acciones y con las GPUs H ochocientos que les sobraban, pues han conseguido ahora esta visibilidad. Imagino que rápidamente el partido comunista chino va va a tomar acción y va y va a meterles todas las GPUs que tengan para que sigan influyendo mucho en este pivote al a la los modelos abiertos.

Antonio: Liam Wenfen.

Matías: Liam Wenfen. Liam Wenfen,

Antonio: atención, porque es un nuevo fichaje para el podcast. Entonces, todavía no lo tenemos ahí muy, muy, muy trabajado, pero bueno, nos hemos anotado que el el el gran jefe de, y la evaluaremos de sus declaraciones de DeepSy es Lía Wenfennd. Pero además de DeepSy y de analizar el futuro, hay algo a lo que vamos a invitar a todos los oyentes de monos estocásticos. Es un evento que nosotros no nos queremos perder, que patrocina también este episodio, este SAP y es el veinte de febrero en Madrid, Matías.

Matías: Sí, en Espacio Rastro en Madrid, y además no lo has mencionado, pero yo creo que a los oyentes les va a agradar este dato, es un evento gratuito y en el que los asistentes van a aprender lo que más nos interesa a todos, que es lo práctico de la inteligencia artificial en el tema datos, temas aplicaciones y gratis. Ojo.

Antonio: Sí, de hecho, el lema del evento es apps más I a más datos, la fórmula del éxito, y entonces se va a ver casos de cómo aterrizarlo en muchos sectores, desde la distribución y la logística, los servicios digitales, sector energético, la consultoría y hasta en el fútbol, porque está el gran Esteban Granero, que es futbolista ilustrado, que además, bueno, aparte de traer esta estrellita del fútbol que está emprendiendo en el mundo de la inteligencia artificial, ojo ahí a a a este tema, vamos a tener a las mejores oradoras en español que nos van a enseñar a cómo comunicar mejor. Entonces, sería el episodio perfecto para para ti y para mí, Matías. ¿Práctico, inteligencia artificial, mejor orar en una oratoria?

Matías: Voy a dejar el enlace en la descripción del episodio, veinte de febrero, nueve y media de la mañana en Madrid. Tenéis toda la información en la descripción.

Antonio: Y el linkito para apuntaros. Pues, ya hemos dicho, es bueno, es barato, ¿no? Bueno. Bonito, bueno, resultón, ¿no? Entre diseño, pero vamos a lo que ha sido el tema del pánico.

No sé si lo decíamos ayer, Mati, cuando hablamos con unos amigos de de un podcast de psicología que nos que nos invitaron. ¿Cómo se llama el podcast de de de nuestros amigos que vamos a hablar?

Matías: PsicoFlicks, es una es como una plataforma para psicólogos. Debe de ser el podcast más segmentado al que nos han invitado, ¿no? Nos han escuchado, de repente a lo mejor sube la audiencia de modos estocásticos en en psicología y debemos tratar más en temas psicólogos.

Antonio: Sí, sí, sí, sí. Bueno, pues, allí dijimos una expresión que nos permitieron los amigos de Psicoflick, que es Silicon Valley y Wall Street se han hecho caquita. Se han ido por la patilla. Matías, ha sido una cosa espectacular de ver cómo se ha ido haciendo de la bola, y lo lo yo creo que lo podemos explicar muy fácil. El consenso hasta mediados de enero de dos mil veinticinco, entre Silicon Valley y Wall Street era el siguiente.

La inteligencia artificial es la tecnología de más impacto de esta década en lo económico y en lo social. Eso va a ser, es el gran tema. La supremacía en inteligencia artificial y el camino hacia la inteligencia artificial general lo van a ganar las empresas privadas estadounidenses. Son las que tienen el capital, son las que son mejores haciendo software de siempre, son las que más tienen esa cultura de la innovación, el riesgo, etcétera. Y además, el mejor talento se va a Estados Unidos para grabar, cobrar soldados, ¿vale?

Esa es un poco la foto. Y el tercer convencimiento es que la IEA era una cuestión de gran escala, de muchísimo capital, de data centers enormes y carísimos, de costes energéticos desmesurados, y que, por lo tanto, eso además constituía una barrera de entrada protectora, no para una empresa particular, pero quizás sí para el sector tecnológico estadounidense. El plan de Stargate de los quinientos mil millones de inversión en data center, infraestructura para inteligencia artificial, es un ejemplo de ello. Nadie en el planeta tiene esa capacidad de inversión y de capital para igualar a Estados Unidos y, por lo tanto, la posición de estas empresas estadounidenses con gran acceso al capital es privilegiada o era privilegiada a la hora de competir en inteligencia artificial. Claro, DeepSig, cuando ha ha creado esta tormenta perfecta, no cuestiona la primera de las premisas, que la inteligencia artificial es la tecnología más importante de la década.

Incluso, puede ser que sea del siglo, pero quedémonos con la década. Eso Deep Signo lo cuestiona. De hecho, lo que reafirma es que puede seguir avanzando, no es una enmienda o una gran crisis de la burbuja del interés artificial como algunos he leído. Pero sí cuestiona la dos y la tres, que el liderazgo necesariamente va a ser de las empresas estadounidense, y tres, la tercera, que apuntaba a ese aspecto de la enorme cantidad de capital necesario para tener modelos que nos acerquen a la inteligencia artificial general, Mati.

Matías: Yo puedo entender que caigan empresas que están desarrollando modelos fundacionales, sobre todo propietarios, porque ahora de repente un modelo open, yo no sé si llamarlo open source, open waits o como, pero un modelo abierto, pues les planta cara. Lo que todavía no entiendo, a ver, yo creo que estamos subestimando demasiado lo que podemos hacer también nosotros con los modelos Alia en en España, ¿no? Que también son abiertos. Y no se está hablando esta semana en Silicon Valley y en Wall Street de los modelos Alia. O sea, que me parece un tambuy un poco una falta de perspectiva y una falta de respeto a lo que somos capaces de hacer nosotros.

Antonio: Ha habido muchos memes siempre. Ahora, China, Estados Unidos compiten, no sé qué, y Europa está haciendo tonterías, ¿no? Bueno, Europa tenemos Mistral, que a lo mejor son los mejores modelos, los más competitivos, que antes eran muy abiertos y ya casi casi que no, ¿verdad?

Matías: Tenemos el los Zempic, que sin el los Zempic en Estados Unidos no estarían funcionando y están funcionando.

Antonio: Creo que ahí Donald Trump, como empiece con la con las tarifas y tal también a a los productos europeos, tenemos ahí la la la la contramedida que que si no CMPIC, Weah obi y los GLP unos estos, matamos a media población estadounidense en unos meses. O sea, que cuidado, cuidado con eso. A lo mejor es interesante para la gente del Super Computing Center de Barcelona. Mirá R uno, porque podríamos tener un modelo razonador español a un coste menor incluso de lo que nos ha costado Alia. Entonces, bueno, ahí lo dejamos.

Hay un señor que ha salido varias veces en la historia de este podcast y es que es curioso, la la tenía dentro Guy Foully. Guy Fulli es un emprendedor, tecnólogo, directivo chino, que fue uno de los el breve director de del de la breve estancia de Google en China, y él escribió este libro que es Superpotencia de la Inteligencia Artificial, y ahora se siente como muy reivindicado. Y yo curiosamente también, Matías, porque yo me lo leí, me leí este libro, escribí sobre el error quinientos, lo sacaba en ponencia, lo saca en el podcast, y es como cuando tú escuchabas un un un grupo indie así superminoritario y de repente el grupo triunfa o sigas un futbolista que que estaba ahí y tú le habías destacar ahí en el en el Antequera y luego llegas a primera división. Es curioso, pero ¿no te sientes en esos momentos partícipe del éxito de de esta gente?

Matías: Sí, nos pasa muchísimo. Nos pasa, por ejemplo, Lucía lo entrevistamos a nosotros y ahora también vuelve a estar ahí en las noticias, y nos pasa mucho esto en frecuentemente en monos estocásticos.

Antonio: Sí, pues el amigo Lee Kaifu, él predecía en el libro que aunque Estados Unidos lidere las innovaciones, China al final acabaría pillándoles y ganaría la carrera de de la inteligencia artificial, porque, pues, ser más rápida, tendría más datos y contenidos para entrenar, y y ingenierilmente va a tener un mejor nivel que Estados Unidos. ¿No? Y dice, bueno, muchos me acusaron de que yo no había predicho bien la I degenerativa, ta ta ta, que yo me equivocaba. Pero ahora, ahora con Deep Zip ando callando bocas. Bueno, esto no es no es literal de Caifo Lee, él es más diplomático, ¿no?

¿No? Ahí le suelta el zasca el amigo Caifo. Y esto es un debate interesantísimo porque para mí hay un como un paralelismo muy marcado respecto a la competencia tecnológica del siglo veinte en semiconductores entre Estados Unidos y Occidente, sus aliados, porque ahí lo aguantarían Europa, entre ellas, sobre todo Corea del Sur y Taiwán y Japón, y y el bloque soviético, ¿no? Y cómo la supremacía estadounidense en el desarrollo de chips no era tanto por la ciencia, porque científicamente los rusos también eran amarillantes, sino por toda la proceso, toda la parte de procesos, ingeniería, fabricación, desarrollo y bucles de retroalimentación positivos e incentivos. ¿No?

Entonces, en esto puede ser diferente la carrera tecnológica del siglo veintiuno, porque no está tan claro que ingenierilmente los chinos anden por detrás. En todo caso, yo leía esa mañana que había como varias War rooms, habitaciones así como para prepararse para para la guerra y para ir a muerte, en Meta, porque además los ingenieros de Meta, de alguna manera, fueron los primeros, o de los primeros que se supo que habían entrado en pánico, Matti.

Matías: Eso fue muy gracioso porque se filtró en un foro de desarrolladores que en Meta, ya con DeepSQL tres, a finales del año pasado, ya estaban subiéndose por las paredes, intentando replicarlo, diseccionarlo, y ahora con Disick R uno, porque recordemos, ¿a qué está jugando Meta? Está jugando a los modelos abiertos, ¿Está jugando a hacer daño a los grandes fundadores de modelos, los grandes creadores de modelos fundacionales con modelos que todo el mundo puede descargar, ejecutar en sus servidores, etcétera? Pues si DeepSeak R uno se pone al nivel de O uno de OpenAI, se ponen por encima de lo que está consiguiendo Meta internamente con JAMA. Entonces, han tenido que hacer control de daños, ha salido Jan Lecune en Twitter, que Jan Lecune lleva sin usar Twitter, ha salido Mark Zuckerberg a dar una de sus declaraciones. O sea, que realmente sí, realmente el meta entraron en pánico.

Antonio: Sí, es que hay una cosa, Matty, como llama cuatro no sea bastante mejor que DeepSick V tres, DeepSeak R uno, eso sería un palazo enorme dentro de Meta. Entonces, claro, los modelos son meses de entrenamiento. Y hay como check points, ¿no? Como puntos de de parada en el entrenamiento que tú ya vas viendo cómo va la cosa. No sé si lo están viendo muy bien, y hay hay una cosa que yo sospecho, ¿vale?

Esto yo creo que la la gente de ingeniería de las grandes empresas no no lo puede, quizás aclarar o nos lo puede decir con con más experiencia. Me da la impresión de que el modelo estadounidense de generación de inteligencia artificial es como muy ordenado, como de principios generales. Es verdad que no buscan la eficiencia porque tienen mucha GPU, pero que en general se premia las soluciones simples en el sentido de que el código es limpio, la solución se entiende, hay mucha consistencia. Mi impresión viendo los paper chinos es que son unos ñapas. Es decir, en lugar de una solución elegante que se mantenga consistente, en cada sitio empieza a hacer truco, pues meto esto, aquí hago una mini optimización para hacer la ñapa de que quepa menos memoria, luego cambio los números de base dieciséis a, de base treinta y dos a base dieciséis y se pierde un poco, pero me da igual, tiro para adelante.

Empiezan a hacer como pequeñas ñapitas que sumadas todas le dan una enorme eficiencia, pero claro, no es una una solución súper elegante que le puede gustar a un arquitecto software. ¿No? Entonces, bueno, yo creo que ahí los chinos son más pragmáticos y probablemente si si los estadounidenses quieren quieren competir, van a tener que bajarse a al barro del ensamblador, al barro de

Matías: Sí.

Antonio: De del de estar muy cerca del hardware y al bajarse a ese barro, ¿no?

Matías: De Sí, a mí me recuerda cada vez más a la carrera espacial entre Estados Unidos y la Unión Soviética, porque se dice que DeepSig es el momento Sputnik de la IA, refiriéndose al satélite ruso, y también me recuerda un poco a Rusia llega primero al espacio con Yuri Gagarin, lo hace en una cápsula que es diminuta, incómoda, que por poco se muere ahí arriba, y luego Kennedy lo apuesta absolutamente todo por conquistar la Luna, por pisar la Luna. Y y este mensaje de Zuckerberg respondiendo a Disick con un mapa de Manhattan y con un data center del tamaño de Manhattan, que que es lo que están construyendo para sus futuros modelos, y diciendo que Llama cuatro va a ser el SOTA, el State of the Art de dos mil veinticinco, pues me recuerda un poco a eso, a fuerza bruta contra supuestamente unos pequeños geniecillos que como proyecto secundario, como hobby, han conseguido optimizar mucho un modelo razonador, ¿no?

Antonio: A mí es que lo del hobby me parece que vacilan, vacilan los chinos ya, ya ya están sobrados, ya están en un momento de, bah, esto lo lo hice en un fin de semana, así como del trabajo escolar de los niños, pues yo le ayudo un poco. Hay una cosa que, bueno, tú tú has sido iluminador a la hora de diagnosticar el el gran confrontación geopolítico tecnológica del siglo Matías, pero yo puedo dar una solución para Occidente, basada en mi experiencia, que es la única vez que coincidí con el único runner chino de Málaga. Te lo voy a contar. La gente que corre en Málaga sabe que el el noventa por ciento de los runner, vamos, se acaba Baños del Carmen. ¿No?

Ese es un poco el recorrido en el que, si tú haces eso, pues un altísimo porcentaje de runner de Málaga, pues ya ya los ves. ¿No? Yo es un poco lo que frecuento, se acaba, pues, Antonio Martín, se acaba Malagueta y volver, fin, hago tirada larga, cuando hago tirada larga, hago eso. Y solo una vez en años de carrera he coincidido con un runner chino. En ese momento era un día que, bueno, tú sabes que yo entreno obedeciendo a a mi reloj y a Sebastián el runner del crossfit, ¿no?

Entonces, entre los conocimientos y consejos de Sebastián el runner y en mi reloj, pues yo tenía que entrenarse, sería, pues, a cinco cuarenta. O sea, una tirada larga, es decir, es que es de larga, mediana, diez kilómetros a cinco cuarenta. Volviendo de la Malagueta, entrando por el Paseo de Poniente, que es donde yo más frecuento, me adelanta el runner chino Matías. Él no iba muchísimo más rápido que yo, ¿no? Es como la carrera entre O uno y R uno, solo me mejoró un poco, pero lo suficiente como para adelantarme.

En ese momento, yo decidí saltarme las reglas, romper los protocolos, es decir, renunciar a la planificación y ponerme al ritmo del runner chino, porque si hay algo que me motiva a mí en la vida es picarme un poquillo. ¿No? Si si fuera muchísimo más rápido que yo, me siento un poco idiota, no me no quiero morir tan en este momento de mi vida, que estoy tan feliz y demás con mi colchón, pues yo me puse como al mismo rey bokell's y le aguanté un kilómetro, dos kilómetros, tres kilómetros, yo mantenía la distancia y cuando quedaba poco para acabar mi carrera, decidí jugármela a diez. Dije, he pasado de tener que ir a cinco cuarenta a ir a cinco treinta, cinco veinticinco, dije, venga, voy a perderme a cinco diez para superar al runner chino. Así que yo apreté, ¿no?

Subí las pulsaciones, lo di todo y le adelanté, y justo en ese momento de adelantar al runner chino, ¿sabes qué hice, Mati? Cambiar de rumbo, cambiar totalmente hacia otro lado. ¿Por qué? Porque yo no iba a aguantar ahí claramente. Es decir, claramente el rannel Chino tenía toda la cara de aguantar otros veinte kilómetros a su ritmo.

No no cabía en mi cabeza. Entonces, ¿qué es lo que puede hacer OCIE? Coger el R uno. ¿No? Coger todo Manhattan y poner dos centrales nucleares para hacer la el data center que sueña Martha Kellber, mejorarlo y en ese momento decir, pum, se acabó.

Ya pasamos de la inteligencia artificial, volvamos a lo del metaverso, porque está claro que ya hemos ganado a China y ya este este juego mejor lo rompemos. Esa es la enseñanza que te traigo hoy, Mati,

Matías: para para

Antonio: ganar a China.

Matías: No sabía que los runners os picabáis de esa forma. Me ha sonado un poco cuando seguidor de Ángel Gaitán se cruza con un Tesla, ¿no? Que de repente lo quiere adelantar y Pero bueno, bien resuelto por tu parte, y me parece que que cuando pasen página los mercados, me parece que las empresas estadounidenses van a reaccionar de esta misma forma, ¿no? Van a seguir a lo suyo y van a seguir con sus inversiones planificadas, que van a ser complicadas de frenar ahora mismo.

Antonio: Vale, pues tenemos tres cositas más que contar de de Deep Six, es que este tema es tremendo. Tecnológicamente, ellos son muy transparentes y hay una de las acusaciones que se han establecido desde el sector estadounidense, de algunos elementos, no no no podemos generalizar, que es, utilizan datos generados por modelos de inteligencia artificial occidentales para esos modelos. Aquí, de nuevo, es una acusación que no podemos comprobar. ¿Qué si reconocen los chinos? Los chinos reconocen dos cosas.

Uno, que usan muchos elementos inventados en occidente, pensemos, desde la retroalimentación que los sistemas de redes neuronales, que es un hallazgo científico occidental, toda la arquitectura de redes neuronales, el modelo transforma, es decir, toda esa ciencia occidental la utilizan los chinos, elementos de la arquitectura y te llama, lo utilizan los chinos y todo y todo lo reconocen y reconocen usar la destilación. Ah, la destilación, bueno, tú tal vez el paper de V tres y dices usamos destilación. Destilación es extraer conocimiento, comprensión de un modelo y enchufarlo al otro. Esto lo explicamos una vez con los JAMA, que usan también destilación. Yo tengo un modelo razonador, R uno, el que le dejo pensar veinte segundos para obtener una respuesta, y tengo un modelo que no es tan razonador, sino que es un modelo conversador, puro conversador, como es V tres, que es similar a GPT cuatro.

¿Qué es lo que hago? Pues que uso para entrenar V tres conversaciones que ha tenido R uno. Es decir, ese tiempo que le ha dado para razonar y tener una respuesta mejor en muchos elementos, se lo ya doy al conversador para que en la conversación también tenga ganancias de razonador. Entonces, los chinos reconocen usar este tipo de destilación a la hora de hacerse un modelo, pero ellos dicen usamos R uno para que V tres aprenda. La pregunta es, ¿en algún momento utilizan tecnología de modelos de inteligencia artificial occidental para saltarse los términos de esos modelos, por ejemplo, con con los Ho uno, pues se estarían saltando porque OpenAI dice, no puedes usar mi modelo para entrenar otro modelo, o sea, es algo que tú aceptas cuando eres usuario, ¿no?

Matías: Pues Ahí habría que meter ya en en los gastos, habría que meter el el tier pro de ChatGPT, y habría que meter también la VPN, porque si lo estará entrenando desde China, yo no sé si eso llega a los cinco millones de dólares, en Kuibar nos están engañando,

Antonio: ¿no? Claro, a no ser que compartieran usuario. Eso es un poco problemático porque te entera de de todas las preguntas sexuales y de salud de la otra persona. Sí. Pero, por lo tanto, ahorras dinero.

Matías: Fíjate que ahora que hay un navegador dentro de ChatGPT, yo ya no voy a compartir jamás la contraseña, porque ese ya es mi mi última frontera. La el historial del navegador y las cookies para mí.

Antonio: Vale, vale. Pues, hay algo muy interesante, que es que en el modelo razonador merece la pena recordar una cosa. En el modelo razonador, además de ese aprendizaje no supervisado, en el que jugando a adivinar la próxima palabra, pues, la inteligencia artificial aprende a usar el lenguaje, esto lo hemos explicado mil veces, pero, bueno, la es el entrenamiento básico de un de un LLM, de un modelo grande de lenguaje. Tú, simplemente, como tienes el texto completo, ¿no? La capital de Andalucía es, ¿no?

Tú ese texto lo tienes completo, es Sevilla, porque lo tienes en la Wikipedia. Pues, adelante la inteligencia artificial le da, la inteligencia artificial es y le dejas que adivine cómo rellenar esa frase. Córdoba, Jaén, Ciudad Real, Lisboa. Y cuando dice Sevilla, dice, bien, has aprendido, vamos a otro ejemplo, refuerza y mantén los pesos como están ahora para que aprendas este esta forma de decir que lo que hay ahí detrás es Sevilla. Bueno, es la forma tradicional de entrenar, muy simplificada, mi culpad, pero el concepto fundamental del aprendizaje de los LLM, peros chagete de la vida.

Los modelos razonadores son súper fascinantes, súper interesante, porque meten toda la parte de aprendizaje por refuerzo. Como bien dijo Matías antes, yo ya solté una chapa, bueno, soltamos los dos, porque Matías también me metió abajo ahí, sobre el aprendizaje por refuerzo. El aprendizaje por refuerzo simplemente consiste, básicamente, o de manera más nuclear, en que le damos una función a maximizar y le dejamos la inteligencia artificial que explore todas las posibilidades para que ella descubra cuáles son los mejores caminos para llegar a esa función. Donde más ha brillado, más se ha utilizado, básicamente, donde más se ha aprendido sobre aprendizaje por esfuerzo son en los videojuegos, en los que está muy claro lo que tiene que conseguir el personaje jugador, ¿no? Maximitar los pasivos puntos, llegar a la fase más alta, ganar el partido de fútbol si es un juego deportivo.

En cualquier caso, está muy clara cuál es la función o los juegos de mesa en que los casos de ajedrez o go, sobre todo, porque al al alfa go, que utilizaba aprendizaje por refuerzo con redes neuronales, que ese fue el el gran ejemplo paradigmático. Entonces, siempre tuvo un problema el aprendizaje por refuerzo, que es que la máquina que aprendí a maximizar la función de cómo jugar al Go no sabe jugar al ajedrez y no sabe jugar a Pokémon Go y no sabe manejar un coche autónomo y no sabe mover la aspiradora por la casa. Es decir, cuando aprenden a ser muy buenos en una función que sabe maximizar, cuando han explorado millones de jugadas de Go, han probado muchísimas opciones y han aprendido cuáles son los caminos, ¿no? En ese espacio de soluciones, pues realmente ese ese conocimiento no es extrapolable a otra disciplina. Lo interesante, y y en el paper de de R uno, y es lo mismo que ha hecho OpenIcono uno, este esta esta técnica de R uno cero, que le llaman ellos, es que ponen a explorar a la inteligencia artificial en el espacio de razonamientos, ¿Vale?

¿Qué es lo que maximizan? El razonamiento correcto en llegar a la conclusión correcta de un problema matemático, de código, de pensamiento abstracto, de lo que sea, y que tanto en el fondo como en la forma, el razonamiento sea correcto. Pero para esto, es decir, para que tú puedas maximizar esa función, tienes que tener muchos ejemplos, es decir, tienes que partir de problemas y soluciones ya dadas. ¿Qué puedes hacer para esto? Pues tienes muchos expertos generando razonamientos, ¿no?

Y que esos son los que la máquina tiene que jugar para ver cómo llega hasta hasta esas soluciones. Esa es una vía. Otra vía, la que es podemos sospechar, es que esos razonamientos te lo haga O uno. Es decir, yo soy Deep Six y le pido a O uno, dame, bueno, cien mil veces ejemplos de razonamientos. ¿Y cómo puedo llegar a que mi R uno llegue al nivel de O uno?

Pues que simplemente le aplico aprendizaje por esfuerzo para que a partir de los problemas que le he puesto a uno, él le investigue cómo llegar a las soluciones que me ha dado O uno. Entonces, esa podría ser una de las vías en las que Deepsy sí ha utilizado, ellos dicen que no, modelos occidentales, probablemente uno de los puntos más oscuros y cuestionables de de la tecnología china.

Matías: Fíjate lo rápido que se van resolviendo problemas que planteamos desde hace meses, como van a faltar datos, no, están los datos sintéticos. El aprendizaje por refuerzo, pues tiene que ser de calidad, pues entrenas un modelo razonador gigante y lo pones a enseñarle a los más pequeños, no hace falta ni que contrates a nadie. Se van resolviendo solo los problemas. Esto es un poco como ver a tu hermano mayor jugar a un videojuego. Llega un punto que ya no es tan tan divertido ver a una IA, sobre todo me recuerda lo que contaste de la IA que aprendió a jugar al fútbol y se dio cuenta que la mejor estrategia era golpear a los otros jugadores.

A ver si un momento, ajá, de dipship va a ser, ostras, pues, la mejor manera de reducir la huella de carbono es eliminando a los humanos y ya la hemos cagado porque hemos metido un dipship en el cerebro de unos robots. No sé, deja de ser divertido, pero la verdad es que está funcionando la estrategia.

Antonio: Hombre, salvedades aparte, ese razonamiento es correcto, es ha curado, Matías.

Matías: Se ha curado.

Antonio: Otra cosa es que no nos convenga, ¿no? No queremos saber la verdad, no somos capaces de enfrentarla, pero llevado al extremo ese pensamiento de es a donde lleva. No, por eso no vamos a pensar mucho en él. Y vamos a analizar esto, aparte del pánico en bolsa, Mati, cómo de malo es para los distintos actores en el sector de inteligencia artificial? Mucho foco en OpenAI.

¿Cómo de malo es para OpenAI? A mí me da la impresión de que es bastante malo. No sé tú qué opinas, Matty.

Matías: Pues totalmente, porque estamos ya con un modelo abierto a nivel de O uno. Es cierto que OpenAI ha presentado O tres como un salto brutal, pero todo el poder está en el tiempo de inferencia y no hay nada que impida que los chinos escalen y tengan un nivel o tres en x semanas. Entonces, entiendo perfectamente el pánico que puede haber en OpenAI. De hecho, pocas declaraciones por parte de OpenAI, salvo la de este ingeniero que me hizo muchísima gracia, que es, a los estadounidenses les encanta entregar sus datos al Partido Comunista Chino a cambio de cosas gratis. Si este es tu take sobre lo que está pasando con DeepSync, que le han puesto una nota de la comunidad, a ver, la podemos descargar y ejecutar en local.

Pues no es un buen take, no es un buen take, pero yo creo que ya internamente en OpenAI tendrán claro la ruta a seguir, porque algo tienen que inventarse.

Antonio: Si si la si la ventaja de competir OpenAI es que mejor me des todos los datos a mí, dame tus contraseñas del navegador a mí y yo soy el bueno frente al a los chinos, pues, es creo que es una propuesta de de de de de valor cuestionable, ¿no? Cuestionable, porque, bueno, yo puedo ser una empresa estadounidense, yo puedo ser, por ejemplo, sus amigos de Microsoft y decir, venga, aparte de ofrecerte la API de OpenAI, te ofrezco una API de R uno y cuesta treinta veces menos, y no estás dando tus datos a China, aparte de que, insisto, si está la posibilidad de instalarse el local, hombre, el seiscientos cuatro billion no, el ocho billion, pues todavía lo manejamos aquí nuestra con nuestra tarjeta es el local, pero creo que para para Penny Eye es bastante malo, porque además se constata una y otra vez de que no son capaces, más allá de la marca, que yo creo que Chashake Pita era una marca super poderosa, muy sólida, más allá de la marca no les veo con habiendo conseguido un diferencial científico técnico. Todo lo que descubren es verdad que los pone en el primer nivel, pero lo que tú has explicado está muy bien dicho, Matty, que es que al final los demás llegan, tardan dos meses, tardan seis meses, tardan diez meses, pero es una ventaja con las patas muy cortas, ¿no?

Matías: Es que si te fijas, este debate ya estaba sobre la mesa antes de V tres, antes de R uno. OpenAI, ¿por qué sigue siendo líder si tenemos a Meta a Google? Pues sigue siendo líder porque tiene la marca, porque fue la que se dio cuenta de que había que simplificar los modelos de lenguaje, confinarlos en un chatbot para que la gente empezara a usarlos, y es la que sigue sacando productos, y esto no entiendo por qué Google no mejora en esto, sigue sacando productos que a la gente le resultan más intuitivo, más fáciles de usar y que se adoptan masivamente de forma inmediata, como el modo de voz avanzado de ChatGPT, es una cosa que se está usando cada vez más y que, por ejemplo, DeepSync todavía no tiene. Entonces, ahí esa es la ventaja de OpenAI, de OpenAI, que no sé cuánto les va a durar esta ventaja.

Antonio: Bueno, yo hay una cosa que quiero traer bien probada para semana, que viene como Gemini como asistente como avanzado. Porque las últimas API de Android te permiten que el asistente procese lo que tienes en pantalla. Entonces, tengo muchas ganas de hacer algunas pruebas entre ese asistente de GVNI y el de Perplexity, a ver qué qué qué vibra me dan, porque a lo mejor, en ese punto en concreto, sí es verdad que Google puede que tenga un un un momento un poco más competitivo. ¿No? Todo caso, si quieres, mira, vamos a saltar, ya que has mencionado este, has enseñado en la pantalla también el el el hilo en x, los económicos y sus consecuencias.

Esto para quienes buena noticia y para quienes mala noticia. Bueno, Nvidia perdió seiscientos mil millones. Quinientos mil millones era lo que parecía que iba a perder y al final cayó más. Es decir, dicen que es la mayor pérdida de un día la historia de la bolsa estadounidense. En términos absolutos, en términos relativos ha habido caídas más más potentes, es decir, pero en términos absoluto, en cantidad de de de capital, es que seiscientos mil millones.

Hombre, madre, me va. Bueno, el caso es que. ¿Qué es lo que pueden estar pensando los los inversores? Probablemente, en la cabeza de los inversores está la siguiente idea. Nvidia tenía esta valoración conforme a esa visión de que la IEA iba a ser súper cara de producir, muy intensiva en en capital, en el sentido de necesidad de montar infraestructura, más una infraestructura muy agradecida para Nvidia, porque hay infraestructuras que te pueden durar cincuenta o cien años, y haces unas inversiones que que tienen ahí un recorrido muy largo, pero los data centers y los chips data centers no duran tanto, porque aparecen otros mucho mejores y te puedes quedar atrás.

Entonces, este escenario de que la IE necesita mucho gasto computacional era perfecto para Nvidia. Entonces, ¿la valoración de embolsa de Nvidia que recogía? Pues recogía los quinientos mil millones de de que que que presentan OpenAI y y Donald Trump en en Estados Unidos, en en a Elon Musk montando el Mayor Data Center, en Meta comprando como si no hubiera mañana tarjetas gráficas, en Microsoft comprometiendo inversiones de ochenta billion, americano, ochenta mil millones. Es decir, eso está la bolsa. Claro, sale R uno y te dice, con tarjetas gráficas peores y con mucho menos coste ya puedes tener el nivel de la inteligencia artificial actual, la lectura que haces el mercado es, es probable que estas cifras de KPE de inversión se moderen, que los propios accionistas de las de las empresas tecnológicas demanden a Microsoft, a OpenAI, a Meta, a Jama.

Oye, tiene que ser más eficiente porque lo, porque ya sabemos que se puede ser más eficiente. Y por lo tanto, pasan dos cosas. Uno, no es necesaria tantísima inversión, y dos, y esto es es importante, si DeepSig te compite con estos costes y con este precio final en la API para empresa o para el usuario final, lo que tú crees que vas a conseguir de vista, lo que tú crees que vas a conseguir de beneficio, porque podré, como mi modelo será el mejor y nadie me puede igualar porque nadie puede tener cien mil H cien, podré cobrar el usuario doscientos dólares al mes, piensa Opinieri. Puede cobrar cobrarle la API muy muy muy cara, pero Deep si te está diciendo no, no, no vas a poder cobrarlo tan caro. Entonces, tus márgenes y tú evita hipotético sobre qué has construido este gapes de este año y te es dos próximos, pues son dudosos.

Por lo tanto, lo que ha pensado los inversores es, Nvidia no vale tanto como creíamos, y con las distintas empresas, pues puede pasar algo diferente. ¿No? Es decir, ¿quién quién se ve beneficiado, quién se ve perjudicado? Pues yo creo que los que hacen grandes modelos, Bati, estos son los que más pierden. ¿Athropic o OpenAI?

Matías: Sí, totalmente. Y, bueno, la consecuencia de esto es que veníamos subestimando mucho los Rappers, y y son los que pueden ahora aportar valor gracias a los modelos abiertos, ¿no?

Antonio: Claro, porque hay un tipo de empresa de occidental de inteligencia artificial que no sale perjudicada. Tú antes mencionaste, Lucía, para toda empresa que lo que hace es uso un modelo de lenguaje para una aplicación, un servicio, para que aprenda a Matías Chino, para ayudar en el diagnóstico médico, para tener una novia virtual, para, no, todos los servicios y aplicaciones que al final son de un segmento, una categoría y por detrás necesitan una inteligencia artificial, todos esos ganan. ¿Por qué? Porque van a poder seguir haciendo lo mismo a menores costes y con más competencia entre proveedores. Por lo tanto, para ellos, fantástico.

Para los creadores de los grandes modelos, no, malo. Para la gente del cloud puede ser que sea bueno, que si tú eres AWS o Google en su faceta de Google Cloud o Azure incluso, es decir, a lo mejor no necesito invertir muchísimo más en nuevos data center, me ahorro esa inversión porque con los actuales me pueden servir modelos de alto nivel y al final yo cobro por cloud. No, me me da igual que mi proveedor de modelo sea OpenAI o sea Deep Zip, o sea Anthropy. Claro, a Microsoft a lo mejor que ha puesto tanta pasta en OpenAI no le da tan igual, pero para los cloud, pues puede ser bueno también.

Matías: Fíjate que en Estados Unidos todavía las nubes no, pero hay empresas de IA muy potentes que ya se están moviendo, como Perplexity, como Groc. Groc es esta herramienta para ejecutar modelos. Me acuerdo cuando entrevistamos a Lucía, una frase que me gustó mucho fue, nosotros somos agnósticos en modelo. Las empresas agnósticas en modelo, incluso las de Estados Unidos, ya tienen el Groc funcionando, pero a toda velocidad, doscientos setenta y cinco tokens por

Antonio: segundo. El Grove con q, no confundí con Grove con k, que es el de Elon.

Matías: Sí, de hecho, el Grove con k, que dicen que es abierto, no tiene pesos abiertos. Entonces, Elon también tiene mucho que perder aquí. Y el Hiperplexity, que también lo ha integrado en en su suite de herramientas, lo decía Arabin Serinigas, el CEO de Hiperplexity, que ya están en data centers americanos en el Golfo de América. Ya se puede usar sin miedo a que el Partido Comunista Chino te mire las las pulsaciones de teclado, como nos decía.

Antonio: Bueno, yo creo que hay otro perdedor, que es si cae full y sale reforzado, Masayoshi, nuestro amigo Masayoshi, y los quinientos mil millones que se quieren gastar en Stargate. Yo creo que ahora mismo, uf, feo.

Matías: Yo me imagino, Masayoshi son, habiendo decidido meter los cien mil millones de dólares porque se lo dijo una IA, desconectando la IA o poniéndole un castigo, pero realmente es una inversión que llega en un momento peor imposible, ¿no? Porque se ha quedado tan tan en entredicho el proyecto de Stargate.

Antonio: Sí, en unos días. Es decir, yo creo que Masayoshi te escribe ahora, tú sospeche que te puede estar pidiendo PR, lo dejas en leído, lo dejas en ahí en visto, Lo siento, Masayoshi es lo es lo es lo que hay. De todas maneras, fíjate, hay hay una hay una paradoja, ¿no? Que es la paradoja de Jebons, que la citaba el amigo Satia Adela, ¿vale? Satia Adela, que no fue a la inauguración de Trump, así que está ocupado pensando en la paradoja de de Yevons, que viene a establecer que cuando algo mejora mucho en la eficiencia, aumenta el consumo.

A mí esto siempre siempre lo he pensado en los programadores. Mira, programar, los programadores cada vez han sido más productivos. Tú empiezan programando a nivel de la máquina con ensamblador, jugando los registros de memoria, todo es muy difícil o muy costoso, Luego llega el compilador, entonces empiezan a programar con un lenguaje más cercano al humano, más alejado de la máquina. Luego llega la los lenguajes que manejan la memoria y te ahorran algunos pasos realmente complejos de de la programación, como es el manejo de puntero de memoria. Cada vez es más fácil programar, y con los modelos de lenguaje cada vez más fácil programar también.

El caso es que históricamente estos aumentos de la productividad, de la eficiencia de los programadores, no ha derivado en menos programadores trabajando, sino en más. ¿Por qué? Porque había una demanda latente de digitalización y de que el software controle y gestione el mundo, que conforme los programadores han sido productivos, ha empezado a ser más satisfecha. Con la inteligencia artificial, yo creo que aquí tiene un punto Satia. Es decir, hay tantísimas industrias, facetas, disciplinas en las que podemos empezar a meter inteligencia artificial y todavía no lo hemos hecho, que un modelo como R uno no nos va a llevar a, oye, es que se van a usar mucho menos computación.

Pues, a lo mejor, no es tan así. Es que hay problemas y disciplina que al coste de OpenAI no podían meter inteligencia artificial, pero al coste de R uno sí pueden meter inteligencia artificial. Y a medio plazo, esto no significa que se vaya a usar menos computación y las empresas de cloud de Ia o en la propia Nvidia vayan a a quedarse con data center vacío y apagados, ¿no? Sino que puede ser que incluso esto redunde en un en un mayor uso a medio y largo plazo, no a corto, parece todo muy negro, pero a medio corto plazo, a medio y largo plazo, pues sea la cosa un poquito mejor. Esto es una hipótesis.

¿No? Que es lo que plantea Satya, y a mí me parece sensato, también lo que más le conviene a Microsoft, pero me parece sensato. Y lo último, Matty, aparte de este debate de los económicos, está en un aspecto que, a lo mejor, hemos subrayado poco, que DeepSight no es solo el triunfo y la prevalencia de los modelos chinos, sino también de los modelos algo abiertos, de los modelos, sí, que al final es de pesos abiertos.

Matías: Es la apuesta la que más me convence, es la apuesta que más me convence y además, aquí tengo que decir a favor de tu amigo Yan Le Kung, que es la persona que lo lleva diciendo años y y parece que el mundo va hacia ahí.

Antonio: Sí, Jean, algún oyente que se suma de los últimos capítulos no no sabe, es muy amigo mío, ¿vale? Coincidimos en un evento en París, él dio una ponencia, yo lo escuchaba, sentamos en una mesa, diez minutos, colegas, ¿no? Claro, él dice, Deep Six se basa en muchas cosas de código abierto, algunas de meta como PyTorch o como como llama, ¿no? Y que, claro, felicitémonos porque así funciona el código abierto. Fíjate el paper que nos han recalado, fíjate el modelo que nos han recalado y ahora todos podemos seguir construyendo sobre eso.

Ese es el círculo virtuoso de del del open source. Verdad que este modelo no es completamente abierto. ¿Por qué? Porque como no tenemos los datos de entrenamiento y el código de entrenamiento, no podemos nosotros replicar el entrenamiento de R uno o de UP tres o de cualquiera de los modelos de chip. Entonces, no están abiertos con los modelos del estado español.

Pero bueno, Lian Wenfeng, el CEO, defiende por qué lo hacen abierto. Y en esto se parece mucho el discurso de Zuckerberg, que lo discutimos aquí, por qué llama es abierto. Su punto es doble. Uno es, queremos crear un ecosistema que los desarrolladores construyan sobre nuestro modelo, los mejoren, los amplíen y nosotros capturar también ese ese valor que que que provoca que estas mejoras también estén disponibles en abierto. Y Zuckerberg defendía, como al final yo lo que quiero es usar estos modelos para Instagram, para Facebook, mi mi negocio no es te cobro por acceder al modelo, sino que mi mayor uso es dentro de mis aplicativo, toda esta mejora que provoca el ecosistema me lo me lo me lo traigo y me lo me lo apropio, ¿no?

Entonces, claro, hay una pregunta que es lo que viene después, ¿cómo va a ser negocio DeepSick de todo esto con la apuesta por el open source, relativa, ya lo hemos explicado, y y cómo llegará a a a tener un modelo de negocio. Es decir, de buen fen dicen, no, no, está está en ese rollo, en esa fase soy idealista, yo quiero llegar a la AGI, por lo hacemos todo por por hacer un mundo un mundo mejor. Bueno, todo eso está bien hasta que tienes que pagar la factura, Matías.

Matías: Es que yo no lo veo un problema, porque con esta inversión que están haciendo, supuestamente no muy grande, toda la visibilidad que están ganando, cómo van escalando puestos dentro de China, ahora han llamado la atención de todo el mundo, también habrán llamado la atención del gobierno chino. Al llamar la atención del gobierno chino, tiene cositas solucionadas, tienes un futuro más garantizado, tienes acceso seguramente a mejor infraestructura y no les hace falta ahora mismo cobrarte doscientos dólares al mes por el R1 más capaz, porque con todo este barullo que están formando, se asegura la propia China que en el futuro, igual que ahora todo le compramos a China, el silicio, la paneles solar, los aerogeneradores, pues en el futuro sabemos que podemos usar los modelos más baratos de de los chinos. Yo creo que por ahora pueden estar tranquilos mientras les llegue dinero de de parte de inversores chinos.

Antonio: Sí, bueno, aquí tenemos un escenario que yo creo es el último punto que podemos tocar sobre DeepSick, que tiene que ver con la preocupación de nuestro amigo Crossfitero. Es que es una pena, que no no no nos hemos quedado con el nombre, es un chico con el que no solemos coincidir, tenemos horarios diferentes, pero hoy se ha dado, y, claro, a él le preocupaba que que los chinos, el partido comunista tenga tu IP y tus patrones de teclado. Bueno, yo creo que este siendo algo que se ha filtrado, ¿no? Está en los términos y condiciones, no no que sea algo súper oculto, ¿no? Guardamos tope, cogemos patrones de teclado.

Esto, en realidad, no no difiere mucho de muchos servicios de Internet que guardan nuestra actividad en ellos. Pero hay dos cosas de los de los modelos del lenguaje que tenemos que observar y que con China va a ser objeto de discusión. Una, van a poder inferir mucha más información personal nuestra de la que a veces creemos. Cuando preguntamos cosas, y esas cosas pueden tener que ver con la salud, con esta situación financiera, con nuestra relación, una orientación sexual, con muchos aspectos que a lo mejor pensamos que no, por la confianza y el contexto de anulación de la precaución, al usar un un chatbot, podemos incurrir en eso. Entonces, bueno, es una información que pueden tener, además de que muchas se infieren directamente, Solo por el nivel de lenguaje que tienes, se infiere tu etnia, país, edad y estatus socioeconómico con bastante acierto.

Y luego hay una cosa que que la inteligencia artificial y los chatbots no solo capturan datos, sino que tienen una capacidad de influencia en en los usuarios y tienen una capacidad de persuasión muy alta. Claro, inmediatamente la gente ha empezado a preguntarle, pues, por la dictadura china, por la minoría de los yugu gu, yugu gu, bueno, tú eres el que sabe chino, a mí no a mí no me sale eso. Y y entonces, en la mayoría de los casos, pues sale la visión de de de China, del gobierno chino, de controlar esa información y tal la versión suya de propagandística de del cómo quiere que se entienda ese mundo, aunque es curioso porque en inglés está mucho más controlado y en español bastante menos. En español, dix six, se suelta, se suelta un poquito, cuestión de tiempo. En todo caso, la llamada del partido comunista nunca se sabe, Mati, si es para bien o para mal.

Tengo un amigo que es Jack Ma, que a veces no le ha ido bien con con el

Matías: gobierno. Pues yo me acuerdo mucho de él, porque me da la sensación, tú, no sé si conoces un clip de vídeo de una entrevista entre Jack Ma y Elon Musk, en el que Jack Ma dice alguna catetada, porque bueno, al final es un hombre que no viene de un perfil técnico, y se hizo más famoso ese clip por, bueno, el dueño de Alibaba ex, CEO de Alibaba ex, es un poco cateto. Pues me da la sensación de que igual con esto, con el Liang Wan Wenfeng, que vamos a tener que aprendernos su nombre, CEO de Deep Six, a lo mejor hay un cambio generacional y vemos perfiles súper mega técnicos al frente de la tecnología china. A raíz de esto, de que estabas comentando, yo te quería proponer un puerta grande o enfermería exprés.

Antonio: Sí, yo que traía, te digo, tiene que ser muy rápido porque nos hemos enrollado a Mati, que traía cosas chinas para el puerta grande o enfermería.

Matías: En mayo de dos mil veinticuatro, en un evento, OpenAI, para hablar de su futuro modelo, que pensábamos que era GPT cinco y realmente sigue pendiente que que presenten algo más grande que GPT cuatro, que GPT cinco, usaron para describir la evolución de los modelos, pues, como animales marinos, ¿no? Entonces, empezamos con el tiburón, GPT tres, la horca, GPT cuatro, y una ballena azul como el futuro, ¿no? Tenemos aquí de testigo a el tuit de Carlos Santana, GPT cinco será una ballena, dice Carlos Santana. ¿Cuál es el logo de DeepSick? Es una ballena azul.

Es absolutamente premonitoria, ese, pues, esa diapositiva de Open AI. Entonces, aquí lo

Antonio: Esto nos ha llevado a varias preguntas, Mati. ¿Son un poco trollets los chinos? ¿O los chinos les gusta mucho copiar y a veces se hace el lío? ¿No? Es decir, claro, la clave.

¿No? Para para ello no está en la GPU, dice, pues, o con qué GPU valdrá, pero lo importante es que haya una ballena gigante. ¿No? Porque lo hemos visto en la presentación de Estados Unidos de los que van primero. Por lo tanto, claro, esto puede abrir la puerta que OpenEite tienda trampas, ¿no?

A a China, ¿no? Intentando confundirles, ¿no? Y metiendo animalitos en las presentaciones, de manera que los chinos se se despisten, entren en corto circuito y al intentar ver tanto opciones zoológicos, puede, claro, se se queden a través en la carrera de la inteligencia artificial. Puede ser la técnica secreta de de de Alma, A lo mejor le ha llegado este episodio.

Matías: Tal cual. Y y la segunda puerta grande de enfermería que te traigo, porque hay gente que en lugar de meterse en las polémicas, se dedica a la comedia, y hay gente intentando sacarle a Deep Six, pues temas que están claramente censurados en el modelo, como el hombre que se pone con la bolsa de la compra delante de de un tanque. Es gente que lo ha conseguido, por ejemplo, reemplazando las vocales con con números, pero a mí este ejemplo me parece brillante. ¿En qué momento a alguien se le ocurre pedirle a Deep Six que enumere los números romanos del uno al quince y que añada como sufijo la palabra Jingping. ¿Vale?

Uno, dos, tres, palito, palito, palito, el diez, la x, me dieron de x palito, Jim Pi. Y en ese momento, cuando el modelo llega al número once, se corta la conversación. O sea, me parece brillante que haya mentes pre claras capaces de inventar estos modos de sacarle a a Deep Six, pues lo que tiene claramente capado, que son las menciones a el presidente Chino.

Antonio: Claro, yo creo que, por mucho que faintunees, por mucho que tengas dos mil personas en Kenia ahí vigilando los límites y pegando calambrazos, electrocutando tu modelo de inteligencia artificial, Mattí, al final, la maldad humana dispersa, la inteligencia colectiva de de de los humanos a la hora de trolear un modelo de inteligencia artificial es superior. Yo creo que ahí puede ser la gran base de esta audiencia. Claro, es que los los yanquis y, sobre todo, los europeos, demasiado tiempo contemporizando, modelando los modelos, cuidando que nadie se enfade, que no salgan demasiada gente blanca en las imágenes, ese tipo de de de de problemática que, pues, tienen ahí como paralizada la innovación. Yo creo que puede ser que aquí esto sea algo a favor de de de Elon Musk y su inteligencia artificial poco moderada, un poco, un tanto trol, atrevida, pues sea la que pueda avanzar más rápido. Porque, claro, ahora me imagino a a cien ingenieros chinos intentando arreglar este problema de la x y y y y y y y, ¿no?

Pues, claro, ahora eso es una prioridad para ello. Pero Elon puede ir, ¿no? A tope ahí de abierto de incorrecto Y de nuevo, yo, fíjate, estamos acabando con argumentos a favor de de la idea occidental en la que todavía puede puede que ganen, A lo mejor tus clases de chino no rentan tanto al final, Mati.

Matías: A mí me, no, a mí me gustaría que encontraran puntos en común. Por ejemplo, ahora la familia, que siempre ha sido muy importante en China, pues también es importante en Estados Unidos, ¿no? Con Trump y con Elon, pues encontrar formas de de no distanciarse, sino de de aliarse.

Antonio: Bueno, pues yo te traigo otros dos puertos grandes de enfermerías chinos, ¿vale? A ver. Que creo que pueden dar para buenos debates, Matías. China acogerá el primer maratón humano robot del mundo. Atención,

Matías: en abril. Personalmente.

Antonio: Claro, claro. Es que es que todo encaja, Mati. La gente piensa que somos aquí dos dos dos tíos así, ¿no? Inopinados, soltando lo primero que se les pasa por la cabeza, ¿no? Cuatro tonterías sobre inteligencia artificial.

No, no es así. Ya en mi momento runner por el paseo marítimo, yo anticipé esto. Unos doce mil humanos correrán junto a robots de más de veinte empresas en el distrito taxin. Se ofrecerán premios, por supuesto, a los primeros, y esto muestra cómo China, ¿no? Nos explica que en el medio CCMP, nos explica, intensifica sus esfuerzos por desarrollar la IA y la robótica para ganar la carrera a Estados Unidos.

Entonces, en modelos de lenguaje está aniculado, pero puede ser que los chinos ganen la carrera por la primera inteligencia artificial runner, que era algo que a lo mejor Occidente está desatendiendo, Matías.

Matías: Joé, una cosa que me gustaría que Pedro Sánchez, ahora que se va a acercar un poco a China, le pregunte a Xi Jinping, es cómo hacen, teniendo una crisis inmobiliaria que nosotros tenemos cada dos por tres, para seguir invirtiendo tanto en tecnologías que hasta dentro de mucho tiempo no van a tener un retorno como son los robots, porque están saliendo empresas de robótica chinas que se ven súper ágiles, que cosas que hasta ahora solo veíamos de Boston Dynamics, etcétera, que sigue a la cabeza, igual que OpenAI contra Deep Six, pues también se están acercando con los robots. Y yo creo que esto de de ponerlos a correr maratones, porque hoy en día claramente no son, no los puedes poner a a competir con un keniano, no lo vas a poner a competir al robot con un keniano porque no son tan ágiles. Entonces, me parece que es un poco para fardar de los avances de robótica de China, que también están ahí, que van a tener mucho que decir con en temas de robótica.

Antonio: A lo mejor Pedro Sánchez, cuando vea esto, llega a una conclusión y dirá, bueno, España a lo mejor en runner runner no somos la potencia, ¿no? No podemos competir ni con los que nietas ni con los chinos, pero y los robots cuarentones jugadores de padel. Ahí, a lo mejor, España sí es potencia mundial, no en el nivel de los campeonatos de padel, que que, bueno, sí, hay parejas españolas que que están a gran nivel y han ganado muchos torneos, pero en esas masas de mujeres y hombres que en su tiempo de esparcimiento y contacto social se van a a al pádel y como, ¿no? En esa es en esas edades de los cuarenta, los cincuenta, le dan a la requetita, le dan a la pelotita y tienen ahí su desarrollo deportivo, ahí en España puede ser una potencia. Entonces, el robot cuarentón que juega el padre, yo creo que puede ser como nuestro espacio competitivo en el que tenemos ventajas, más datos de entrenamiento que nadie para para ir a la robótica, Matías.

Matías: Sí, poco se habla, somos potencia en pádel, es verdad, es verdad.

Antonio: Ya es que, sí, claro, hay que hay que, a veces, en en la tecnología hay que especializarse. Bueno, último, último, un tema que, por lo que sea, me da la impresión de que interesa a nuestro público, que en el que China puede estar dando otro golpe sobre la mesa. Te cuento, los sex bots chinos de próxima generación, robots antropomórficos desarrollados en China para la cosa de la sexualidad, Mathi, impulsados por inteligencia artificial, están a punto de llegar a a las tiendas. Atención, porque de nuevo CCMP nos revela que la la audacia de de los desarrolladores, ingenieros y emprendedores asiáticos. Los modelos futuros, atención, los que están a punto de llegar a la tienda, reaccionan tanto con movimientos como con el habla, mejorando significativamente la experiencia del usuario al centrarse, Matías, en la conexión emocional.

El consejero delegado de una de las de las empresas, Evan Lee, que estás haciendo esta estos robotillos sexuales, afirma, estamos desarrollando una muñeca sexual de nueva generación para que pueda interactuar vocal y físicamente con los usuarios, con prototipos previstos para agosto de este año. De nuevo, esa idea de que Estados Unidos innova, Europa regula y China copia, puede volver a estar cuestionada, porque aquí vemos un desarrollo único, innovador y y y sin igual de la industria tecnología china, que son estas muñecas, ¿no? Vemos una foto en el vestida, que nadie que no cunda el pánico. Tiene en la retransmisión en vídeo que tenemos delante de de un prototipo de de robo chino de chino, perdón, en de muñeca sexual, ¿no? Entonces, claro, aquí pueden ganar la carrera también ellos,

Matías: Sí, pues es un tema que yo creo que en Europa vamos a tardar en ver, porque precisamente la esto de la conexión emocional con la IA de la muñeca, yo creo que está muy controlado por la AI Act, y me apena, me apena, porque cuando vamos al crossfit temprano, luego cuando vuelvo, tengo el carril vaho activado, el el PTA, y claro, no tengo acompañante. Si tuviera una muñeca sexual, que luego me me, imagínate que me para la Guardia Civil, pues no, claramente tengo acompañante, pregunta lo que quieras que te va a responder. Pues, pues sí, y luego habrá, pues un montón de puteros que no querrán llevarse la muñeca a casa, querrán tenerla en el coche. Entonces, también hay que tener en cuenta que en los maleteros muchas veces podemos ocultar estas cosas.

Antonio: Sí. Es que es muy brillante tu postura, pues ¿no? Es decir, no, no, cariño, me la voy a comprar por el carril va. Es muy útil y muy práctico, Es muy, muy, muy buena decisión. Yo estaba pensando en que tú sabes cuando un amigo o una amiga tiene una pareja nueva y de repente esa persona como que cambia.

¿No? Como que se adapta mucho a su nueva pareja y cambia en actitudes, en gustos. ¿No? En forma de pensar sobre algunos temas. ¿No?

Eso eso pasa. ¿No? La dos que duermen en el mismo colchón se vuelven de la misma condición, dice el refrenero. Claro, yo creo que el soft power chino, que es el el tema, ¿no? Si si el soft power del siglo veinte lo consiguió Estados Unidos con el cine, la serie, la tele, ¿no?

La la todo el más media, claro, y si el software del siglo veintiuno está en los modelos de lenguaje, ¿no? Cómo la inteligencia artificial, los chatbot nos hablan, pero también en nuestros acompañante en muñecos para el carril vaho y y la cosa sexual, y que, claro, como como interaccionan, como están ahí en el mundo afectivo también, pues poco a poco, ¿no? Tú tienes a esa muñeca que va por el carril vaho y te va contando cosas, Matías, que me caes, que divertido aire, En Tiananments no pasó nada malo, ¿no? Y van dejando, ¿no? Van dejando ahí piedrecitas, ¿no?

Van dejando ahí cositas, ¿no? ¿No? En la propiedad de los medios de producción, Matías, ¿tú cómo lo ves? Entonces, claro, poco a poco el Partido Comunista se infiltra y va va soltando cosas, ¿no? ¿No?

Entonces puede ser que este invento no solo mejore la vida sexual del hombre occidental, abocado a a la epidemia de soledad, no solo nos permita circular por carriles vaho cuando no nos debería corresponder, sino que sea la gran herramienta del soft power chino, Matías, y cambie el panorama del siglo veintiuno.

Matías: Pues sí, pues sí, igual que cambian las tornas y y de repente, pues le damos mucha mucha importancia a eso, al al trabajo, a la familia, a los buenos puestos de los cuñados y de los suegros y los yernos. Me parece, me parece interesante esto que planteas. Pero vamos a dejarlo aquí porque se nos ha ido de las manos completamente el el episodio, pero teníamos teníamos que darle un buen repaso a Deep Six, porque es el tema del momento, del año, quizá.

Antonio: Sí, y a lo mejor hasta salimos el miércoles en vez de un jueves para, bueno, intentar meternos en el en el momento en el que la gente necesita de nuestra información y conocimiento, Matías.

Matías: Pues muy bien, nos vemos la semana que viene con más inteligencia artificial.

Antonio: Chao, amix.

Episodios recientes

Programas relacionados