Deep Research deja sin trabajo a los ensayistas para que Sam Altman pueda comprarse un deportivo

Paralelismos entre monos y la industria del true crime Sopa de modelos en OpenAI o3 mini y o3 mini high Novedades en Freepik Sam Altman hace un AMA y sube le pan La IA no se hace sola: NVIDIA Broadcast El lanzamiento de la semana: Deep Research El potencial impacto económico de Deep Research La IA que investiga en profundidad sigue siendo un LLM Plagio de plagio entre DeepSeek y ChatGPT Señoras y señores, la AI Act ha empezado a aplicarse millones de dólares para el Open Euro LLM Puerta grande o enfermería
00:00 /1h27

0:00 Paralelismos entre monos y la industria del true crime

3:58 Sopa de modelos en OpenAI

8:54 o3 mini y o3 mini high

16:14 Novedades en Freepik

18:59 Sam Altman hace un AMA y sube le pan

25:53 La IA no se hace sola: NVIDIA Broadcast

28:20 El lanzamiento de la semana: Deep Research

42:26 El potencial impacto económico de Deep Research

47:42 La IA que investiga en profundidad sigue siendo un LLM

52:23 Plagio de plagio entre DeepSeek y ChatGPT

56:00 Señoras y señores, la AI Act ha empezado a aplicarse

1:06:38 56 millones de dólares para el Open Euro LLM

1:14:00 No habrá decreto de licencia de inteligencia artificial

1:15:23 Puerta grande o enfermería

Patrocinador: ¿Lo de Freepik qué sentido tiene? Todas las semanas nos traen herramientas de inteligencia artificial nuevas con las que crear y editar imágenes y vídeos. Con el último lanzamiento ya podemos sincronizar los labios y la voz en nuestros vídeos autogenerados https://x.com/freepik/status/1887189213483020688

Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com

Publicado: 6 febrero 2025

Transcripción


Hola a todos los monos estocásticos, bienvenidos al mejor podcast de inteligencia artificial, según un tuit antiguo de Carla Sofía Gascón. Antonio Ortiz, ¿cómo estás?

Mati, a veces hay personas que se cruzan en tu vida y te abren los ojos, hacen que se te caiga la máscara y, de repente, no puedas sino ver tu propia realidad, y eso creo es lo que nos pasó la otra noche a ti y a mí, Matías.

La otra noche, pues que últimamente quedamos tanto, Antonio, no sé a qué noche te refieres.

Cenábamos con un importante ejecutivo de la industria audiovisual española curtido mil batallas. Y hubo un momento de la conversación en la que el paralelismo era ineludible, en el que se muestran a las claras que a veces los creadores tenemos incentivos perversos y que podemos acabar decepcionando nuestra audiencia. Verás, Matías, en el caso hipotético, por ejemplo, ¿no? Inventemos, de que alguien está en en los productos audiovisuales de del true Crime Sí. Se puede encontrar una situación curiosa, perversa, incluso diría yo.

Imagina que sucede un crimen horrible, terrible más allá de la comprensión del mal que puede haber en el ser humano, en el que fatalmente se rompen las vidas de algunas personas y tú lo constatas, ¿no? Dices, es verdad, qué terrible suceso, qué visión horrible del del mal descarnado, pero a la vez también piensas, y no puedes evitarlo, ¿qué capitulazo voy a hacer en mi serie de True Crime? De repente, le ve el lado no tan negativo de las cosas, pues ahí estamos nosotros, Matías, ahí estamos tú y yo, porque es verdad que la inteligencia artificial tiene ese potencial de alterar nuestro sistema social y nuestro sistema económico, con grandes derrotados y daños que, incluso, puede ser que no podamos proveer. Pero no te sucede, no te ocurre que cuando hay un notición de altísimo impacto, de cambio, de que hay un avance que puede impactar en el empleo y en nuestra propia autoestima como seres humanos, no dices y no piensas, con este capítulo lo vamos a pitar en Spotify. Es decir, no no ves un mundo en el que mucha gente saca perjudicada, pero tú dices, no pasa nada porque Sand Alman, mono estoprácticos y Clarardiscarp seguiremos facturando.

¿No te sientes un poco sucio a veces, Matías?

Sí, es que es que al final nunca llueve a gusto de todos. Es cierto que cuando una, por ejemplo, una policía mata a su novio, pues, para mucha gente, sobre todo la familia de su novio, pues, una mala noticia, pero luego toda la industria que se mueve detrás del true Crime es un tema bastante rentable, por lo menos aquí en nuestro país. Y sí, estoy totalmente de acuerdo, es la nuestra visión con la inteligencia artificial, mientras no se llegue a matar a gente para seguir produciendo documentales de true Crime, mientras la ILA no llegue a perjudicar.

Qué buen punto, Matty, yo creo que con ese listón ético, es decir, que yo creo que incluso nosotros, incluso seremos capaces de cumplir, es decir, no matar por tener más éxito con nuestros productos culturales audiovisuales y de entretenimiento, creo que es una máxima ética que hasta nosotros podríamos llegar a cumplir y y alcanzar, así que me reconforta, reconforta el no haber acabado en en el extremo de la amoralidad absoluta, sino que tener un conjunto de valores, no demasiado exigente, por otro lado, pero que, al fin y al cabo, configuran nuestro ideal del programa.

Vamos primero con los lanzamientos de OpenAI. Tengo que decirte, Antonio, que si DeepSick no hubiera sacado el R uno, dudo muchísimo que esta fuera la hoja de ruta de OpenAI, porque están lanzando una de productos, la están poniendo a disposición de mucha gente, incluso los que solo pagamos esos veinte euros, que parecían mucho en su momento, y fíjate, una décima parte de lo que está pagando ahora mucha gente. Y no paran de lanzar cosas, podemos empezar, si quieres, por O tres mini, que se esperaba para enero y, efectivamente, salió en enero, el último día de enero.

O tres mini, madre mía, hay bastante que contar, y una de las primeras cosas que voy a decir es que para mí no es el gran lanzamiento de la semana. Para mí hay una cosa esta semana realmente especial, realmente potente, de la que, como se dice ahora, sí me ha volado la cabeza, y otras mini estando muy bien y siendo muy interesante, bueno, está un peldañito por debajo. Lo más interesante o lo más importante es lo difícil que es de explicar la estrategia de producto y lanzamiento de OpenEI. Si te parece, vamos a recapitular un poquito para que todos estemos en la misma página, porque esta gente tiene un buen lío montado. Vamos a ver.

Están los modelos GPT, que son los que con los que ha funcionado ChatGPT hasta ahora, el último y el que más usamos es el el cuatro O, es ese modelo multimodal que trabaja con imágenes también. Bueno, perfecto. Entonces, esa es la línea GPT, y luego sacaron la línea de los modelos O. La la línea de modelos O son los modelos razonadores que se toman más tiempo para calcular una respuesta, que tienen esa cadena de pensamientos paso a paso que hemos explicado ya varias veces, y que siendo, pues, más lento, pues, para algunos tipos de temáticas, sobre todo codificación, problemas matemáticos, investigación científica, pues dan mejores resultados que los GPT. Hasta ahí todo iba bien.

¿Qué tenía OpenAI disponible? Tenía los O uno, era la primera versión de este tipo de modelos con una diferenciación, es decir, los usuarios normales, pues, podíamos acceder al modelo O uno, mientras que los usuarios de Pro, los de los doscientos dólares al mes, pueden acceder al Ouro Pro. Hasta ahí era la la película hasta la semana pasada, Matías, ¿vale? ¿Qué es lo que ha sacado? ¿Qué es lo que anunció el loco Opening?

El modelo O tres, con el O tres era ese modelo que lo hizo también el en una de las pruebas más interesantes que le pueden poner en la inteligencia artificial, que era el Art Price, que, digamos, un episodio solo a O tres y cómo cómo lo había resuelto, y que, digamos, prometía que, bueno, iba a ser el el gran avance en la en los sistemas de inteligencia artificial generativa, como uno era razonador, se tomaba su tiempo, pero los resultados eran todavía mejores. ¿Por qué ahora llaman O tres mini a lo que a lo que nos ofrecen? Porque digamos que el O tres grande es tan costoso, se toma tanto tiempo para tomar sus decisiones que parece, o da la impresión de que ni siquiera es rentable ofrecérselo a los usuarios pro, ya veremos cómo cómo lo comercializan y cómo llegan, lo que han ofrecido ahora mismo es el O tres mini. Y el O tres mini viene en distintos sabores, y esto ya es donde empieza a complicarse la cosa. Es decir, tenemos, si tú abres ahora mismo, por ejemplo, yo soy un usuario plus de estos de veinte euros, pues tenemos el O tres mini y el O tres mini high, ¿Vale?

Ajá. ¿Qué significa esto? Pues que este O tres mini es una versión más pequeña del O tres, pero dentro de ser mini le deja más tiempo de cómputo o menos tiempo de cómputo, y por lo tanto tenemos el mini sin más atributos y el o tres mini high, que se toma más tiempo para darte esa respuesta. Por lo tanto, ahora mismo, como usuario hecha GPT, pues puedes ir con los modelos GPT clásicos, ¿no? El GPT cuatro O, ejemplo, puedes usar el O uno, que era de la generación anterior de los O, pero también tienes los O tres mini, pero en dos sabores, que O mini, O tres mini naranja y O tres mini high de limón.

En fin, todo este lío. ¿Por qué lo por qué lo de inteligencia artificial no tenemos éxito en la fiesta, Matías?

A ver, el propio Samanman dice que tienen un problema de naming importante y que como nombran los modelos, al final, yo creo que esto, el, ¿verdad? El problema subyacente de todo esto es que los modelos se empiezan a especializar un poquito. Entonces, ¿por qué el O tres mini es más rápido, es más ligero que el O tres, ese al que le dedicamos un episodio entero, porque daba un salto brutal a nivel de razonamiento y de los resultados que se podían obtener? Pues corrígeme, si me equivoco, pero entiendo que lo despojan en el pre entrenamiento de parámetros de tamaño, de conocimiento para especializarlo en, estaba enseñando antes, unos benchmarks en STEM, que es como se le dice en inglés, pues a las ciencias, a las matemáticas, le puedes preguntar problemas de física, de química, de programación, ¿no? Que es, al final, la mucha de la gente que está interesada en pagar por estos modelos, lo que quiere es obtener ayuda con código de programación.

Sí. Entonces, yo sé que nos oyen muchos oyentes con toga, además de oyentes más técnicos y más especializados en en estas profesiones, como la programación. ¿Significa esto? Que el O tres, ¿Significa esto que el O tres mini es peor que un GPT cuatro O en cualquier otra pregunta que le hagamos? En en mi experiencia, no.

Yo lo que suelo hacer es activar siempre el otres mini high hasta que se me acabe la cuota, si lo que quiero es que resuelva un problema complicado. Y la verdad, como es un modelo que se pasa unos segunditos pensando, suele obtener mejores resultados que con el GPT cuatro o, a pesar de que, para que funcione tan rápido, en esa fase de pre entrenamiento le hayan quitado esta estas otras conocimientos, ¿no?

Claro. Lo que tú dices es un poco también lo que explica OpenAI, que es, al final estos modelos, sean razonadores o no, tienen un entrenamiento de modelo grande de lenguaje al principio, ¿no? Esa etapa de pre entrenamiento para dominar el lenguaje. En esa parte de dominar el lenguaje también está la parte de adquisición de conocimiento del mundo, todos esos textos de libros, artículos, la Wikipedia, etcétera, que se le pone para conseguir las dos cosas. ¿Qué es lo que pueden conseguir con un o tres mini al hacer ese pre entrenamiento más ligero?

Pues, mira, le quito la Aranzati. ¿No? Que antes se la metía entera para que los los abogados finjan trabajar y y y le pregunten todo a HGPT. ¿No? Pues, esto me lo estoy inventando, es un ejemplo, ¿vale?

Hipotético. Entonces, quitando esa parte de conocimiento del mundo, que realmente no es el objetivo de esta especialización de modelos que tú explicas, pues consiguen que luego el modelo sea más pequeño y que a la hora de ejecutarse, pues sea menos demandante de recursos. De hecho, el el overema que que has enseñado es muy curioso porque el otres mini high, ¿no? Que es el tu tu modelo preferido, el que el que más litros de agua y más CO dos produce, de de los que puedes disponer, es decir, curiosamente, curiosamente, ¿no? Tiene una cosa muy interesante para OpenEye y para todos los usuarios, que es que en los benchmark y las pruebas a las que se somete es mejor que el O uno, ¿vale?

Que que es el grande de hace solo unos meses de esta generación de modelos razonadores, pero es mucho más barato, mucho más barato en sentido de muchos menos recursos que que consume, y luego también OpenAI cuando lo ofrece vía API, ¿no? Para los programadores desarrollen sus aplicaciones con con este modelo, pues, realmente, es más económico para ello. Impresiones, yo estoy bastante impresionado, es decir, Otres MiniFi es muy muy buen modelo, es decir, si el nuestro uso es chateador conversador habitualmente con con ChatGPT, pues, a lo mejor, no vamos a ver la diferencia, sino que es un poco más más lento, pero, realmente, a la hora de pedirle ejemplos de vía programar esto, quiero desarrollar lo otro, un problema de matemáticas realmente complicado, es una maravilla. Es ahí hay algo hay algo que nos podemos poner como queramos después de Deep Seak, cómo ha templado Silicon Valley, lo contamos blablablá, pero si tú quieres el mejor modelo, OpenAI, casi siempre, casi siempre la mejor opción. Incluso los fanáticos de Cloud, que lo lo estás enseñando, incluso los fanáticos de Cloud, que son gente como con ideas muy fijas, se lo están pensando, Matías.

Sí, sí, o sea, hay no lo sé porque la verdad es que no no es mi trabajo programar, pero desde hace ya bastante tiempo el modelo favorito de los programadores suele ser el el Cloud tres punto cinco Sonet, y ahora muchos están pasando, o bien a DeepSick, que se puede usar gratis y se puede, lo puedes descargar y y usar en local si tienes suficiente potencia, o a bien a al O3 mini hyte, que es rapidísimo y suele responder y generar el el el software, pues, de de una sentada, no hace no hace falta corregirle mucho, ¿no? Así que, Whymes, un un lanzamiento que por lo menos llega a todos nosotros. En Europa la podemos probar ya si estamos pagando el plan de de veinte dólares. Eso sí, cincuenta, el high son los cincuenta usos a la semana solamente, y OpenAI esto lo tiene bastante calladito, porque lo que han promocionado es ciento cincuenta usos diarios del O3 mini, pero no se refieren al high. Claro.

Se refieren al modelo base.

Esto parece la la lucha por la tarifa plana de Internet, ¿no? Contándote los los kilobytes del JPG, a ver cómo va la cosa, si agapto la tarifa de datos del móvil. Bueno, pues eso empieza a ser el uso de de ChatGPT, ¿no? Que realmente ellos tienen el deseo estratégico de precio de darte algo fijo por mes, que siempre puede ser previsible lo que te vas a gastar en ChatGPT, que tiene sentido, es mucho más cómodo y mucho más apetecible para un cliente, un usuario, pero al mismo tiempo tienen gastos muy variables y tipo de usuarios muy variables. No es lo mismo el usuario que te hace dos mil consultas al mes de o tres mini hype, que es un modelo más costoso, y por lo tanto sería enormemente deficitario a el que, realmente, aunque sea de pago, siempre va con el con el modelo cuatro O, que es bastante ligero, bastante tal y que no no requiere nada más y, por lo tanto, es alguien con el que tienes mucho margen.

Entonces, su problemática es que probablemente son los usuarios más intensivos los que estén más dispuestos a pagar por el servicio y, por lo tanto, porque además tienes una versión gratis, es decir, esta estrategia de precio no es nada fácil tampoco para las empresas de inteligencia artificial acertar con el modelo, Pero, bueno, tienen esta esta esta manera también de decirte cuando llegues al uso máximo del mini hype que tú has indicado, Matías, ¿por qué no te pasas a los doscientos? Porque está claro que le estás sacando mucho provecho es muy importante para ti. Es una manera de hacer un, también un poco de funnel de conversión al tipo de usuario que al tipo de precio que que ellos quieren arrastrarte.

No, si al final voy a tener que dar un salto de fe y compartir una cuenta de doscientos o pagarla yo de mi bolsillo, porque necesito probar cosas de las que hablaremos después. Porque te puedo contar antes, Antonio, algunas novedades en FreePeak. Ya sabéis que FreePick suele patrocinar muchos de los episodios de monos estocásticos, y es cierto que me dieron créditos para probar las herramientas, pero esos créditos que me dieron me los fumé en nada. O sea, yo he pagado de mi bolsillo ochenta mil créditos de FreePick para seguir generando cosas, y es que siguen añadiendo herramientas que a mí me facilitan mucho las cosas, como por ejemplo, esta imagen de Tony Stark. Pues ahora, como yo tengo un lora entrenado con tu cara, ¿cuánto habría tardado con otra herramienta en recortar

la cara de Tony Stark y poner

la tuya? Bueno, ahora lo hago inmediatamente y con cara de Tony Stark y poner la tuya? Bueno, ahora lo hago inmediatamente iconia. También, para felicitar cumpleaños, lo sigo haciendo. El otro día fue cumpleaños de Álex Barredo y generé estas imágenes tan cute del propio Barredo en estilo Pixar Pixar tres D rechonchito soplando unas velas.

Pero, pero te tengo que decir una cosa. Algún día tenemos que hablar de la necesidad de tener creatividad con la guía generativa, porque yo creatividad a la hora de escribir proms no tengo ninguna. Entonces, si yo quiero generar algo realmente chulo, como pueden ser fotos, portadas de de álbumes o o un anuncio de un perfume, me me tengo que ir a a la sección de inspiración y copiar los proms de otra gente. Entonces, me ha pasado una cosa. Por ejemplo, esta foto tuya en blanco y negro ha quedado muy chula y tal, pero luego, claro, he copiado proms como de esta chica que está rodeada de de pétalos de flor, etcétera, un vestido chulo, una foto que podría ser de un anuncio y le he puesto tu cara, pero me olvidé de cambiarle el género a el prompt.

Entonces te ha hecho, pues en una versión femenina, ¿no? Y me ha pasado exactamente lo mismo con fotos mías, también así muy chulas, muy artísticas, pero en la que de forma totalmente accidental he transicionado y he cambiado de género. Por ejemplo, esta foto tuya sería chulísima si no te hubiera hecho, pues, ese cambio a

Claro, si no sabes qué, si yo gana, la la, eso es verdad. Pues estupendo. Yo lo único que te voy a pedir es que no me gusta que me metas en los superiores Mainsteen. Tony Stark, Spiderman, toda esa gente no me cae bien. Entonces, yo quiero que me metas el el spawn, en los image cómics, ¿no?

El la el mundo alternativo de superhéroes un poco por otra vía, en que yo, además, me pueda hacer un poco el interesante. Que esto es una editorial especial, no es como lo que sale en las películas ahí de superproducciones. Entonces, si me metes en ese mundo, yo más más a favor, ya el género te lo te lo dejo en tus manos, que eso es secundario en mi opinión. Bueno, hay hay un mundo de declaraciones que han hecho en un Axt me a question, no es Axt me anything, es el el Coronimo, ¿no?

Anything, sí, los ama de Reddit.

Los ama de Reddit, en el que, bueno, de alguna manera, pues los usuarios de esta plataforma podían preguntar a San Galman y otros importantes miembros de la organización, y en que, en general, el el patrón de preguntas es siempre el mismo. ¿Cuándo vais a sacar nuevas cosas chulis para nosotros? ¿Cuándo nos vais a dar nuevos juguetitos de ella? Ellos dicen, tenemos aquí muchas cosas muy guay que acabamos de sacar, y la gente le pregunta, oye, ¿y cuándo podréis sacar otras cosas todavía un poquito más guays? ¿No?

Es todo el patrón del del del del ama de Rhodit es es ese, Pero bueno, hay algunas declaraciones, algunas cositas que, pues bueno, que sí han sido algo interesantes para ver un poco cómo es el futuro y el roadmap de de esta organización.

Para empezar, la gente se pregunta, ¿OpenAX está tomando en serio la IA generativa de imágenes y de vídeo? Porque ya vimos que el lanzamiento de Sora fue un desastre, que Dali Stav que parece ahí abandonado y no avanza respecto a imagen de Google, pues sí que está en camino un

nuevo modelo de imagen, pero

según Sam Albán, tardará todavía unos meses. GPT cinco, por ahora se están centrando en mejorar GPT cuatro O.

Entonces, ahí yo creo que en el mundo audiovisual se están, yo creo que se tiene que estar pegando con algún tipo de muro, porque si lo que hicieron con Sura fue enseñarlo para mientras ir negociando con las majors la adopción de la herramienta de vídeo, resulta un poco extraño que no haya habido ningún anuncio. ¿No? Universals, compras hora y la va a usar un montón, O Netflix, compra Sora y la va a usar en en estas series. No ha habido nada de eso, ha habido un poco silencio radio, lo cual no suena bien para las pretensiones de OpenAI, a lo que se les escucha mucho más en en la gestión del conocimiento, en los modelos GPT y los O que que que en esto. ¿No?

Entonces, bueno, cositas, pues, Operator llegará al plan plus, está bien, ¿no? Ya siempre contamos que este primer agente importante de OpenAI estaba solo para los usuarios Pro, habrá otros agentes que piensan lanzar. Acuérdate de aquel rumor o aquella noticia que daba Axios de que eran tan acojonantes y probablemente uno de ellos, este, en este episodio, tenía que avisar al gobierno y enseñárselo para para advertirles de lo que de lo que estaba viviendo. Dicen que van a actualizar GPT cuatro O, recordemos que estos modelos son pre entrenados, de ahí el el AP del pre training de de su nombre, y que le van a actualizar a la fecha de entrenamiento. Entonces, el límite del conocimiento estará en junio dos mil veinticuatro y no tan atrás como como está hasta ahora.

Y, bueno, alguna cosa importante, hay una declaración que a mí me ha sorprendido porque le preguntan sobre los modelos libres a San Alma, los modelos libres y abiertos al hilo de Deep Six, ¿no? Vas a liberar algunos pesos, más menos, que sean de pesos abiertos, publicar más investigaciones de del de lo que habéis hecho. Quizá Alma dice, lo estamos discutiendo. Personalmente, yo creo que hemos estado en el lado equivocado de la historia aquí. Sí.

Y que necesitan una estrategia de código abierto diferente, y no todos son open y ahí comparten nuestra visión, y no es nuestra prioridad así, pues, ¿no? Me también, que me reconoce.

Yo creo que es la declaración más importante de Lama, y, de hecho, Mark Zuckerberg reaccionó no en Reddit, sino en Threads, reaccionó a a esta declaración de de Sam Alman y puso, pues, Very Promising, ¿no? Un prometedor, y que estaría bien que OpenAI, que tienen los modelos más potentes, pues, los abriera de alguna forma. ¿Qué ocurre? Que este es el negociado de Zuckerberg, que de repente ha estado un poco en entredicho por, se ha demostrado que China tiene muy buenos ingenieros y que está abriendo modelos como DeepSick, y ahora, si OpenAI, que aunque es un poco tibia la declaración de Samalmann, pero si OpenAI también abre sus modelos, entonces, JAMA realmente tendría que demostrar que se puede poner a la altura y superar a los modelos de OpenAI para que el negocio de los nosotros lo hacemos abiertos, y aquí tenemos esa oportunidad de imponernos porque somos modelos más abiertos, pues ahora tienen más competencia. Ahora, la declaración de esa mala no suena a mañana vamos a abrir otras.

No, a mí me suena varias cosas. Una me suena a a a que para lo lo habilidoso que es para hablar sin mojarse, esta me parece una take fatal, es decir, estamos en el lado malo de la historia. Bueno, así se habla de Hitler y Stalin, ¿no? Se habla de de empresas que son más abiertas, más cerradas, ¿no? Esa take para mí es bastante grave en el sentido de que me da la impresión de que él quiere abrir algunos modelos, pero hay una posición fuerte dentro de OpenAI.

Dentro de esta posición fuerte puede haber dos vías, una es la vía de negocio que te diga, claro, ¿por qué para Meta es interesante abrir los modelos? Porque mientras ellos controlan la distribución, Instagram, Facebook, WhatsApp, que es donde ellos quieren luego ejecutar los modelos de inteligencia artificial, incluso Google puedes puede pensar así también, porque tiene, pues eso, tiene Google y tiene YouTube, Para los que no tienen esa distribución, liberar los modelos es más complicado en términos de negocio. Es decir, llama libera eso y de repente un montón de gente trabaja sobre llama, mejora, llama, le le añade cosas y ellos lo pueden reaprovechar, porque su negocio principal está en las plataformas de Meta. Pero OpenAI, que no tiene esas plataformas donde hacer un negocio diferente, necesita el negocio del modelo de lenguaje, necesita cobrar por lápiz y necesita cobrar por chat GPT, ¿no? Entonces, darlo en abierto para que la gente o o AWS o Azure o o Google Cloud lo ponga a mi disposición de los de los usuarios, pues, pues, para mucha gente de negocio dirá, esto no tiene sentido, y demás, hay otra vía de de de opositores que son la la gente eticista, la gente de seguridad, que piensa que la seguridad por oscuridad, ocultando cómo funciona el modelo, es mejor que la seguridad de darlo en abierto y que todos los investigadores podamos ver qué está pasando ahí.

Es una discusión clásica de la informática, que es mejor la seguridad por la oscuridad o la seguridad por por mostrarlo y que cualquier fallo sea rápidamente detectado. Claro, y

ahí es más fácil ocultar la puerta trasera de la NSA, del Kremlin, del Partido Comunista Chino, si no si no abres el código, pues es más fácil ocultar ese tipo de backdoors.

Bueno, algo que no está oculto, ¿sabes, Mathti? Es todo lo que podemos hacer en local, porque la ILA La ILA no se hace sola, Matti, hay que hacerla.

No te imaginas, Antonio, cuánto me gusta esta sección en la que probamos inteligencia artificial en local con las gráficas de Nvidia, porque descubro cosas que me ahorran dinero. Literal, literal, y ahora he descubierto Nvidia Broadcast. Esto, ojo, lo conocerá muchísima gente, pero yo soy nuevo, yo soy nuevo en esto, soy neófito y me he vuelto fan de esta herramienta de Nvidia para, con inteligencia artificial, mejorar a nivel de audio y de imagen las emisiones en vídeo, las videollamadas, etcétera. Bueno, ¿qué ocurre? Que el otro día me contactó la tele rusa, ¿vale?

Yo no me posiciono, bueno, no me posiciono, está feo invadir países, pero no no me consideráis pro ruso. La cuestión es que yo acepté ir a la entrevista en tele rusa, pero yo en en inglés no me siento cómodo hablando sin un guion delante. Tú sabes que yo el guion nuestro me lo salto a la torera y no no le hago caso. Pero en una entrevista en inglés, ¿sabes lo que hice? Me escribí un guion, me escribí un guion y on online, pon a Nvidia Broadcast, I have being active law at this company for atios siempre, when they seven leaf, A la a la cámara con los ojos, que los ojos siempre estén puestos en la cámara, que respeta cuando parpadeas, etcétera, etcétera.

Y nadie se dio cuenta de que yo estaba leyendo en mi ordenador, en mi pantalla, un guion. Y esta es una de las opciones que tiene el Nvidia Broadcast con inteligencia artificial, aparte de quitar el eco, el ruido, etcétera, etcétera.

Es increíble.

Una herramienta muy chula.

Sí, pues ya sabéis, amigas y amigos, la IAN local tiene estas ventajas, te puede convertir en una estrella del del panorama ruso y, de repente, bueno, si ya alguna vez, bueno, Matías es popular y famoso en en muchos países del mundo, pues, incluso los entornos alrededor del cirílico pueden disfrutar de su sabiduría, etcétera.

Sí, sí, ok. Bueno, lo lo que he dicho al principio, ¿sabes a qué venía? ¿Sabes cuánto pago una herramienta para que nos quite el ruido de fondo, los aviones que pasan por encima de mi casa, etcétera? Doce euros al mes, y con esto es gratis, o sea, y además lo se hace en local, no hay que subir a la nube.

Pero esa herramienta es capaz de quitarte cuando pasa el afilador, señor, ha llegado el afilador, porque aquí en mi barrio pasan alguna vez,

Ojo, ojo, aquí también ha pasado últimamente la afiladora. Se ve ve que la gente ya no tiene para comprarse cuchillos nuevos y los ha vuelto a afilar, porque la afiladora está de regreso, señores.

Bueno, pues vamos al momento estrella. El momento que me tiene a mí hypeado, Matías, tal vez, el que me tiene entusiasmado y en el que me va a hacer un roto en el bolsillo, porque estoy absolutamente decidido a comprarle a OpenAI esta cosita que han sacado, que es el deep research, Matías.

Te he visto te he visto ahí dispuesto a gastarte los doscientos dólares al mes, Deep Research, el nombre es el mismo que el que tiene Google para una herramienta similar, que de hecho hablamos en su momento porque a Antonio le había encantado, pero todas las comparativas que hay de Deep Research de Gemini y de Deep Research de OpenAI sacan victorioso a el modelo O tres. Se supone que esto se basa en el O tres grande.

Sí, sí, sí, este es. Ya por fin hay una parte del uso del mejor modelo de inteligencia artificial de la historia que podemos tocar, probar y y utilizar indirectamente, ¿no? Muy controladito por parte de OpenAI, pero ya está a nuestra disposición. Resumamos e introduzcamos este Deep Research de OpenAI. Bueno, hasta ahora tenemos toda la historia de los modelos que hemos contado para llegar al O3 mini del lanzamiento de esta semana, pero hay algo que también tenía ChatGPT y algo que también te hacía este Google Deep Research, de igual nombre, que es buscarte en Internet y resumirte los resultados de una búsqueda web, en el caso de ChatGPT, ¿no?

Busca un resultado y te y te y te lo resume, o es algo que también hace el copylo de de Microsoft o que puede hacerte perplexity. Es decir, ese es un es un área en el que ya ha habido varios desarrollos interesantes y y bastante valor creado. La búsqueda profunda esta de Deep Research es algo diferente. ¿Por qué? Porque no trabaja tanto como una búsqueda web simple, que coge los primeros resultados, te lo resume y chimpum de una manera más o menos rápida, sino que funciona de la siguiente manera.

Tú le dices qué quieres que te descubra, qué quieres que te enseñe, qué quieres que te narre, y lo que hace Direser lo primero es hacerte unas cuantas preguntitas para aclarar y afinar lo que buscas. Esto tiene su motivación, como veremos adelante, por, pero es muy interesante porque, de alguna manera, es decirte, bueno, no no me voy a fiar solo con tu promp, quiero estar muy seguro, ¿no? De de que de qué temas, con qué enfoque quieres que los toque y, por lo tanto, tú le tienes que confirmar si tira por aquí o no tira por allá, y entonces se le empieza a investigar, ¿no? Empieza la parte de research, y esta parte de research es acojonantemente buena, es decir, hay un, además, muy interesante porque te va como narrando su proceso de investigación, es bastante más transparente que los modelos O uno y O tres que, siendo razonadores, nos ocultan gran parte de ese razonamiento, pero empieza a a investigar el tema que le hemos dado. Entonces, esta investigación y este análisis de la información no es que te responda en veinte segundos, no es que te responda en un minuto, no es que te responda en diez minutos.

Por lo general, los tiempos de respuesta que está viendo la gente gira en torno a los treinta minutos, más o menos de media. ¿Por qué?

Porque no no sé si eran meme o no, pero le pregunto cuál es el sentido de la vida y le contestó, voy a tardar dos semanas en responderte a esto, ¿no? No sé cuál es el límite de investigación, pero se puede ir a a bastantes horas.

Claro. ¿Qué diferencial hay entre lo que hace OpenAI y lo que hacía Google o lo que hace este Deal Reserts con respecto a la búsqueda de ChatGPT? Pues hay dos dos niveles de diferencia. Uno es la cantidad de información y calidad a la hora de buscar las fuentes, que es notable en el caso de Deep Research, realmente está en el nivel de investigación académica, pongámoslo ahí, y dos, que al utilizar el mejor modelo de inteligencia artificial que se ha creado hasta ahora, que es O tres, la capacidad de, perdón por caer en un discurso antropomórfico, pero de comprensión, de conectar conceptos diferentes, de manejar hechos y opiniones difíciles y contradictorias, entre conexiones. Mira, hay una cosa que, viéndolo ejemplo, a mí es lo que más me me ha me ha perturbado, Matías, que te te te voy a permitir esa expresión.

Me ha perturbado en el sentido de que hay una cosa que yo que yo creo que a mí se me da bien, que es la conexión entre elementos realmente muy alejados entre sí, ¿no? Muy, a priori, inconexos, pero en lo que en mi cabeza se establece una conexión de alguna manera. Es como cuando yo te dije que nosotros anticipamos el Trumpismo, ¿verdad? ¿Cómo conecté yo eso en mi cabeza? Perdón porque me voy por la tangente y la gente querrá saber más de Deep Serps, pero el ejemplo de de nosotros y el Trumpismo es que me da la impresión de que el Trumpismo, aparte de otras muchas consideraciones, tiene un un elemento de conexión con cierta autenticidad, de rechazo del político profesional encorsetado en una gestualidad muy ortodoxa y muy repetitiva, en un discurso de de de repetición de proclamas y guiones que que le vienen cocinados y que de repente él repite como otros ochocientos políticos de su misma cuerda y ochocientos periodistas de su misma cuerda, y que todo te da esa sensación de de de, bueno, de sobado, de de de de actuado, de de de falso en realidad, ¿no?

En cambio, con Donald Trump, al margen de todas esas otras consideraciones que podemos hacer de nuestra opinión y valoración de sus posturas y formas, inmediatamente tú entiendes que eso realmente es como mucho más natural, como mucho más asalvajado, como mucho menos estudiado, programado, aunque él esté en alguna medida y y hay una decisión consciente para, ¿no? Basarse y y, ¿no? Tener esa esa esa pose un poco de de chulería fonfarrona. En realidad, creo que el Trumpismo tiene ese punto de que puede generar fuertes emociones en su en su público. Puede haber fanáticos de Donald Trump favorables a él que lo defiendan a capa, ¿no?

A a capa y espada. No no no va a haber el mismo típico de fan de de de Félix Bolaños, el ministro, ¿no? Porque son antagónicos en cuanto a su forma de de hacer la política. Entonces, ¿cómo lo conecto yo esto con monos? Pues que, realmente, nuestro desorden, nuestra manera de narrar las cosas, el irnos por las ramas, la informalidad y y poca profesionalidad de nuestros set de de vídeo, de alguna manera, constituyen una pequeña diferenciación respecto a las cosas muy bien hechas, muy bien estudiadas, más ortodoxas y bien planteadas que vienen con la profesionalidad, y que quizás esto establezca un marco de confianza y de relación por el cual la gente nos compre pescado, ¿no?

Y de alguna manera se mantiene en el podcast, ¿no? Y que hay una corriente de reacción que que es muy patente en Internet, de conexión con este tipo de autenticidad o de de cosas un poquito menos diseñadas y menos programadas. Pues este tipo de conexiones, este tipo de saltos es lo que yo he visto en algunos ejemplos de lo que hace O3 con las investigaciones y peticiones que se le hacen, Matías.

Juan, yo creo que por aterrizar esto, para que la gente que no haya oído de este lanzamiento lo entienda, ya no estamos hablando de un chatbot. Yo sí le pregunto a GBT cuatro qué me puedes decir de monos estocásticos y cuál es su competencia, entre comillas, me va a responder, pues en tres párrafos, incluso puede, tiene la capacidad de buscar en Internet, pero Deep Research me va a responder con un informe de tres mil palabras, con un montón de enlaces, va a hacer conexiones entre ellos y a un nivel que OpenAI dice doctoral o postdoctoral, va a escribirme un informe, pues sobre contra quién compite este podcast, cuáles son nuestras oportunidades de negocio, etcétera, ¿no? Entonces, ¿qué ocurre? ¿Sabés cuál es el primer ejemplo que ha dado Sam Altman en su en su perfil de x? Porque lo antes, al principio del episodio, me habías acusado de usar el O tres mini high, el modelo que más consume, pues para mis cositas de busca errores tipográficos en este artículo que he escrito.

Pues Sam Altman, no se le ocurre otra cosa que, como primer ejemplo de utilidad que él le ha sacado a Deep Research,

la

presentación de Deep Research se hizo en Tokio, y dice, para que veáis lo bueno que es, estoy en Tokio y estoy buscando un Honda NSX, un superdeportivo de los noventa, etcétera. Y no encontraba ninguno, y se me ocurrió pedírselo a Deep Research. Estamos hablando de que Estados Unidos le va a garantizar quinientos mil millones de dólares a este hombre que utiliza las herramientas más potentes de inteligencia artificial para investigar si hay un superdeportivo disponible en Tokio para comprárselo y llevárselo a su casa en San Francisco. Luego, no te quejes de

que yo usé o

tres mil y, claro, mis tareas,

Claro, en en nuestro caso, la primera pregunta está clara, porque compartiremos cuenta, ¿no? Esto es, se va un poco de presupuesto, ¿no? La primera, tenemos que consensuar la primera pregunta de you research. Yo te propongo la siguiente, ¿Por qué se le echa a todo ahora pistacho y a qué más cosas podríamos echarle pistacho que todavía no lo hacemos? Y a ver la la la, ¿no?

El tipo search.

Ha pasado con el Lotus, ha pasado de moda el Lotus. Como te hace unas preguntas de seguimiento, te dice, ¿quieres que el informe vaya sobre esto? Ahí tú tienes que decirle, vale, pero relaciónalo con el tema del Lotus, porque ahora el Lotus está siendo sustituido por el pistacho y no sabemos por qué.

Bueno, pues a mí esto me parece un avance. También he leído un poco la distintas revisiones, las que, por ejemplo, se han hecho en vídeo, nuestro amigo dos CSV ha hecho una, a lo mejor, más más ligera, yo supongo que hará una más en profundidad más adelante. El artículo de Ethan Mollick, que que siempre, bueno, me parece un un divulgador al que merece la pena seguir, me estoy leyendo el co intelligence en ese tipo que que escribió el año pasado. Pero, claro, aquí aquí hay varias cosas. Primero, el usuario normal, entre comillas, no vamos a necesitar de presearch, Es decir, no vamos a necesitar que nos hagan ese súper mini ensayo de más de diez páginas, cuatro mil palabras para cualquier tema que le que le planteamos, ¿no?

Es decir, eso yo creo que lo lo podemos considerar que que es así. Esto realmente, ¿cómo cómo lo podemos ver? ¿Cómo lo podemos enfocar? Pues, realmente se se habla mucho de de que esto es un informe de negocio a la carta, ¿no? Siempre se le ha buscado esa la parte económica, ¿no?

Que que es, pues eso, que es un business report que te puede hacer la inteligencia artificial de repente ahorrando un montón de horas de trabajo de este tipo de de labor. A mí, como veía yo como usuario, que no tengo necesidad de business reports, ¿no? En mi en mi día a día, yo lo veía como un ensayo bajo demanda. Es decir, de repente tengo a alguien que trabaja para mí y en cualquier tarea, faceta, duda que yo tenga, me puede generar un ensayo bien escrito con las fuentes bien atadas, dándome los enlaces de dónde he sacado la información, conectando los conceptos, profundizando, como si yo tuviera un ensayista que trabajara para mí. Hay alguien que dice, alguien que ha dicho, bueno, esto puede ser como el gran rival de la Wikipedia, puede ser, aunque yo creo que la Wikipedia tiene un uso bastante más casual y creo que ese consenso entre humanos tiene un valor que no tiene el el Deep Research, creo que van a ser algo algo diferente, pero yo estoy intentando hilar de de qué caso de uso es el caso de uso de bueno para para Deep Research.

Yo creo que la clave está en que realmente hay muchas cosas a las que ya hay una respuesta clara y realizada y que va a estar en la Wikipedia o va a estar en cualquier artículo, y que eso los chat GPT o la búsqueda de Google no lo van a resolver. Pero hay infinitas preguntas no resueltas, infinitos conceptos no relacionados. Nadie hasta ahora ha resuelto el el dilema del pistacho y el negocio que que podríamos tener por delante, si lo adoptamos mucho más fuerte. Sí. Pues, en esas cuestiones que todavía no están respondidas, que no todavía no están resueltas y que, claro, esta generación de IAs y este modelo tres que nos permite trabajar con la semántica, que no tenemos que darle las instrucciones a un detalle, sino realmente lo que queremos, creo que ese es el gran caso de uso y eso tiene un un valor de de negocio, claro, ahora Alvaremos de la tech de San Altmann, pero tiene una un valor intelectual de trabajo.

A mí me encantaría hacer este siguiente salto, Matías, a ver cómo ves, que es, cada vez que tengo yo una duda sobre conceptos intelectual, poder pedir una forma de add reasearch y que luego me lo convierta en un audio en que me lo cuente de una manera amena y divertida, y de repente tengo esos mini ensayos, ¿no?

Joder. Google lo tenía ahí, Antonio, lo tenía ahí, tenía en Notebook LM el el tema del podcast, que todavía no está en español, tenía el Deep Research, y no ha sacado una herramienta que haya impregnado tanto al mundo como el Deep Research de Open AI, que encima les han copiado el nombre. Mira, el otro día salió un benchmark de estos que salen nuevo, que creo que no hemos llegado a mencionar, porque es bastante reciente, que se llama Humanity's Last Exam, ¿vale? Que hace todo tipo de preguntas, transcribe esta inscripción romana al inglés, ¿no? Bueno, el modelo o tres mini hype del que hemos empezado hablando muy hypeados en este podcast, en este episodio, sacaba un trece por ciento, un tres, un trece sobre cien en el examen, y Deep Research saca un veintiséis coma seis por ciento.

Hay un poquillo de trampa, porque Deep Research le dieron acceso a Internet, pero bueno, todos tenemos acceso a Internet. Yo me he visto francamente amenazado como redactor, como redactor, porque yo no tengo la pluma de Manuel Havoys o quien sea ahora el periodista que esté de moda, pero tengo esa capacidad de conectar distintas fuentes en dentro empaquetarlo, envolverlo, es un artículo enfocado de una forma original. ¿Qué pasa? Que ahora solo lo único que tengo que hacer es enfocar el artículo, porque el artículo en sí lo puede escribir una una deep research, ¿no?

Pero pero, Mati, ahí has dado la take, ahí has dado con con una de las claves, es decir, con esta sensación de profundidad que que nos da deep research, con esto que es es que tienes un departamento de investigación trabajando para ti, el veinticuatro por siete capaz de desarrollar, pero el valor está en saber qué preguntar, el el valor está en saber qué qué hay que que investigar. ¿Me explico? Es decir, esto es la vuelta del ensayista porque yo puedo decirle hazme un ensayo que conecte en la memética de Denet con Simone de Beauvoir y en las teorías del cine negro de Talent, ¿no? Se me ocurre que eso tendría sentido, ¿no? Hacer eso.

Bueno, pues, ¿por qué no es la muerte del ensayista? Porque una gran parte del valor del ensayista es llegar y decirte qué deberías leer, qué es interesante, qué mereces la pena ser contado, que tiene un valor real. Deep Research te puede ayudar una vez que tienes la pregunta, pero la pregunta es lo más difícil, quizás investigar, leer fuentes, documentarte es algo que son horas de trabajo, también hace falta de talento y hace falta capacidad de conexión, como nosotros con Trump, pero básicamente ahí hay muchísimo valor. Y luego hay una una parte de del impacto económico en la que Sand Altman nos ha dejado una perlita. Eso es lo que dice el amigo Sam.

Dice que DIR research puede hacer un porcentaje de un solo dígito, que no no no no muchísimo, pero, bueno, un tres, un cinco, un ocho, un nueve, de todas las tareas económicamente valiosas del mundo. Y claro, tú dices, ¿qué considerarás, Sam, tareas económicamente valiosa? Pues, por ejemplo, seguro que el desarrollo de software o la investigación de mercado, seguro, el diagnóstico médico. Y claro, si DPRCH se hace un porcentaje de un solo dígito, evocamos un ocho por ciento por tener un consenso, si empieza a contar que tiene valor económico reparar un coche o preparar un salmorejo, pues, claro, el porcentaje de tareas creativas y del conocimiento serían más de un dígito, serán bastantes más. El impacto económico, entonces, sí, Sand Altman tiene razón, no es de millones, es de billones, pero de billones latinos, no de pilloons, no de miles de millones, es de un impacto económico brutal, porque si tú estás diciendo que esas tareas las puede hacer Jack de research, de repente hay, bueno, pues un conjunto de de organizaciones y profesionales que si lo adoptan rápido y pronto, pueden tener una ventaja de productividad muy alta respecto al resto de la humanidad y que, si funciona como como dicen que funciona, al final todos acabaremos adoptándolo y utilizándolo.

Es decir, si si la take es apurada, si la afirmación es acertada, aquella aquel agente que decían que tenían que enseñárselo al gobierno primero por el altísimo impacto económico que podía tener, es esto, básicamente.

Es que, Antonio, ¿cuántas decisiones hay a nivel administrativo, solamente a nivel administrativo basadas en informes. Ahora, a partir de ahora, ¿cuántos de esos informes los va a hacer un humano? ¿No? Yo creo que cabe preguntárselo, porque el ahorro de de tiempo y el ahorro económico es es es bestial.

Sí, incluso personalmente. Es decir, hazme un informe de la evolución de sueldos. Por ejemplo, yo pienso en mi hijo que va a elegir carrera universitaria en unos años. Te digo, mira, hazme un informe de la evolución de precios, de sueldos, dificultad de la carrera, oportunidades de trabajo, tasa de paro, etcétera, de todas estas posibilidades que él está considerando. Entonces, en el informe le sentaré con él y dice, mira, esto es lo que dice Tew Research, no va a ser tú más listo que él, ¿no?

Pues él lo has mirado en alma lo que dice, y entonces, pues, pues, pues, te mueves una decisión. De todas maneras, aquí hay un asterisco que que yo lo ponía en Twitter cuando cuando comentaba la declaración de Sam, que es que en el fondo, en el fondo, aquí detrás, muy lejos, sigue habiendo un LLM, Y un LLM sigue teniendo la maldición que apuntaba Jean Lecoont, es autorregresivo. ¿Ese autorregresivo qué significaba? Pues significaba, básicamente, que cuando están generando texto, todo el texto que lleva generado se mete como entrada para seguir generando texto. Es decir, si le está diciendo en un lugar de la mancha, pues para adivinar la siguiente palabra, en un lugar de la mancha vuelve a ser parte de la entrada de ese adivinar la siguiente palabra, eso es un poco la autoregresión en en un LM.

Bueno, lo la la gran duda es si con los métodos razonadores se consigue erradicar uno de los problemas de los LM, que es que cuando cometen un error, cuando se equivocan, cuando la, al meter la siguiente palabra cogen, pues, en un lugar en vez de ir de la mancha, dice, de la Castilla profunda, ¿no? O de de la Asturias patria querida, lo que sea, ¿no? Una vez que te has equivocado un poco, como eso vuelve a estar en la entrada para llenar al siguiente, cada vez te equivocas más. Es decir, una vez que acogió la linde del error, el LM sigue profundizando en el error y cada vez se equivoca más y se desvía más de lo acertado. Esta es la maldición de la autoregresión de los modelos grandes del lenguaje.

Claro, con los métodos razonadores se está consiguiendo erradicar este problema de la alucinación, del error y de que cada vez el error es más acusado conforme, pues IMEZ, si te equivocas en la palabra ochenta de un informe de trece mil, pues ya acogió la linde y acabas negando la virtud del pistacho. Sería un error terrible por parte de Deep Deep Deep Research, ¿no? Bueno, el punto es, y tenía una discusión en Twitter también sobre esto, si los métodos razonadores que ayudan y refuerzan a comprobar lo ajustado y son capaces de pensar sobre lo que se están diciendo, van a liberar del error. ¿Por qué esto es importante? Porque aunque se equivoquen muy poco y cada vez el error se aminó y el el estrés de la humanidad cada vez sea mejor, si no eres fiable siempre, no si no eres riguroso siempre, perdón, no eres fiable nunca.

Es decir, si yo voy a tomar una decisión importante en los ingredientes de una receta, por ejemplo, en la carrera universitaria de mi hijo o en la investigación de mercado que he hecho para mi empresa, es una decisión de ese calado y de esa importancia, y sé que aunque sea mínima la posibilidad de equivocarse del del del three research existe, pues, al final, voy a comprobarlo. Voy a mirar, me voy a meter en la fuente, esta parte que es importante la voy a recomprobar, porque no, no confío exactamente totalmente en la herramienta. Entonces, la ganancia de productividad ya no es tan alta, porque es verdad que me ha hecho el trabajo de tres días de investigación, ¿vale? Y es verdad, me ha hecho, en treinta minutos me has hecho treinta horas de trabajo, lo que sea, pero no van a ser treinta minutos, van a ser treinta minutos más ni cinco horas de comprobación. Ya no es tanta la ganancia, ¿Me entiende lo

que digo? Sí, pero supongamos por un momento que Jean Lecour no tiene razón y que este paradigma actual en el que estamos sí puede llegar a un nivel de razonamiento humano o superior al de la mayoría de los humanos, No dio Deep Six, la semana pasada, en el episodio de la semana pasada, una de las claves de esto, que es ser transparente con la cadena de pensamiento y ver en esa cadena de pensamiento cómo la propia IA se va dando cuenta de los errores y se va corrigiendo gracias a que, en lugar de soltar la respuesta del tirón, le estemos dando minutos, horas de computación para que siga revisando el problema. No es ese el camino, porque ahora OpenAI lo está apostando todo a eso.

Sí. De hecho, es un punto interesante, es decir, hay esperanza en que esto minimice a los errores de los esos modelos de inteligencia artificial generativa hasta reducirlos a un tasa de error admisible. Me decía Juan Lopión en Twitter, bueno, es que si le encargas el informe a un ser humano también se puede equivocar y también se va a equivocar. Por lo tanto, la la parte de no confiar en los resultados de Representage es una cuestión relativa, aquí creo que Juan tiene un punto. Claro, él no lo dice así, pero es, yo lo que necesito no es que Research sea infalible, sea que sea menos falible, menos equivocado que el ser humano al que yo le podría encargar esto.

Y que, por lo tanto, no constituye una mejora respecto a lo que ahora tengo. De todas maneras, hay una cosa muy interesante sobre ser transparente con las cadenas de pensamiento, que es que a Deep Six ha habido una reacción de OpenEye, que más o menos en privado y más o menos en público han dado a entender lo que comentamos. DeepSig nos ha copiado y que dar las cadenas de pensamiento ayuda ayuda a que tu modelo pueda ser destilado por otros. ¿Destilado qué significa? Que utilizo tus salidas para entrenar otro modelo más pequeño y más eficiente que no tenga que pensar tanto, sino que lo tenga todo más.

Marcado. Lo hemos explicado ya un par de veces en el episodio de DeepSeak, bien proyee. Bueno, el punto que dice que puede pensar OpenAI, si con Otres comparto toda la cadena de pensamiento, ¿qué es lo que va a hacer el DeepSeak de turno? Dice, va a coger el prompt de entrada, la cadena de pensamiento y la salida, y con todo eso puedo entrenar mis modelos y luego decir, mira, soy mucho más eficiente que OpenEye, es mucho más barato, pero claro, eso lo consigues supuestamente, presuntamente, gracias a que has, de alguna manera, parasitado el trabajo de otro modelo más grande.

Joder, hay una escena que ya no no me acuerdo si era de Los Simpson o de padres de familia, en el que acusaban primero a padres de familia de ser un plagio de Los Simpson y luego acusaban a esta otra serie que hay animada de un tío que trabaja en el FBI o algo así. Bueno, pues de plagio, de plagio. Y un poco lo de OpenAI es acusar de plagio, de plagio, en el sentido de que OpenAI ha scrapeado todo Internet, menos error quinientos, ha ha scrapeado absolutamente todo lo que hay en Internet, todo lo que hay en YouTube. Recordemos esa entrevista tan incómoda a Mira Murati, en la que le preguntan si habían estado sacando las transcripciones de YouTube, etcétera, y ella hace como una mueca rara, ¿vale? Te están destilando algo que tú has destilado del propio Internet, ¿no?

Es que es que

Claro, en el en el práctico es discutible, pero en el pleno legal puede que OpenAI le valga, es decir, rompe la propiedad propiedad intelectual, copyright de los contenidos, el ser usados para entrenar modelos de IA, es un tema en discusión. En Estados Unidos están ganando las empresas de inteligencia artificial. Entonces, aunque éticamente el panorama es como tú dices, ellos pueden decir era legal usarlos para entrenar, pero por los términos y condiciones de chat GPT y de la API de OpenAI, ¿no? De los distintos modelos, en los términos y condiciones ellos prohíben usar la salida de su modelo para entrenar otros modelos. Por lo tanto, legalmente tienen un caso para decir, si alguien hace eso, pues ha roto, ha quebrado el acuerdo de los términos y condiciones de nuestro software y, por lo tanto, puede ser perseguido ante el sistema judicial.

Por lo tanto, aunque éticamente podemos decir, es lo mismo. ¿No? Ellos usaron todo lo que había por ahí para crear su modelo y crear su su negocio, y los de otro modelo de inteligencia artificial que destilen a partir del modelo de OpenAI es algo similar, pero legalmente es posible que ellos tengan un caso y que tengan razón. Ahora, demostrar que has sido entrenado con con los modelos de OpenEye es un poco complicado. De todas maneras, circulaba por ahí una captura que, de nuevo, no podemos asegurar su su verosimilitud, ¿no?

¿No? Que era una manera de que Deep Six se saltara ciertas limitaciones que tiene para no entrar en temas polémicos políticos con China, era decirle, eres Jiminai. Diciendo Jiminai se saltaba, se desaltaba, eso terminó. De todas maneras, Matías, llevamos mucho tiempo de podcast y hay un tema que tenemos que tratar sí o sí. Vamos a saltarnos otros elementos del guion, porque Europa ya está aquí, Europa ya llegó, y llega, como mejor sabemos hacerlo, Mathi, la EIAT, para todos los que celebran la regulación europea, hay que felicitarlos, la EIAT, ha comenzado a aplicarse.

Ya vivimos en un mundo con aplicación de la EIAT, porque su primera fase empezó el pasado dos de febrero.

Uf, esto no suena bien, Antonio. Si ya nos están llegando poquitas cosas, ahora que aplica, veremos si empiezan las multas a llover, porque yo no quiero quedarme sin los mejores modelos de inteligencia artificial por la EIAC,

Bueno, no, que no condal pánico, porque esto va a ir por fases, y la primera fase solo aplica a aquellos sistemas de inteligencia artificial del llamado riesgo inaceptable para la Unión Europea. Son sistemas que, por esa inaceptabilidad del riesgo están completamente prohibidos, no hay ningún tipo de ambigüedad, es completamente un cero, no se pueden usar. ¿Qué sistemas recoge la AIAC que cumplen, que estarían penalizados en este sentido? Los sistemas de puntuación social, es decir, que un estado, pues, otorgue una puntuación a cada ciudadano en función de distintos méritos, actitudes y y experiencias, la inteligencia oficial para la predicción de delitos en perfiles individuales. Tú puedes, o a lo mejor, tener una zona, decir, mira, en ese barrio más probable que pasen delito, que voy a mandar más a la policía.

Eso no está prohibido por la yarar, pero sí analizar los patrones de movimiento, comportamiento y de Matías ese punto Sabia y pensar, este tío seguro que va a defalcar a Hacienda porque me mete los tickets del taxi de fiesta como gastos de autónomo, eso está prohibido. El reconocimiento de emociones en el trabajo y en la escuela, aquí puede haber un pequeño asterisco, porque tú dices, el chat GPT conversacional recoge emociones, reconoce emociones en el usuario? Fue una de las dudas que tuvimos cuando tardaba en aparecer en Europa. Pues se podría considerar que sí. Ahora hablaremos qué qué pasa.

La técnica de manipulación o explotación de vulnerabilidades y al reconocimiento facial en tiempo real en espacios públicos y categorización biométrica, salvo aquella habrá excepciones que apliquen a las fuerzas del orden la la policía o el ejército. En definitiva, esto sería el conjunto de sistemas prohibidos por la IAC. ¿Qué es lo que pasa? Que, bueno, hablando con gente bastante avezada y experta en legislación y en movidas europeas, pues, al final ellos te explican que las una de las claves que la IAC se aprobó bastante corriendo, porque la presidencia europea española, perdón, de la de la Unión Europea, tenía mucho interés de apuntarse esa medalla. Y que, básicamente, la ley establece, bueno, una serie de principios generales, de compromisos, como los que hemos comentado hace un minuto, pero que deja muchas cuestiones abiertas e interpretables, y que esas cuestiones abiertas e interpretables van a depender de los distintos códigos de buenas prácticas, de los distintos reglamentos que tienen que ir llegando.

Por ejemplo, el que aplica a todos estos sistemas prohibidos, pues se publicó antes de ayer también, y no voy a poder comentarlos con detalle porque lo tengo abierto en una pestaña y todavía no me he podido leer esos reglamentos ni analizarlos con con inteligencia artificial ni nada de nada. Pero el punto es que estas son las dos claves. La IAC tiene plazos, el dos de febrero era, uno, importante, porque tiene estas sistemas de inteligencia artificial prohibidos, y dos, hasta dónde va a llegar y cómo de exigente va a ser y con qué detalle se va a tener que cumplir, va a depender de reglamentos que se están discutiendo y se están cocinando ahora. Y esto es muy importante porque hay otra fecha, Mati, que es el dos de agosto. El dos de agosto empieza a entrar la EIAT, que afecta a los sistemas de inteligencia artificial de riesgo alto, que que no están completamente prohibidos, y los sistemas de inteligencia artificial de propósito general, y aquí entran todos los modelos chulis que nos ajustan a nosotros.

Entonces, claro, el dos de agosto será una fecha importante, tendrá que haber episodio, Mati, para las vacaciones ya te voy anticipando que ese día no puede ser, tenemos que estar ahí de expectativa a ver si se apaga toda la inteligencia artificial en Europa. Los reglamentos que concretarán los principios que ya están en la IEAT, y en la IEAT hay principios como la transparencia de la documentación técnica, de cómo se ha hecho el modelo, la transparencia en los datos de entrenamiento y las exigencias de auditoría de seguridad de los modelos de inteligencia artificial, pues son cosas que tiene la IAC ya hecha para estos modelos de de alto riesgo. ¿Cómo se concreta esa auditoría? ¿Cómo se concreta cuánto detalle de información que tiene que dar los otros entrenamientos? Se está discutiendo ahora con un actor que parece que la Unión Europea está porfiando para que sean lo más ligeros posibles, y esa torre es Francia que quiere proteger a Mistral.

Bueno, tampoco es mal punto, Proteger a Mistral, que es lo mejor que tenemos, pero yo no quiero ser hipócrita, yo no estoy de acuerdo con que todo el mundo tenga armas, y hay quien pensará que es mejor que todo el mundo tenga armas para defenderse.

Entonces,

esa gente, por lógica, pensaría también, queremos sistemas de ella lo más potentes posibles, da igual que puedan identificarte, manipularte, etcétera, etcétera, etcétera, que son los riesgos altos más prohibidos, ¿no? Pero también nos llegan cosas un poquito aguadas que son un poco bluff, como el modo avanzado de voz de ChatGPT, que ahora tiene el vídeo en directo y que tú puedes enseñarle la habitación en la que estás a tu familia. El otro día estuvimos como un dos horas jugando con mi familia a esto, pero todo el mundo acabó decepcionado por cómo se auto limita el modelo. Porque si tú echas GPT y le preguntas qué edad tiene el de la izquierda y qué edad tiene el de la derecha, al final se lo sacas. ¿No?

Y te da una edad aproximada que suele ser bastante precisa. Pero el modelo de voz, con tal de que de no darnos Her, la película Her, de no ponerla en nuestras manos, se autocensura todo el tiempo, todo el tiempo. No puede ni recordar la ropa que llevaba alguien, aunque en la demo de OpenAI era uno de los ejemplos que daban. Recordaban los sombreros que llevaba el otro, etcétera, etcétera. Entonces, que nos lleguen cosas aguadas, pistolas de agua, tampoco, tampoco.

Me gustaría un punto intermedio y yo quiero que la AI Act nos proteja a todos como debe ser, pero que nos dé un poquito de competitividad respecto al resto del mundo.

Claro, ese ese equilibrio es el difícil. Fíjate, el en la parte de riesgos inaceptables en estas medidas que han entrado ya en vigor, creo que probablemente estaremos todos más consenso. Todo tendremos un, estaremos más de acuerdo, perdón, a la hora de decir, bueno, vale, preferimos una Europa en la que no haya ese control social con una puntuación de cada ciudadano y el, ¿no? El Estado esté todo el rato eso juzgándote y otorgándote beneficios o castigos en función de tu comportamiento. No queremos ese tipo de sociedad, bien está que esté prohibido, ¿no?

Pues yo creo que en lo en en esta parte habrá más más consenso. En la parte de las emociones, claro, yo yo lo entiendo que que el objetivo inicial, es decir, no puedo tener un sistema que analice a mis camareros o a los dependientes de las tiendas y que les mida cuánto sonríen y cómo de majos son con los clientes. Es decir, no quiero eso y y para eso tú dices, bueno, pues que no se reconozcan las emociones en el trabajo. Pero luego tú dices, es que para interactuar con una IA, como esta de de las chapetes de voz, si quiero conversar con ella, de alguna manera tiene que responder diferente si soy, estoy entusiasmado o si estoy preocupadísimo, ¿no? Entonces, puede aplicar a estos otros modelos, si uso eso en en la oficina, OpenAI es culpable de de haber permitido esto, porque también en los reglamentos se tiene que sojuzgar una cosa, que es la cadena de responsabilidad, es decir, hasta qué responsable es el que hace el modelo, el que lo distribuye, el que crea la aplicación, el usuario final, cuál es la cadena de responsabilidad de las consecuencias o de la vulneración de las normas, y, de nuevo, la Unión Europea prepara prepara prepara un sistema sancionador que es la la leche.

Es decir, para algunas vulnerabilidades fuerte, dice, oye, hasta el siete por ciento de la facturación mundial, que son con los casos Apple o el caso Google, ha habido varios casos en que la Unión Europea se ha puesto potente y seria con con las big tech, y las sanciones no son respecto a su facturación en Europa ni son multas con un coste estipulado fijo a priori, sino que dependen de la facturación mundial. Si el bocado que te puede pegar a la Unión Europea es es tan grande, entonces es posible que haya un efecto doble, que es tengamos menos lanzamientos en Europa de sistemas de inteligencia artificial porque no se quieren arriesgar, hagan como Deep Seak, es decir, yo lo he puesto. Yo no estoy prestando servicios en Europa ni tengo busco clientes en Europa. A mí que me que me vengan a China a buscar, ¿no? O incluso, pues, de haber escenarios de del del, ¿no?

Del de las startups europeas de inteligencia artificial que diga, oye, si al final mis clientes no están en Europa, pero yo sí, poner, me me renta más irme de Europa. Podemos tener escenarios de de mucho tipo y y, bueno, ya hemos contado por aquí que el momento de la Unión Europea de giro, de la hiperprudencia y de y del, bueno, de de evitar cualquier riesgo problemática, necesitamos competir, necesitamos avanzar, necesitamos competitividad, está siendo patente en los discursos, pero en la praxis tienen esa dificultad de que la AIAC está aprobada y, por lo tanto, ese giro es complicado. De todas maneras, Mati, no perdamos la esperanza porque, ¿sabes qué? Se viene, Se viene el open euro LLM, open euroLLM, de las números PEA.

¿Me vas a tener que explicar por qué estás tan entusiasmado con esto? Porque yo la el clamor popular que he leído de gente europea es cincuenta y seis millones de dólares para la IA. Eso no es nada en en escala estadounidense, ¿no? De, pues

Claro, tú dices, Stargate tiene un poquito más de perras, quinientos mil, dicen, ¿no? Bueno, es que es que depende con qué lo compares. Es decir, este proyecto es para hacer inteligencia artificial abierta, no solo de pesos abiertos, sino con todo el proceso de de del sistema abierto y cuenta solo el gasto en investigadores y no no no he visto el detalle totalmente publicado, pero yo entiendo que este es el presupuesto de investigadores más tiempo de de máquina. No cuenta, por ejemplo, las infraestructuras, porque se van a utilizar, pues algunos de los superordenadores de los de los de los grandes sistemas de alto rendimiento que hay en Europa, como puede ser el de el de Barcelona, ¿no? Entonces, hay que comparar peras con peras.

No se va a gastar el dinero en crear infraestructura, no no, esto no es vamos a crear el superdata center con una central nuclear al lado para hacer el gran entrenamiento de un modelo gigantesco, sino vamos a crear un modelo abierto que pueda estar cerca del estado del arte con investigadores europeos y que se parece más a lo que ha hecho DeepSick que al planteamiento de OpenAI, Google, Anthropic o Microsoft. Entonces, ¿qué posibilidades hay de que esto salga bien? A A ver, yo soy un poco escéptico, es verdad que en Europa siempre se pone Airbus como ejemplo de, oye, una vez lo conseguimos, ¿no? Hicimos esto y y tiró para adelante, pero también tenemos un historial de puffo fracasos públicos nacionales en el sector digital y también en el sector privado digital público, en proyectos europeos que no han ido a ninguna parte y, bueno, no podemos hacer el cherry picking solo ni de uno ni de otros, aunque abundan más los otros. El caso es que, bueno, si el planteamiento es este, mi impresión que lo esperable no es el sota, no es algo que descolle y se ponga por delante de o tres, lo esperable es que esto permita tener un modelo abierto europeo, realmente abierto, utilizable desde cero por todos, y que yo sospecho, o barrunto, que estará en el nivel de entre seis meses y año y medio por detrás, dependiendo de un poco de de en qué momento entremos y hasta dónde lo consigamos.

Y esto es lo esperable, es decir, cualquier otra aspiración creo que es ingenua y la decepción puede venir por el punto de, oye, yo como empresa o como individuo siempre cruzar es mejor que haya. Si hay hay una inteligencia por ahí mejor, es la que voy a tirar, como tú y yo ha reentado de pagar hasta doscientos dólares. Sí. Por por flipado, ¿no? Pero

Yo, mis dos opiniones sobre esto, una te la comenté anoche, no entiendo por qué la lucha ahora encarnizada es por hacer modelos fundacionales cuando está claro que Europa no tiene nada de ganar en modelos fundacionales, aunque sean open source, open waits o lo que sea, porque dependen muchísimo de la capacidad de cómputo y en eso nos dan trescientas vueltas en Estados Unidos. Entonces, igual que Estados Unidos hizo el iPhone y Suecia hizo Spotify, pues se puede hacer una suite de herramientas, porque ya nadie se ríe de los wrappers, porque ahora da un poco igual lo que haya por debajo. Da igual la API que uses o el modelo que uses. El mejor wrapper podría salir de Europa. Esa por un lado.

Y por otro, me gusta ponerme en el lugar de otras personas y yo me pongo en el lugar de mi suegro. Mi suegro llega a Badajoz, caso real, el otro día en Haciendo el Camino, se sienta en el bar y pide un sombra con un pitufo. ¿Vale? Nadie le

entiende,

y le preguntan y le insisten, ¿perdón? ¿Vale? Y mi suegro sigue en sus trece con el pitufo y el sombra, ¿no? Entonces, yo creo que aunque los modelos de OpenAI hablen todos los idiomas, si Europa realmente consigue,

y no

es todo una cortina y gastar dinero público de forma absolutamente ineficiente, consigue que todo el conocimiento, la cultura, la idiosincrasia europea esté reflejada en ese modelo open source. Mola, mola tener ese modelo open source, ese modelo para todos los europeos, porque al final yo creo que habrá herramientas, igual que el paradigma del mixter of expert por debajo de los modelos de lenguaje, pues habrá herramientas que a un nivel más más por encima nos permitan usar de manera totalmente agnóstica todos los modelos para cada uso específico y sin necesidad de elegir en el selector de modelos de Open AI si quiero el mini high o el o el mini normal, ¿no? Entonces, en ese sentido, me gusta que haya un modelo cien por cien europeo, pero no no creo que se pueda competir en el mejor modelo matemático y de programación con Estados Unidos.

Sí, a ellos le tengo la impresión, no sé si ya vamos tarde o no vamos tarde, y que tienes un buen punto, Mati. Es decir, en la cadena de valor de la IA hay una capa de plataforma que los chips es, bueno, una locura entrar, es decir, la inversión para una fábrica de chips, y para tener, además, todo lo que ha desarrollado de valor, bueno, desde el fabricante TSMC, Samsung o el que sea, hasta el que tiene la la propiedad intelectual como Nvidia. Es muy, es la barrera de entrada es brutal, en capital y en años. La siguiente capa de infraestructura, que son los grandes modelos, pues probablemente esté difícil competir en el tener más grande, ¿no? Es lo que hemos hablado antes, o el mejor del momento, pero puede ser un smart follower, puedes decir, llegó unos meses después, lo hago más barato y compito, no en la calidad y en la punta de lanza, sino en en en un mercado un poquito más estable, pero la capa de aplicación y servicios sí hay oportunidades, ¿no?

Por lo menos, las patrocineras free pick, no está en ninguno de los dos mercados anteriores, está en el mercado de la aplicación y servicio. Entonces, ¿qué tiene que conseguir? Pues tiene que tener distribución, tiene que tener una buena UX, tiene que entender el usuario, tiene que establecer bien el pricing, el modelo de negocio, el road, ¿no? Ya empieza a hablar como los como los podcast de emprendimiento, ¿no? Que Cada tres palabras, dos en inglés.

Bueno, el caso es que ahí hay oportunidades para la y a Europa, y que probablemente es donde tenga, si no tienes, pues el sistema de de VCs tan con los bolsillos tan llenos como en Estados Unidos, es donde puedas, de alguna manera, estar. Una última noticia para acabar el podcast y ir a nuestra sección favorita. Bueno, un una parte legislativa que podemos cerrar con que ya contamos en el podcast que Cultura estaba preparando un decreto de licencias de inteligencia artificial. Esto era un poco polémico, porque realmente establecía de alguna manera o planteaba que las empresas de inteligencia artificial podían usar todo el contenido con copyright en España para entrenar sus modelos, a cambio de que hubiera un sistema compensatorio para los creadores, que se articularía a través de alguna entidad de gestión de derecho, tipo cedro, tipo GAE, tipo el que sea. Bueno, pues esta línea de de este decreto, pues se lo van a guardar en el bolsillo.

Esta salida a la consulta pública ha ha terminado con para el Ministerio de Cultura y han retirado la tramitación. O sea, que de momento de esto, nada, aparte, ¿no? Me me explica algún experto de que este esta legislación es un poco sui generis para España, tenía poco sentido cuando en Europa se está intentando armonizar y desarrollar todo de manera conjunta, que es algo que probablemente sea más práctico. Pues con esto, Matías, cierro, cierro el capítulo, nos dejamos muchas cosas en el guion, muy interesantes, pero es que pasa el tiempo y es hora de nuestro puerta grande o enfermería.

Puerta grande de enfermería, ten en cuenta que luego tengo que editar el episodio, ¿qué tenemos? Haz la mejor selección posible, pues llevamos una hora y veintitrés minutos.

Bueno, hay que tener en cuenta que tú paraste para abrir al al repartidor, Sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí,

sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí Entonces, eso voy a tener que quitarlo.

¿Estaba haciendo un deep research, Matías, para algún artículo?

Claro, exactamente.

Yo sé el tema, porque ha habido una polémica con la aplicación porno en el iPhone, ¿no? Ajá. Entonces, esta es polémica porque en la App Store nunca han permitido este entretenimiento para adultos, pero ahora que la Unión Europea obliga a que se puedan usar otras tiendas, esas otras tiendas pueden tener otra política y permitir este tipo de ocio más liberal para para la gente. Claro, tu investigación en qué consistía, Mathy, en que usando la App Store y metiéndote en rey podías acceder a a contenido triple x. Es decir, ya había porno a través de la App Store, lo que pasa es que en una en una plataforma de propósito general que lo permite.

Por lo tanto, ahí estaba tu investigación profunda de Freddit.

Oye, ese es un amigo, que te salva las castañas del fuego.

Ya te dije que di research me me me fastidia porque yo conecto estas cosas. Yo realmente en mi cabeza todo empieza a encajar. Bueno, el Puerta Grande. Vamos al primer al primer caso, Puerta Grande para Matti y su investigación profunda, por supuesto. Bueno, tengo tenemos los primeros de casos de discriminación contra IAs, Matti.

La sociedad ha avanzado, que somos más igualitarias, la las minorías cada vez son más valoradas y buscamos que no sean discriminadas, pero queda un tipo de entes que todavía, hay empresas sin corazón que la la las las persigue, ¿no? Y y y no no les permite ejercer todo su desarrollo, en este caso, profesional. ¿Por qué? Porque LinkedIn ha eliminado las cuentas de los compañeros de trabajo, ¿no? De los coworkers de inteligencia artificial que buscan empleo.

¿Qué es lo que estaba pasando? Pues que, tú sabes que en LinkedIn, pues tú en tu perfil puedes poner, ¿no? Abierto a a a contratarme, ¿no? Estoy buscando empleo, open to work. Ok, pues, claro, hasta ahora todos los open to work eran humanos, ¿no?

Personas que estaban ahí intentando encontrar empleo, pero, claro, LinkedIn ha encontrado al menos dos cuentas, que ya no es solo una, no solo una, sino que incluso dos que estaban creadas con inteligencia artificial y que estaban buscando trabajo. De hecho, se se promocionaron así, no necesito pausas para el café, no me salto los plazos y superaré a cualquier equipo de redes sociales con el que hayas trabajado. Esta era uno de los usuarios que se llamaba ella. Ahí estaba ella, open to world, y planteándote que es mucho mejor que que los humanos. Sin embargo, la gente de LinkedIn ha dicho que sus políticas son muy claras y que esto de las cuentas falsas es una violación de los términos y servicios, y cuando se lo encuentre, lo van a eliminar.

Discriminación de los agentes de IA a favor, en contra, ¿cómo lo ves?

Pues yo creo que está muy bien tirado, está muy bien tirado ofrecer estos servicios por por LinkedIn, porque la gente de LinkedIn, que como diría uno en Twitter, le gusta dar master clases sobre metodologías, Gyle, Kaizen, relaciones públicas, ¿no? Decía uno en Twitter, en un tweet famoso, pues, ¿qué hay más eficiente que que contratar a alguien que que trabaja veinticuatro siete? Porque básicamente no existe, sino que son servidores haciendo cálculos. Pues me parece que en LinkedIn pueden funcionar muy bien.

Ya. Luego, cuando los agentes inteligentes nos quiten el empleo a todos, en LinkedIn estarán llorando y sacarán, atención, lo profetizo, lo profetizo, su marketplace de agentes inteligentes. Irán, no, contrata aquí los agentes porque en LinkedIn podrás verlo, se la envainarán, Matías. Cuando cambien las tornas, ahí el pendulazo llegará y la IA prevalecerá. Así que, bueno, no no tengo yo claro la puerta grande para LinkedIn en este caso, aunque es una plataforma que de la que estoy muy a favor, porque me dieron la la insignia de expertos en inteligencia artificial, lo cual se se lo agradezco, gente brillante e inteligentísima edita todo lo que he dicho antes.

Bueno, Matías, querían invertir en inteligencia artificial, me recuerda al título de la película que empezaba, fueron a por trabajo y puntos suspensivos, ¿no? Bueno, querían invertir en inteligencia artificial y acabaron pagando una boda, atención, porque el FBI acusa al fundador de Game On de falsificar los registros financieros de su empresa en una estafa descarada. El fundador de esta empresa de inteligencia artificial de San Francisco ha sido esta semana acusado de conspirar con su mujer para estafar sesenta millones de dólares a los inversores entre los gastos que desviaron. ¿No? De de de esta empresa de Keyonker, de Gameonker, es una plataforma como de chatbot, que decían que estaban con equipos de la NFL.

Bueno, a los equipos de la NFL y a toda esta gente se la daban gratis para para parecer que tienen clientes, pero se gastaron sobre todo el dinero, por ejemplo, en cosas como pagar una boda o comprarse un un casoplón en allí en San Francisco. Entonces, claro, tú vas a a a invertir en inteligencia artificial, en comprar el futuro, y acabas y acabas con Paquito el Chocolatero, Matías.

Es que para mí esto es puerta grande para los estafadores, porque el problema no es el de los estafadores, no son los que tienen problema. El problema es la industria de las bodas. Es que pagar una boda es cada vez más caro.

Yo me

acuerdo lo que me costó la mía y mis amigos que se están casando últimamente, pues su presupuesto, por lo menos diez mil euros ha subido y diez mil euros en tan pocos años. Yo entiendo que te haga falta estafar a los inversores de ILA, que son, pues los fondos que más dinero están poniendo ahora mismo en cosas para poder pagar una boda. Es que si no, no puedes pagar una boda.

Es verdad, son a la vez culpables y víctimas, no no, no he comprendido. También te digo yo que con como está el inmobiliario, si tú coges ese casoplón y lo divides en habitaciones para estudiantes chinos que van a a ver qué está haciendo Penny lo posicionas alrededor de la IA. No habrá más rentabilidad ahí que en todas las empresas de IA, que al final son un wrapper intentan que creas que te está descargando ChatGPT, pero te está descargando el suyo en la en la tienda de aplicaciones? ¿No habrá más rentabilidad y habrán pegado el pelotazo? Yo ahí echaba cuentas como inversor, porque a lo mejor ahí está la ganancia,

Pero es más fácil para China ir a espiar a Estados Unidos que para Estados Unidos ir a espiar a China, porque en China ni alquilan ni venden extranjeros. Entonces, ahí con esa barrera de

entrada, pues

ya es mucho más difícil ser un espía en China.

Sí, sí, sí, tienes toda la razón. Bueno, pues puerta grande para los, este, hasta ahora, feliz matrimonio, probablemente esté en una situación un poco más problemática por culpa del FBI. Te dejo el último, Matías.

A ver.

Ya lo anticipamos. Son malos tiempos para los dumeristas, los apocalípticos de la inteligencia artificial. Ahora se lleva un poco el aceleracionismo, el ir a tope, la Unión Europea se suma a la a la fiesta y toda precaución parece futil, inútil. Sin embargo, todavía, en este mundo de los más prudentes y precavidos, quedan voces que señalan y proclaman cual profetas del Antiguo Testamento la injusticia y el peligro que se nos viene encima. Y tienen sus argumentos, Mati, pero probablemente muchos de estos argumentos hayan sido destruidos por un amigo del podcast, por Masayoshi Son.

Verás, el CEO de SoftBank estaba en una conversación con Sean Alman muy larga, muy larga, yo no la he visto entera porque son son gente un poco intensa, un poco pesados, ¿no? Hay que hay que reconocerlo, y hay una take de nuestro gran amigo Masayoshi, que que te deja te deja pensativo, Matías. Atención, él dice, aunque las emociones de la inteligencia artificial serán útiles, ojo, eso no significará que la IA quiera comerse a los humanos. Es decir, no tendremos inteligencia artificial que quiera devorarnos y comernos, porque su fuente de energía no son las proteínas. Jaque mate, jaque mate.

Muy bueno, es muy bueno, porque este hombre pone sobre la mesa temas de los que nadie estaba hablando. Es muy bueno, es muy bueno.

Y de lo, también es muy bueno la cara de San Galman, es decir, ellos, Masayoshi te ha dado las perras. Está bien, ¿no? Claro. Va a Japón porque tienen allí como un anuncio de una iniciativa entre soft bank y open y ey para hacer cosas japonesas, ¿no? Y y además Masayoshi dijo que la AGI, él pensaba que iba a llegar en diez años, después dijo que iba a llegar en dos o tres años y ahora en este evento se viene arriba y dice, no, no, no, va a llegar antes de dos años y que la AGI se anunciará primero en Japón porque él está poniendo las perras de la AGE.

Entonces, en Japón será la primicia. Pero, claro, Shanga alma escucha todo esto y se siente con la cabeza, ¿no? Está ahí aguantando el tirón, pero, claro, cuando te sueltas, ¿no? Dice, voy a tranquilizar a la gente, que no cunda el pánico. La inteligencia artificial no te va a querer comer porque no le sirven tus proteínas y que ahí has tratado la take definitiva para hundir ya a las posiciones más de los eticistas más inamovibles, que ya se quedan sin argumentos, Matías, ya se quedan sin argumentos.

Es que tal cual, además, ¿qué cara vas a poner si el hombre delante te ha dado cien mil millones de dólares? No, pues le vas a dar la razón. Igual que anoche, invitabas tú a cenar, yo quería otra ensaladilla rusa, no una sola, pero no te lo voy a decir porque invitas tú a cenar. Te doy la razón en lo que le has pedido al camarero y ya está.

A mí me recuerda cuando, por ejemplo, eras pequeño y te llevaban con unos tíos segundos lejanísimos que eran ya súper ancianos y que, ¿no? Estaban allí, te ponían una merienda que no era tu merienda habitual, ¿no? No era tu merienda favorita, ¿no? Eran eran dulces como arquetípicos y perdidos en en el tiempo, sin sin lotus, sin pistachos, sin nada de de cosas ricas de estas, y tú estabas allí, aguantabas el tirón de la de la hora y media de conversación de del de de la tarde, y en el fondo también estaba el incentivo de que te acaban dando veinte duros. Entonces, de alguna manera, era un un una atención y un y un comportamiento dócil, pero interesado también, ¿no?

Entonces, yo creo que, a lo mejor, San Alman nunca le llevaron a a comer dulces típicos con sus tíos a pueblos lejanos del pueblo, pero Ara él sí tiene la experiencia de de de esta vivencia, ¿no? Es una riqueza también en la vida.

Pues nada, un un rato divertido que seguramente pasó Sam Alman en su pensamiento interno porque no lo exteriorizó, y no solo también que lo hemos pasado muy bien en este episodio. La nos nos van saliendo episodios ya de horita y media, pero yo creo que el usuario está contento, el oyente está contento.

Sí, piensa que podría ser un podcast de historia, que sería mucho peor, serían ocho horas para cómo se preparó el ejército de la batalla de Lepanto durante dos días.

Para que luego te lo haga el Deep Research, te lo hace en treinta minutos

del país. Exactamente, de verdad.

En fin. La semana que viene seguimos, señores, un abrazo.

Chao,

Episodios recientes

Programas relacionados