¿Cómo funcionan los nuevos modelos o1 de OpenAI? Prepárate para tener tremendos flashbacks de los episodios sobre aprendizaje por refuerzo y Q-learning, esto va a ser un viaje interesante.

monos estocásticos 1x22 | Entender el aprendizaje por refuerzo para que los drones con IA no ataquen a sus dueños https://cuonda.com/monos-estocasticos/entender-el-aprendizaje-por-refuerzo-para-que-los-drones-con-ia-no-ataquen-a-sus-duenos

monos estocásticos 2x14 | Qué es el Q-learning y por qué el proyecto secreto Q* pudo causar el cisma en OpenAI https://cuonda.com/monos-estocasticos/que-es-el-q-learning-y-por-que-el-proyecto-secreto-q-pudo-causar-el-cisma-en-openai

Nos quedamos sin trabajo gracias a NotebookLM de Google y su nueva herramienta para crear podcasts a partir de cualquier cosa, incluso la factura de la luz.

Además, estamos hartos de Yuval Harari. Tranqui, Harari https://www.parentesis.media/tranqui-harari/

Patrocinador: Nos hemos quedado dormidos en mitad del episodio gracias a los colchones con la mejor tecnología de muelles ensacados y viscoelástica. Te llega en 24 horas y puedes probarlo sin compromiso durante 100 días https://morfeo.com/

Vente a vernos al Sun&Tech en Málaga el 24 de septiembre https://www.diariosur.es/sunandtech/

Y te recomendamos este podcast: "Cuidado con las macros ocultas", un podcast mensual sobre tecnología para las empresas con los mejores expertos, de la mano de Cuatroochenta https://cuatroochenta.com/podcasts/

Autorresumen

En este episodio, Matías y Antonio discuten sobre las lecciones aprendidas de la inteligencia artificial y su impacto en la vida cotidiana. Reflexionan sobre la desconexión que puede generar la IA y comparten experiencias personales sobre su uso. Además, analizan los nuevos modelos de OpenAI, o1-preview y o1-mini, sus capacidades de razonamiento y cómo se comparan con versiones anteriores. A lo largo de la conversación, también abordan las limitaciones de la IA en el razonamiento y la importancia del humor en la tecnología. En esta conversación, se exploran las limitaciones y avances de los modelos de lenguaje, especialmente en el contexto de OpenAI y su nuevo modelo o1. Se discute la importancia del aprendizaje por refuerzo y la cadena de pensamiento en la inteligencia artificial, así como las implicaciones éticas y prácticas de su uso. Además, se reflexiona sobre el futuro de la IA en España y las innovaciones en aplicaciones de IA que están cambiando la forma en que interactuamos con la tecnología.

0:00 Intro
3:19 Experciencia paranormal con ElevenLabs
6:08 Novedades de OpenAI
7:14 Modelos o1: un nuevo capítulo para la IA
11:07 Razonamiento y aprendizaje
21:00 La Comedia y la IA
22:31 Doctorados y la IA
26:56 Descansando con Morfeo
29:07 Experiencias con o1
42:15 Entrenamiento de modelos o1
53:43 El Futuro de la IA
1:03:03 Innovaciones en el Podcasting
1:07:20 Pamplona es el futuro de la IA
1:10:00 Harari es un pesado
1:19:18 Reflexiones finales sobre o1

Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com

Transcripción


Hola a todos los monos estocásticos, y bienvenidos a este podcast de inteligencia artificial. Una vez más, Antonio Ortiz, ¿cómo estás?

Bueno, Matías, vengo con la cabeza baja. He recibido varias lecciones de humildad porque me he dado cuenta de que demasiada inteligencia artificial te aleja de la gente auténtica y de verdad, Matías, del contacto frío y duro de la realidad.

Digamos que vivimos en una burbuja, ¿no? Como se dice en Twitter, ¿no? Twitter es una burbuja, pues la inteligencia artificial de algún modo también. Pero ¿qué te qué cuál fue el disparador de este pensamiento?

Mira, he tenido dos escenas esta semana que que me han hecho pensar así. Me encontré con un oyente del podcast, en un concierto, en un concierto de El Niño de Elche. Ajá. Y fue muy amable, me saludó, va a todo el del podcast, va a ir con su chica. Y yo le confesé una cosa, que estaba allí en el concierto agobiado porque recién acaba de sacar OpenEye, el modelo del año, el o one, o one, o uno, volvemos a tener nuestros sistemas.

Y yo, claro, me emocionaba la idea de estar por la noche ahí probándolo y dándole caña, pero, claro, tenía el concierto y y ahí ella estaba socialmente. Y luego vino una una otro día, otra noche, una una buena amiga, enfermera a cenar a casa. Esta amiga de una ellos, la pareja son una una pareja de amigos muy querido, y ella me y ella me soltó que no veía forma de aplicar la inteligencia artificial que tuviera sentido para ella, que la veía totalmente ajeno. Esa esa pregunta me desarmó porque yo empecé con los ejemplos típicos, ¿no? De oye, mira qué bien, porque puedes puedes hacerte un novio virtual o puedes hablar con un PDF, ¿no?

Yo intentando usar mis mis armas, pero no, no la convencí en absoluto, Mati, ¿tú tú tú crees que pueda hacer?

Lo más es que a una enfermera es complicado, ¿no? Porque qué qué trabajo hay más físico en el sector sanitario que una enfermera, ¿no? Tener que aplicar un torniquete a un hombre que llega de repente, pues desangrándose, no lo sé. Yo, mira, tengo una anécdota de anoche mismo. Yo en la inteligencia artificial te diría que ha superado a los actores en en comedia, en nivel de comedia.

Bueno. Mira, yo me voy a dormir normalmente con el kindle, pero últimamente lo que hago es pongo los auriculares en la mesita de noche y le doy al play a la aplicación de Eleven Labs que te lee artículos. Tú le chutas un PDF o un libro o un o un artículo, en este caso en un artículo. ¿Qué pasa? Que se le va la olla muy frecuentemente, sobre todo a los a las voces en español, que por cierto, toda esa apellida nos borne, le han puesto Os borne a Martín Os borne, le han puesto las voces en español.

Y cuando se les va la la olla pueden pasar varias cosas, que empiece a tartamudear, te te te te te te te te te te te te te te. ¿Vale? Eso es un poco coñazo, pero anoche me pasó una cosa que es que empezó a jadear. ¿Vale? Es que excava leyendo un texto, se le va la olla y empieza a hacer como en medio de un texto técnico, sobre, de hecho, era sobre O uno, el modelo nuevo de OpenAI.

Y claro, me entra un ataque de risa increíble, eran las once y media de la noche, mi mujer había logrado conciliar el sueño y cuando a mí me entra la risa que no puedo contenerla y que empiezo a agitarme de risa, pues evidentemente mi mujer, pues me da en la cabeza y me dice, ¿qué pasa? Que quiero dormir, que mañana trabajo, mañana madrugo, ¿no? Entonces yo creo que ya a nivel de comedia la inteligencia artificial, por ejemplo, ya está un paso por delante de de los actores de voz, ¿no?

Qué bueno, Mati, porque puedes estar dando con la skill app que que convenza a las enfermeras y a los aficionados a conciertos de Nillo de Herche a a abrazar la inteligencia artificial, puede ser un un paso más en este en este porque hoy tenemos el modelo grande, uno de los modelos grandes del año, lo vamos a recomendar a fondo, y puede ser una de las cosas también, esta esta parte cómica de la IA, de la que tratemos en un eventazo al que vamos tú y yo, Mati, el veinticuatro de

septiembre. ¿Estáis todos invitados? Creo que las inscripciones son gratuitas, si no me equivoco, pero están están limitadas aquí en Málaga, el martes veinticuatro de septiembre estaremos Antonio y yo. Me hizo mucha gracia la publicación del diario Sur en en LinkedIn sobre este evento de San And Tech, porque ponía algo así como con Bernardo Quintero de Google, con Joaquín Cuenca de FreePeak, Conchita Díaz de Google también, y luego a Antonio Ortiz y Matías Zavia de monos estocásticos, ¿no? Estamos ahí en la cabeza de cartel de LinkedIn, que a mí es una cosa que me parece surrealista, pero nos han puesto, Antonio, antes del cóctel.

No sé si eso es bueno o malo.

Bueno, yo creo que es un una buena posición, porque si eres el último, ¿no? La gente se puede ir, ¿no? O después de comer, la gente puede llegar más tarde. Pero si ya dicen, bueno, a cambio de una cerveza gratis me quedo un poco más, pues yo yo creo que sí, ¿no? Que es cuando ahí la gente tiene un un un extra de motivación y yo creo que es una posición bastante buena que convierte, además, al resto de la ponente en nuestros teloneros.

Atención a Bernardo, Alchegado, estás tocando techo, telonero de mono del costo clásico, ponlo en tu LinkedIn. Y bueno, estaremos acompañados por la magnífica y estupenda Nuria Triguero, periodista de tecnología y economía en en en Diario en Diario Sur. Y ya sabéis, no os lo perdáis, os podéis apuntar en la propia web del periódico veinticuatro de septiembre por la mañana en Málaga City.

Pues nada, vamos con el episodio. A ver, Antonio, tú estabas preparándote para ir a El niño de Elche a a que haga su música experimental, Flamenquita, y de repente llega, bueno, ya se venía rumoreando, de hecho, de information había sacado que era inminente el lanzamiento, saca su primer modelo razonador, ahora me vas a explicar cómo funciona esto a nivel interno, aunque hay episodios de monos estocásticos donde profundizamos bastante en este tema, y lo mejor de todo es que por fin OpenAye lanza algo que directamente ha podido probar todo el mundo que tiene la cuenta de pago, tanto en la API como ChatGPT Plus. Esa es la buena noticia, por fin.

Sí, sí, sí. Claro, hay gente que pensará, mejor noticia sería si se lo ponen a los gratis, pero, bueno Ya llegará,

ya llegará, han dicho que ya llegará. De hecho, el despliegue bastante rápido, en tres horas lo tenía todo el mundo. Yo creo que yo fui el último, me estaba volviendo ya absolutamente loco mientras tú estabas ya en el concierto, y y nada, a las tres horas terminando el despliegue y todo el mundo que paga el plus ya ya puede probar. O uno preview y o uno mini.

Vale, pues, mira, vamos a ir muy poquito a poco, vamos a ir con nuestra audiencia de la mano para que el que haya estado totalmente ajeno a este lanzamiento, pues, se pueda empapar de todo y vamos a llegar desde, bueno, qué se ha puesto sobre la mesa, hasta cómo se ha hecho y qué podemos esperar de cara al futuro. Pues, tenemos nuevos modelos, eso es la noticia, las has comentado tú muy bien, son los modelos O uno, vamos a a a a estandarizar la terminología, y eso significa que cuando nos conectemos a ChatGPT y empecemos a utilizarlo, o vía la API, si eres un programa de vía la API, si eres un programador, pues ahora hay un conjunto, dos familias de modelos. Los GPT cuatro, es la última versión, que que son los que ya conocidos, que son los que hemos con los que hemos estado chateando y utilizando durante los últimos meses y años, y que tiene también su versión gratuita y que podemos probar gratis, con el cual como el último de ellos. Que por cierto. Sí.

Que por cierto, O uno directamente se llama así sin el GPT, OpenAI O uno, O uno. Esto me recuerda cuando Justin Timberlake, que en la película de Social Network le dice a Mark Zuckerberg, no lo llames de Facebook, drop de d, ¿no? Que quita el d, pues lo mismo, quita el GPT. Y ahora, la verdad es que OpenAI se ha plantado por delante de unas posibilidades de naming bastante más simplificadas que con el GPT cuatro, ¿no? Porque empezamos de nuevo con un O uno, que por ahora sí lo tenemos en preview.

Pues eso, pues tendremos, tú tú, cualquier otro usuario de ChatGPT, pues los gratuitos, pues te siguen teniendo lo que tenían hasta ahora con los GPT cuatros y los que son usuarios de pago pueden elegir, ¿no? En el en el desplegable de elección del modelo entre los que tenían hasta ahora, los GPT cuatros, y los dos nuevos. Los dos nuevos son el O uno preview y el O uno mini. ¿Qué diferencia hay entre ambos? Pues que el O uno preview es el grande, el gordoco, el más importante y más potente, y el O uno mini es una versión más ligera de ese modelo.

¿Por qué el O uno es preview? Porque se supone que es una versión que anticipa hasta dónde llegará, es una versión incompleta y no acabada y finalizada del todo. Así que, hay margen de mejora en lo que hasta ahora ofrece. Ahora bien, están bastante capados, aunque seas usuario de pago, Mati, no puedes usarlo de manera tarifa plana, indiscriminada, nada de eso.

Bueno, de hecho, en el lanzamiento estaban todavía más capados, habían puesto el límite en treinta, treinta mensajes a la semana, treinta indicaciones a la semana para el O uno preview y cincuenta para el O uno mini. Las han ampliado, sobre todo para el mini, el milling le han puesto ahora cincuenta al día, lo cual está bastante bien, porque ahora hablaremos, el mini a veces razona igual de bien que el O uno directamente, Y y al O uno preview lo han dejado en cincuenta mensajes a la semana. Han ampliado un poco los límites, pero se ve que esto es carísimo. Tener a los modelos razonando tiene que ser muy caro, porque el despliegue por ahora bastante lento, y también en la API más caro.

Sí, sí, sí, sí. Bueno, esto, como veremos ahora, tiene que, lleva bastante el coste de el entrenamiento a la inferencia. La inferencia es cuando el modelo, cuando le le haces una petición ya en producción, te genera la respuesta. Ahí es bastante más caro que los modelos anteriores. ¿Cuál es la base y o el planteamiento o la utilidad valor de estos modelos?

¿Qué hacen diferente que hayan justificado este cambio de nombre y este lanzamiento por todo lo alto, por de cara de OpenEye. Pues, la propia empresa explica que la clave de, o el hecho diferencial de este modelo respecto a lo anterior es que pasan más tiempo pensando antes de responder, pensar siempre entre comillas. ¿Para qué? Porque están enfocados, o la idea es que puedan razonar sobre tareas mucho más complejas y pueden resolver problemas más difíciles, sobre todo en el ámbito de las ciencias, la programación y las matemáticas. OpenEye, de hecho, tiene un tiene un montón de benchmark, pruebas, ejemplos, en el que presumen de que en exámenes, sobre todo de física, de biología, de química, pues tienen el nivel de hasta los doctorados, luego hablaremos de esto.

Y que en el examen clasificatorio de la Olimpiada matemática, mientras GPT cuatro O resolvía solo el trece por ciento de los problemas, es decir, de problemas, no de cálculo de cuentas, sino de problemas matemáticos bastante difíciles, por ejemplo, para la para la olimpiada matemática, este modelo, los O uno, con su capacidad de razonamiento tuvieron un ochenta y tres por ciento de aciertos. Claro, esto significa que no que los modelos O uno sean mejor en todo, sino que en estas tareas que requieren mayor pensamiento, mayor capacidad de organizar la información, pues, realmente, sí marcan una diferencia respecto a lo que teníamos antes.

A mí esta forma de presentarlo me echó un poco para atrás, porque yo no soy científico, como se suele decir, pero luego le he visto ventajas a a estos razonadores que no tenían en GPT cuatro a un nivel práctico para mí. Es decir, yo no voy a estar, a lo mejor cuando lo pruebo por primera vez, pues le meto un problema de lógica para probar a ver si tiene alguna respuesta mejor que GPT cuatro, pero no voy a estar en mi día a día intentando inventar nuevas ecuaciones matemáticas ni descubriendo proteínas ni ni algo de ese nivel. Entonces, pensé, pues, ¿para qué quiero realmente el el O uno preview? Pero luego sí que le encontré ventajas, así que ahora luego más tarde te contaré algunos ejemplos.

Sí. Fíjate, yo creo que para para la gente más leída de de de de cositas como la de Kaneman, pensar rápido, pensar despacio es un libro que yo llevo años y años recomendando, es un es una maravilla. Bueno, Kaneman plantea que que el ser humano y su inteligencia funcionan con dos sistemas, El sistema uno es todo aquello que podemos hacer, bueno, empieza a simplificar mucho, él lo cuenta mucho mejor, pero viene a ser aquello que podemos hacer en automático, sin mucha implicación del yo cociente y con grandes dosis de automatización y tuición, hay un montón de cosas que el ser humano hace que son esenciales para nuestro funcionamiento y que funcionan con este sistema uno, desde retirar hasta conducir cuando lo tienes automatizado hasta, ¿no? Responder muy rápido a algo. Entonces, ese es el sistema uno, mientras que el sistema dos es todo aquello que nos, toda aquellas acciones de la inteligencia que necesitan pensar de forma consciente, planificar y resolver, pues, paso a paso.

Entonces, resolver un puzzle o resolver un crucigrama o un problema matemático implican este sistema dos. Básicamente, lo que OpenAI está diciendo es que teníamos, pues, eso, modelos de lenguaje que con el sistema uno automático de la conversación podían funcionar bien, pero que ahora van a a enfocar a los modelos O uno a funcionar, pues, con este sistema dos de la inteligencia ciudadana, con esa parte de de un problema difícil, entonces lo lo organizo, lo pienso y voy paso a paso resolviéndole.

De hecho, puedes ver cómo funciona, porque puedes desplegar

la

cadena de pensamientos que ha tenido el el modelo de lenguaje y y verle un poco las tripas. Es es bastante curioso, evidentemente la respuesta tarda mucho más en generarse, porque está pensando, dependiendo de la pregunta que le hagas, puede estar pensando siete segundos, diez segundos, veinte segundos. Hay gente que ha intentado llevar eso al límite y han recibido tremendo baneo de OpenAI, pero puedes puedes hacer que piense durante bastante tiempo y luego desplegar para ver exactamente cuál ha sido la cadena del razonamiento para llegar a la respuesta. Lo han solucionado, por ejemplo, este este modelo que no lo hemos dicho, es el que llamábamos en los rumores el Strawberry, ¿no? Y uno, el primer problema que OpenAI ha enseñado en vídeo es preguntarle cuántas erres tiene la palabra Strawberry, porque GPT cuatro, a día de hoy, si le sigues preguntando cuántas erres tiene Strawberry, te dice que dos, pero tiene tres.

Entonces, de hecho, a GPT cuatro tú lo puedes corregir y en el siguiente, en la siguiente respuesta ya llega a la conclusión de que tiene tres. Esta es una, esto es por cómo tokenizan las palabras los modelos de lenguaje. No sé exactamente de qué manera, pero razonando este modelo llega a la conclusión directamente de que tiene tres erres.

Así no podemos impresionar a las enfermeras, más de la inteligencia artificial. Es como decirle, mira, qué gran hallazgo que en dos mil veinticuatro tenemos una Iatán list que es capaz de contar las r dentro de una palabra. Asombroso, Te quedas con el torcido. Bueno, claro, para los de inteligencia artificial, esto sí tiene cierto mérito. ¿Por qué?

Porque hasta ahora los modelos grandes de lenguaje, como tú bien dices, es una de las tareas que peor resuelven, dado que, básicamente, funcionan con tokens y no con palabras, no funcionan con letras. Al final, el lenguaje se matematiza y en esa matizización, de hecho, podríamos decir que no son sistemas que adivinen la siguiente palabra, son sistemas que adivinen el siguiente token. Cuando matizamos el lenguaje en tokens, pues no hay una identificación de un token por palabra, sino por conjunto de caracteres. Es una palabra muy grande, pueden ser más de un token, una palabra chiquita puede ser un token, los espacios, los caracteres, todo está ahí codificado. Entonces, como no funcionan realmente con palabras, sino con una versión matematizada del lenguaje en el que no hay correspondencia entre token y palabra, les es muy difícil realmente pensar en términos de, en esta palabra voy a analizar cuántas rs.

Pero dicho esto, ¿qué diferencias hay entre O uno preview y el O uno mini, Matías?

Bueno, el mini es mucho más pequeño y las respuestas que te das son mucho más rápidas y desde que han ampliado los límites es el modelo que vamos a usar más tiempo porque el otro está muy limitado, ¿no? Sí.

De hecho, hay hay una cosa que defiende OpenEye, que es que aunque el mini sea más rápido y más pequeño, es mejor en tareas de programación. Luego vamos a ver un poco un poco de eso y vamos a ver, hay hay una un un elemento de de por qué se llaman así, y es que recordemos que OpenEye publicó los cuáles son los niveles que nos van a llevar a la AGI. Recordemos, la AGI, la inteligencia artificial general, es decir, una aquella que no esté constreñida a una sola disciplina, como un chat GPT que solo domina el lenguaje, o y, perdón, que tenga el nivel de la competencia humana. Básicamente es un poco las los dos elementos de, bueno, este término de agi, que cada uno a veces lo entiende como como mejor ve. Entonces, la nueva nomenclatura viene a ser que los modelos que tengan un uno, estarán en el nivel uno hacia la agi.

¿Por qué? Porque los niveles hacia la AGI empiezan con los chatbots que dominan el lenguaje natural, que sería el nivel cero realmente. Ahí sería chat GPT. El nivel uno, pues serían los razonadores, es decir, que pueden aplicar las, bueno, depende de cómo lo cuenten, ¿no? Es decir, que es el nivel dos, si empezamos contando el uno en vez de cero.

Bueno, el caso que el siguiente nivel serían los razonadores que tienen capacidad de aplicar la lógica y resolver problemas a un nivel humano, y en teoría estaríamos ya ahí en ese siguiente nivel, luego vendrían los agentes inteligentes, es decir, la capacidad de rehacer rehacer, de realizar acciones de forma autónoma, luego vendrían los innovadores y luego vendría algo que podría hacer el trabajo de una organización entera. Entonces, esos serían los niveles hacia la AGI de OpenEye y la OSC, de la nombre de la propia empresa. Así que así tenemos la nueva nomenclatura de los modelos de OpenEye. Pues estamos

bastante abajo todavía, si el nivel cero o uno, según quién lo, quién haga la nomenclatura, era ChatGPT hasta ahora, y el nivel uno barra dos son los razonadores que acabamos de recibir, todavía nos queda camino por delante para llegar primero a los agentes y luego a IAs que realmente puedan innovar y a IAs que realmente puedan organizar o que puedan gestionar una empresa entera, ¿no? Sí, extrañamente,

yo veo que OpenAIQ puede estar un poco equivocada porque no tienen la comedia en ninguno de los niveles, Matías. Es decir, puede

suceder transversal, ¿no?

Problemas de la Olimpiada de matemáticas, y eso sí cuenta. Pero, ¿hace buenos memes? ¿Qué qué nivel de lol consigue esta inteligencia artificial? No está recogido.

Sí, claro que se suele decir que el porno es lo que hace avanzar la tecnología, ¿no? El, pues, Internet, el Blu-ray, todos estos formatos. Y en la inteligencia artificial en general, ha sido más el meme, ¿no? Por sobre todo porque hay muchos filtros para conseguir una imagen pornográfica con inteligencia artificial, pero el meme es lo que nos hace avanzar en esta industria,

¿no? Entonces, yo creo que ahí le falta un asesoramiento cómico a a Open y a E, porque pueden ir hacia una inteligencia artificial demasiado seria, de que vale, que es que es Aji nivel cinco y tal, pero, ¿y las risas qué? ¿No? ¿Qué tiene que ver? El hormiguero broncano, a eso nos abocamos.

Para eso no estamos metido en la inteligencia artificial, para acabar ahí, no puede ser. Entonces, en todo caso, bueno, aquí lo dejamos, si si hay algún oyente de OpenEye que que que vaya tomando nota. Y vamos a hablar de el verdadero nivel al que llegan los ONU, Matías, porque yo he sentido lo mismo que tú, Mati. Yo he sentido que de repente me dicen, oye, esto tiene el nivel de un doctorado. Y yo me he preguntado, bueno, ¿qué qué puedo preguntarle yo que esté a la altura de esta guía?

Es decir, me siento un poco intimidado, ¿no? Decir que le puedo decir que cuente letras. Pero bueno, después de eso, ¿qué? ¿No? ¿Qué qué más podemos hacer?

Entonces, esto de tener un doctorado a tu disposición, a mí me resulta una preocupación, Mati. A ver si los doctorados en verdad no son tan útiles. Porque yo he estado toda esta semana diciendo, ¿qué le puedo preguntar a un doctorado? ¿Qué le pregunto? Y y no me surgen, no me surgen los temas.

Piensa que ahora en un avión cuando alguien diga, algún doctor en la cabina, puedes levantar la mano y decir, yo pago por chat GPT Plus y tengo acceso a los modelos Oguno, que son de nivel doctoral.

Claro, un juego de bien, que que que buen remate. Es decir, a partir de ahora podemos ser esa persona que levanta la mano en la en las emergencias cuando van va a morir alguien. Bueno, a

mí te te digo te digo totalmente en serio. Yo no me acuerdo de cómo eran los benchmarks anteriores, pero es que me da la sensación de que cada vez que hay un modelo nuevo, no solo de OpenAI, saca Xei, un Grog nuevo, saca, meta un llama nuevo, saca Google y un Gemini nuevo, siempre me da la sensación de que estos benchmarks todos son los mejores, todos están por encima del ochenta por ciento, Y ahora, de repente, resulta que no, que este O uno es el que de verdad, por primera vez tiene el rendimiento de un, pues, un doctor o una persona que se está doctorando en una algún conocimiento, alguna rama del conocimiento, pues habrá

que creérselo. Claro, hay dos cosas. Una, cuando defienden que, o uno, obtiene muy buenas calificaciones y son asimilables a lo de un doctorado, realmente, no están diciendo, esto es equivalente a tener un doctorado al lado tuya. Simplemente, es que el modelo es igual de competente a la hora de resolver problemas que se esperaría que pudiera resolver también un doctorado. Es decir, es como no tener la inteligencia realmente de un ser humano del nivel de un doctor, sino que es una inteligencia artificial con otra inteligencia muy diferente, pero que es capaz de resolver los exámenes que resolvería ese doctor para recibir el doctorado.

O sea, si me explico, es decir, hay hay un salto entre tener un doctorado y tener uno uno, así que lo en lo del avión, a lo mejor, hay que hay que pensárselo. Luego, es curioso porque mientras que en física, matemática, biología, lógica, química, Se saca la chora o uno, es decir, es muy fuerte. En otros aspectos, como la escritura, no mejora a GPT cuatro, ¿sí? Para nosotros, que trabajamos mucho más con el lenguaje, con problemas muy difíciles, es un poco lo que hemos mostrado antes, realmente, en el día a día, probablemente, no nos sea muy práctico pasarnos a O uno, porque, básicamente, tenemos que GPT cuatro, a la hora de escribir y procesar textos, es igual de competente. Es decir, todo esto de razonar mucho paso a paso las respuestas, no es algo que mejore el trabajo de escritura.

Yo aquí voy a discrepar. Voy a discrepar porque llevo toda la semana usándolo uno, y le he sacado partido. ¿Cómo le he sacado partido? Porque a mí no me importa la calidad del texto que genere, yo voy a reescribir el texto que genere. A mí lo que me interesa es coger, por ejemplo, artículos científicos o un montón de de textos muy largos, reportajes, etcétera, chutárselos y hacerles preguntas, hacerle a este modelo preguntas complicadas que GPT cuatro, en mi opinión, respondía peor, como por ejemplo, añade este artículo que te estoy pasando más información a lo que ya teníamos antes, y ahí te hace el razonamiento y llega a un resultado mejor que GPT cuatro, en mi experiencia super intuitiva, sin ningún tipo de rigor científico.

O, por ejemplo, le paso un artículo que yo he escrito y le pregunto, ¿hay algún error factico factual? ¿Hay algo en lo que me haya equivocado? No a nivel gramatical, no a nivel ortográfico, sino que hay algo en lo que me haya equivocado a nivel de lo que estoy explicando que no sea verídico y también me me está dando mejores resultados que GPT cuatro. Entonces, yo creo que esa esos diez segundos de razonamiento a mí me están ayudando a a obtener mejores resultados de Chat GPT,

Pues te voy a contar experiencias, pero es que estoy ya un poco un poco cansado, son son muchos minutos seguidos hablando de de los O uno y antes de contarte mi experiencia, creo, Mati, creo que necesitamos un descanso.

Pues mira qué suerte tienes, Antonio, porque tú tienes en tu casa un colchón Morfeo que vuelve a patrocinar este episodio de monos Estocásticos. Morfeo punto com. Lo hemos contado muchas veces, pero es que de verdad es el colchón que tenemos y el descanso es inigualable para las ventajas que te da la empresa, como por ejemplo, una prueba de cien noches. ¿Quién te ofrece mandarte el colchón a casa, probarlo durante cien días y si no te convence, al día número cien devolverlo y que te devuelvan el dinero?

Bueno, ahora tienen un código, el código cole, que te dan un descuento, que te dan una rebaja extra a la rebaja ya, a todas de los precios, es decir, que es un momento perfecto la vuelta al cole para renovar el colchón, pues, además de eso, tienes esa prueba que, además, en mi opinión y en mi experiencia, el lo que ha permitido vencer la resistencia a comprar un colchón por Internet. Porque siempre eso de el colchón hay que probarlo, pues bueno, qué mejor probarlo en vez de cinco minutitos en una tienda que no tienes es, no sabes cómo has descansado, pues un mes entero en casita.

Pues nada, en veinticuatro horas tenéis el colchón Morfeo en casa, ahora mismo con un cuarenta por ciento de descuento con el código cole, pruébalo cien noches y si no te convence lo puedes devolver sin ningún compromiso. Morfeo punto com patrocina este episodio.

Pues, Matías, te traigo tres experiencias de con O uno que que nos van a ayudar a calibrar, junto a la tuya, el nivel de los nuevos modelos. Una que me interesó fue la, pues, lo que lo lo que escribió Ethan Molyk, que es un profesor y divulgador de inteligencia artificial, y que había tenido acceso al modelo, pues, semanas antes y había jugado mucho con él, ¿no? Hay un aspecto que él destaca, que que es el cambio de cómo se trabajaba con los modelos anteriores, cómo se trabajaba con O uno. Como ahora la inteligencia ante un problema complejo va a idear la estrategia, los pasos que hay que dar para resolver el problema por ella misma, sin nuestra ayuda, eso cambia un poco cómo funcionaba con GPT cuatro. Es decir, a GPT cuatro le damos tareas muy atómicas, muy pequeñas, y nosotros íbamos haciendo las fotos grandes, ¿no?

Como el el proceso global de resolver la tarea más compleja. Ethan dicen, bueno, es que ahora le planteas el problema complejo y ella se busca la vida, se limita a hacer lo suyo y a darte una respuesta. Te puedes dibujar un poco de cómo ha llegado esa respuesta y eso es importante, pero, claro, ya es como como usuario, ahora juega un papel menos importante. Es menos importante la inteligencia del usuario a la hora de conseguir buenos resultados con la IA, lo cual a esa, pues, les crea cierto desasosiego. Y luego, con todo este tema de las matemáticas, me llamó mucho la atención que había un un usuario de Twitter que le pidió a a GPT, bueno, a los O uno, perdón, que hiciera los deberes de la clase más difícil de Harvard, matemática cincuenta y cinco.

Acertó en esos deberes, atención, el noventa por ciento de las veces. Yo ahí me sentí bien, porque es que nadie piensa en el sufrimiento de los estudiantes de Harvard, Mati. ¿Tú cuántas veces has visto un servicio? Dice, mira, vamos a ayudar a los a la gente de Harvard con sus deberes, porque con GPT cuatro, si estás en tercero de la ESO, ¿no? Puedes hacer el el trabajo de de que te toque de la célula de la planta, ¿no?

Que es de la célula de la planta y GPT cuatro te hace gran parte del trabajo. Pero la gente no estaba pensando en ayudar a los estudiantes de matemáticas de Harvard, pobrecillos, y menos mal que que ha llegado el modelo O uno para para ello.

Claro, y esto es lo mejor que puede hacer Texas Instrument, o quien sea que fabriquen las calculadoras hoy en día, es chutarles el O uno preview para que los estudiantes de matemáticas cincuenta y cinco, que me imagino que ya vienen de cincuenta y cuatro clases anteriores de matemáticas, puedan hacerles estas preguntas en los exámenes. No sé si al llegar a ese nivel se sigue pensando en hacer chuletas o ya directamente, pues demuestras los teoremas en tu cabeza para para resolver lo los asuntos del examen, pero empieza a haber un punto en el que una persona como yo, que hace mil años, que no hace ni cálculo ni álgebra, podría abrir sus apuntes, que los tengo ahí en el en la terraza, en un cajón, podría abrir sus apuntes de esas asignaturas y empezar a resolver ejercicios, y cuando me quedo atascados, pues pedirle pedirle ayuda a alguno de estos modelos, O ahora, por ejemplo, me estoy planteando estudiar chino y digo, yo con treinta y cinco años tengo la plasticidad cerebral para aprender chino, para aprender esos caracteres tan complicados, pues a lo mejor si me apoyo en la inteligencia artificial, acabo con un nivel doctoral, ¿no?

Bueno, madre mía, aquí dando clases de, podemos por fin sacar el el mono aristocástico chino, Matías. Bueno, hablando de de de ser muy listo en matemáticas, me he dado cuenta de una cosa, que si vas al al mundillo de la IA profundo, la gente espera que se manifieste en temas de IA y matemáticas el amigo Terrence Tao. Terrence Tao dicen que es el matemático vivo. Es decir, literalmente, ¿no? Como lo compartía alguien en Twitter, el más dotado que que, atención, ha probado GPT O uno y ha dado un veredicto.

Además, yo creo que Terrence Taau verdaderamente tiene que ser un una eminencia matemática porque usa Mastodon. La gente que usa Mastodon está muy segura de sí misma, ¿no? Es decir, los demás abandonar sus sus lugares habituales de Internet, dejarán Instagram, dejarán Twitter y vendrán a leerme a mí, a mí mismo, porque soy muy especial, muy muy particular, a a más todo. Entonces, esa confianza a mí me me refrenda que este tío tiene que ser un un una eminencia matemática, ¿no? Entonces, bueno, él dice que que es una mejora clara para la la matemática respecto a los modelos interiores, porque hasta ahora, los GPT cuatro de la vida, Cloud, o o Llama, eran como un estudiante de de posgrado realmente incompetente.

Eso era hasta ahora. Y con un par de iteraciones más, integrando alguna herramienta, es decir, que que este este sistema de O uno pueda llamar a, pues, a otros sistemas y otras utilidades matemáticas, ya ve que está alcanzando el nivel de estudiante de posgrado competente. Terrence es bastante exigente y ya ha dado un poco esa esa bendición de que allí el nivel de estudiante de doctorado matemático nivel está inminente. Y yo te puedo compartir también mi experiencia de Mati, y he tenido dos dos casos, ¿no? Dos cosillas en las que, digo, voy a intentar poner a prueba esta capacidad de razonamiento de los own.

Primero, le pregunté el el problema de la teoría del caos y el libre albedrío, qué relación tiene entre ellos. Y te tengo que decir que se hizo un poco de lío, ¿vale? Se hizo un poco de lío porque, básicamente, confundió la impredecibilidad, que es algo consecuencia o que sabemos a partir de la teoría del caos con que, como no podemos predecir, seguramente habrá libre albedrío, lo cual no es correcto, y tú puedes tener un tema impredecible que no somos capaces de saber cómo funcionará exactamente en el futuro, pero que sea completamente determinista. Entonces, le tuve que corregir, Mati, la intención. Tuve que decirle a uno, oye, tranquilo, resuena un poco más.

O sea, podríamos decir que podríamos decir que uno está al nivel de un Matías que hace trampa en el examen de cálculo, pero todavía no está al nivel de un Antonio Ortiz que se acuesta con un libro de filosofía,

¿no? Bueno, es que justo estoy leyendo el libro canónico Teoría del Caos, entonces no no tengo ningún mérito, es básicamente la todo el tema del libre albedrío y teoría del caos que me he metido de de de paranoia esa este este este curso. Pero bueno, el el caso es que yo quería tener esa satisfacción, Mathi, el decir, bueno, la ILA se está haciendo muy lista, pero todavía le puedo señalar con el dedito una cosa. Eso me produjo una gran satisfacción. Entonces, le dije, bueno, yo yo sé que esto es muy difícil y yo también quiero creer en el libre albedrío, así que seamos amigos.

Entonces, fue una una bonita reconciliación entre o uno y y y yo, ¿no?

Cuidado que ahora tiene memoria, a ver si luego te coge un rencor o lo que sea.

Claro, porque puede ser un poco a lo que ha restado, ¿no? Que crecer muy lista y muy especialista y a ver luego qué qué le dicen, ¿no? Y luego, mira, le le hice una prueba, que es la la que con la que yo siempre juego con los modelos de lenguaje, ¿no? Que yo creo que cada divulgador, cada analista tiene su su pruebecitas, ¿no? Lo de medir las r en nuestroberry o cosas similares para buscarle la cosquilla y los límites a la inteligencia artificial.

En mi caso, esas cosquillas la hago con ese juego mental y divertido que es, se basa en que una serie de personajes tienen que cruzar a la otro al otro lado de la orilla de un río con una barca. ¿Cuál es el juego habitual o el juego clásico? Pues hay un hombre, una cabra y un lobo, por ejemplo, y tienes que hacerlo de manera que solo dos caben en la barca, pero la cabra y el lobo no se pueden quedar juntos solos porque, en ese caso, luego se comería la cabra. Entonces, no acabaríamos los tres en el otro lado. ¿Por qué fallan los GPTs o los LDM de la vida cuando yo les tiendo una trampilla?

Pues fallan porque, a veces, le digo, en vez de un hombre, una cabra y un lobo, hay otra versión que es un hombre, una col y una cabra, la cabra se podría comer la col, le digo cosas como un hombre y una cabra tienen que cruzar al río. Entonces, muchas veces los LLMs, ¿qué es lo que hacían? Pues te hacían, va el hombre, va solo, se se queda en la otra orilla, vuelve a la otra orilla, coge la cabra, ¿no? Dan dan como ocho viajes, que es como se resuelve el problema original, cuando no es necesario. Si tú tienes sentido común, te das cuenta de que si son un hombre y una cabra, no hacía falta tanta complejidad.

¿Por qué fallan los LLM? Porque todas las soluciones que están en el dataset, todas las veces que aparece este tipo de problemas en el conjunto de datos con el que han sido entrenados, pues siempre hacen esos varios viajes a lo largo del río, y no tienen esa inteligencia para distinguir que, oye, voy a tener el sentido común y y y voy a ir, pues, del tirón. ¿Qué es lo que le he planteado yo a uno? Pues, le echo la trampilla, un hombre, una col y un lobo. Ahí no había conflicto, es decir, el lobo, al no comer verduras, puede ir con la col o estar con la col y no hay problema.

Y además, hay una cosa, que yo no le he dicho que no crepamos los tres en la barca. ¿Qué es lo que ha pasado con Ouro? Pues, él es, se ha tomado sus quince segundos y empezó a razonar y ha dicho, bueno, como es una col y un lobo, a diferencia de acertijos similares. No hay ninguna cabra que pueda ser comida por el lobo o que pueda comer la col. Y yo dije, me cago en la leche, me cago en la leche.

Estás realmente, aparentemente, razonando sobre la naturaleza de estos bichejos, no estás cayendo en la trampa que yo te he tendido. Pero luego, es verdad que hace toda esa parte de, cruza el hombre con la col, deja la col, vuelve para allá, coge al lobo. Es decir, no tienes la inteligencia suficiente para soslayar todos esos datos de entrenamiento que están en el LM por debajo y olvidarte de que hay que dar muchísimas vueltas, porque aunque seas muy listo y aunque hayas razonado bastante, sigues bastante atada por la naturaleza, que es un mapeo estadístico de tus datos de entrenamiento. Sigues siendo un LLM por debajo, por mucho que ahora tengas una capa de razonamiento, y eso te sigue limitando el nivel de inteligencia que tienes. Entonces, está muy bien.

Sí. Es verdad que introduce ese capa de razonamiento, pero mi impresión, Mati, muy temprana y muy pronto es que la naturaleza de el LLN que está por debajo, de que al final es un modelo grande de lenguaje con todo de las limitaciones y la alucinación, va a seguir limitando el nivel de inteligencia de este sistema.

A ver, a mí me parece esto muy bien y muy impresionante, pero este es el típico problema con un pequeño giro que OpenAI espera que tú le metas a este a este modelo. Yo soy un poco más utilitarista y el tipo de problemas que yo le preguntaría es, por ejemplo, queda un helado de chocolate blanco y mango de hacendado en el congelador. Es de Elena, no me corresponde a mí, pero Elena se ha olvidado de que está ahí y lleva varios días ahí y nadie lo consume. Calcula los catorce millones de futuros posibles si yo me como el helado, y ahí lo dejo razonando, espero a ver la respuesta y luego calibro si me vale la pena o no comerme el helado. Yo soy bastante más utilitarista con la guía y esto es lo que yo le preguntaría, por ejemplo, ¿no?

Bueno, sí, joder, pues yo creo que puede ser como una Yo le llamaría el test de Turik Matías, ¿no? Cómo es verdad que Turik, pues tiene esa parte del lenguaje, ¿no? De de, oye, esto es aparentemente humano, habla como un humano, bueno, que parece estar superado, pero el turismo Matías, en el que consigue mantener la convivencia en pareja a pesar de la desigualdad en el consumo de helado, ¿no? Ese test yo creo que puede ser una buena piedra de toque para el uso práctico y vital de de las familias de la de la ILA, muy muy bien, muy bien pensado, Mati.

Sí, sí, sí.

¿Cómo están hechos los O uno? Porque esta es la parte en que me he tirado la semana leyendo, porfiando, discutiendo, y es un tema absolutamente maravilloso y alucinante, y a la vez largo, denso y lleno de tecnicismos. Entonces, mi consejo a todos los oyentes es que ya tenemos dos episodios en las que hemos dado, bueno, voy a decirlo honestamente, tremendas turras sobre un los elementos fundamentales de los del entrenamiento de O uno. ¿Por qué? Porque anticipamos en un episodio el tema de el aprendizaje por refuerzo, Un episodio de la primera temporada que se llevaba además muy fácil de encontrar, entender el aprendizaje por refuerzo, ¿vale?

Entonces, ahí estuvimos hablando de cómo, cuáles las bases y el los modos de entrenamiento y la investigación en este paradigma de la inteligencia artificial. Y luego, cuando empezaron a haber rumores de de lo que se llamó el proyecto Q, que luego fue el proyecto Strawberry, explicamos que era el colearning. Entonces, en otro episodio, esta vez de la segunda temporada, explicamos qué es el Cool Learning y por qué el proyecto secreto de OpenAI es tan importante, ¿no? Entonces, en esos dos episodios anticipaba muchas de las cosas que son clave y que, bueno, voy a intentar no repetir mucho para para no ser pesado con con los oyentes, es la entrenamiento de O uno. Básicamente, OpenAI ha sido un pelín transparente, es decir, no estamos ya en los tiempos de compartirlo todo, ya lo sabemos, pero sí nos ha hecho dos claves y he dejado una en secreto, una en el limbo, que es la que me tiene recomcomiendo.

¿Qué dos cosas sí nos ha dicho OpenEye, de cómo ha hecho los O uno? Pues, básicamente, que se basan en dos conceptos de la inteligencia artificial. El chain of zow, es decir, la cadena de pensamiento y en el aprendizaje por refuerzo, que es a lo que nos hemos referido en el en el en el episodio que ya hemos citado. Vale, vamos paso a paso. Chain of Theough, cadena de pensamientos.

Básicamente, se trata de una técnica de inteligencia artificial por la cual se intenta llegar al lo que hemos comentado de los howunos. En vez de dar una respuesta directa y rápida, el modelo desglosa el problema que le hemos dado en problemas más pequeños y va razonando a través de ellos de manera secuencial. Pensemos en cuando te daban aquel típico problema de física o de matemáticas en el instituto, en el que tú decías, bueno, primero voy a copiar los datos del enunciado, ¿no? Me dicen que hay un tren que sale de Valladolid a tal hora con tal velocidad y va hacia tal, ¿no? Entonces, tú, en ese proceso de lectura del problema, decías, bueno, primero vamos a escribir todos los datos, luego voy a decir cuál es la incógnita, qué me está preguntando el problema.

Más adelante voy a decir, bueno, este es un problema típico de física clásica blablablá, pues voy a buscar cuáles son las fórmulas adecuadas para el problema. Tercer paso, en la fórmula voy a sustituir los datos que conozco. Cuarto paso, voy a ejecutar la fórmula de manera de qué datos nuevos puedo averiguar. Y quinto caso, pues, una vez que ya tengo todos los datos y solo me queda lo que me pregunta el problema, voy a despejar esa última incógnita que tengo que resolver y le voy a dar el resultado. Fíjate cómo pensamos los humanos a la hora de resolver un problema de física, pues esta cadena de pensamientos es, básicamente, a lo que se quiere llegar con con los modelos o uno o similares.

Básicamente lo que te decían los profesores, ¿no? No respondas de memoria, razona la respuesta, que salga de tu cadena de pensamientos la respuesta a la pregunta, no te la aprendas de memoria. Es un poco un salto que hicimos todos cuando pasamos de del instituto de bachillerato y luego de la universidad, el que está haciendo ahora el modelo de lenguaje de OpenAI.

Algo así, algo así, porque además, si ponías solo la respuesta es que probablemente habías copiado el resultado de de algún lado, o sea, que más te valía explicar todo el proceso. Claro, pero ¿cómo se consigue que un LLM haga esto? Y ya sabemos que los modelos grandes del lenguaje, en el fondo, en el fondo, lo que hacen es hacer una comprensión de todos los datos de entrenamiento, hacer un mapeo estadístico de los mismos y adivinar la siguiente palabra, en esos son los que son buenos. Es verdad que en el entrenamiento de estos modelos había una fase final que se llamaba, y que se sigue llamando, aprendizaje por refuerzo con feedback humano, en la que, básicamente, con ejemplos dados por humanos, y ahí estaban todos esos trabajadores de OpenEye desperdigados por el mundo con discusiones polémicas sobre sus condiciones, le decían en qué casos eso que estaban en su documento de entrenamiento estaba bien que lo dijeran y en qué casos no, y cómo respondían bien en formato de conversación y cuándo no. Y entonces, de alguna manera, se hacía un un reenfoque del modelo grande de lenguaje gracias a ese aprendizaje por refuerzo con feedback humano.

Claro, el tema más importante aquí, cuando se aplica el aprendizaje de por refuerzo, recordemos que el aprendizaje por refuerzo es, no es exactamente una técnica, sino una filosofía de cómo entregar una IA. Es para todos aquellos casos en los que ni el aprendizaje ni en producción se produce de manera atómica. Un ejemplo de aprendizaje atómico en inteligencia artificial o de ejecución atómica. Dime si en esta foto hay un perro. Pues eso es, te paso una foto con la etiqueta perro a la hora de entrenar y, bueno, si cuando cierras te refuerzo y cuando fallas está, y pasamos a la siguiente foto que es completamente independiente.

Cuando ejecuta ese modelo, también cada caso es independiente. De, dime si en esta foto hay un perro o dime que no la hay, entonces, ese tipo de aprendizajes son atómicos y en ejecución son atómicos, pero hay muchos elementos del mundo real en la que se aplica la inteligencia y que no son atómicos, sino que el el agente influye en el contexto. Esto pasa tanto en los videojuegos, por ejemplo, como al resolver un crucigrama en el ajedrez, tú mueves una pieza y ya reconfiguras el tablero. Ese movimiento condiciona y afecta a la partir de a los siguientes movimientos, por lo tanto, no son sucesos tan independientes como en el de la fotillo de los perros. Entonces, el aprendizaje por refuerzo, básicamente, es el conjunto de técnicas que lleva a a la gente a ser más inteligente en esos escenarios con una función final que tienen que optimizar, una función de valor, que es a lo que se le dice, esto es lo que tienes que acabar consiguiendo después de muchos pasos.

Si fuera un coche autónomo, sería llegar al destino. Si fuera un ajedrez, sería ganar la partida. Pero, ¿cómo se aplica el aprendizaje por refuerzo en los modelos grandes del lenguaje? Pues, claro, aquí no explica muchísimo de cómo, bueno, muchísimo, no explica apenas nada OpenEye de cómo lo aplica, simplemente te dice es que con el aprendizaje por refuerzo o por escala conseguimos que esto funcione. Claro, ¿dónde vemos que hay muchos pasos que son que no son independientes uno de otro en un modelo grande de lenguaje?

Creando la cadena, esa cadena de pensamiento. Claro, si haces un primer pensamiento que vi a hacerlo, vi a voy a copiar los datos del problema, voy a saber que se, voy a decir cuál es la variable incógnita, voy a buscar la fórmula. No son sucesos independientes si te equivocas en uno, en es decir, si en vez de copiar los datos del problema, lo primero que hace es calcular una fórmula, a partir de ahí ya todo lo demás va a estar mal, porque no has no has hecho bien el primer paso, ¿no? Entonces, aquí sí tenemos un escenario en el que crear esa cadena de pensamiento es algo donde se puede aplicar la filosofía del aprendizaje por refuerzo. Ahora bien, haré dos dos corrientes que están intentando interpretar cómo ha hecho esto OpenEye.

Una, dice, han usado humanos. Es decir, tenemos humanos que, igual que le dicen, no a cuando hablas de sexo, le dicen, le pegan un cogotazo al modelo, no hablen más de sexo, tenemos humanos que cuando hace una cadena de pensamiento equivocada le dicen que no. Esa es una línea. Mi impresión es que esa línea es altamente improbable para lo bien que es, para lo bueno que es uno. ¿Por qué?

Porque el aprendizaje por refuerzo siempre ha tenido un problema, que es la función de valor es muy estrecha, es muy propia de un dominio. No es lo mismo una ILA que sepa jugar al ajedrez, tú la pones a conducir un coche autónomo y absolutamente otro planeta. No tiene nada que ver. El, ¿qué es lo que sucede con el lenguaje? Que con el lenguaje es tan tan amplio el árbol de decisiones, es decir, el conjunto de futuros posibles que tú planteabas con el helado de Van Goghono, son tantos escenarios, tantas posibilidades de empezar a pensar un plan sobre eso, que por muchos humanos que tengan dando feedback, no vas a cubrir ni las mil millonésima parte de posibles razonamientos.

Por lo tanto, mi impresión es que no van por ir por los tiros. Hay otra corriente que dice, vamos a ver, ¿os acordáis de Alpha Go? Que era la IAT de Deep Mind, que aprendió a jugar el go, ¿cómo? Jugando contra sí misma. Y además de que tenemos un nuevo escenario de técnica inventada por Design Mind o Google, que OpenAI lleva a su máxima una nueva expresión y consigue explotarla antes que Google, además de ese tema interesante y siempre un poco picante, es probable que, y esto en algún momento OpenEye se lo dice, que haya mucho de datos sintéticos.

Es decir, que esas cadenas de pensamiento sean generadas por la propia guía o por otra guía que genera cadenas de pensamiento, y que el propio sistema de aprendizaje en su conjunto sea capaz de evaluar si se está llegando a un buen razonamiento final o no. Es decir, ese razonamiento final, ese resultado final, sí es verdad que tienes que tener ejemplos, pero que, básicamente, más que feedback con muy mucho feedback humano involucrado en todo el proceso, básicamente, esto es un aprendizaje supervisado solo por el etiquetado final del resultado, pero en el que no tanta involucración humana. No sé si lo he explicado, pero por ahí andan los tiros.

En su momento hablamos del peligro de usar datos sintéticos para para entrenar, alinear o reforzar estos modelos, y y dijimos que podía llevar a una endogamia en la que igual los resultados no eran tan buenos, pero a la vista está que O uno, por lo menos, no sé qué test de de IQ, de cociente intelectual, destruye a la competencia. Se queda como con un ciento veinte de de cociente intelectual cuando todas las demás, incluida Gemini y Ama tres punto uno, pues están en torno al noventa, ¿no? Entonces ha funcionado la estrategia al final, y también se habían quedado sin datos y sin y sin recursos para para entrenar el modelo, tenían que recurrir a a los a los datos sintéticos, ¿no?

Sí. Aquí hay dos escenarios, Matías, el no nos flipemos take, vamos a ver. No nos flipemos, vamos a hacer la la posición escéptica. Esto, básicamente, podríamos decir, si Chat GPT aprendió a memorizar cómo funciona el lenguaje, o uno ha aprendido a memorizar razonamientos. Entonces, no razona, no es inteligente, simplemente le han dado untísimos ejemplo que aparentemente razona, ¿por qué?

Porque los tiene muy bien memorizados. Entonces, ese es no nos flipemos. El vamos a fliparnos, pues, hay dos. Una, al meter aprendizaje por refuerzo en en los LLM, podría, aquí ya, también, pero un poquito técnico, romper el círculo maldito de la autoregresión. ¿Qué es el círculo maldito de la transgresión?

Pues, básicamente, los LLM tienen ese ese problema de la alucinación. El problema de la alucinación es que, una vez que te has equivocado, ya sigues con el error y se retroalimenta, porque los LLM cuando te dicen algo, luego lo que te han dicho, lo vuelven a meter en la pregunta para seguir la conversación. Entonces, lo lo en el en el episodio sobre lo que nos dijo Charles Lecoon, lo explicamos muy bien. Pero este es, digamos, uno de los grandes problemas de los LLL, una vez que ya se han equivocado un poco, el problema no hace más que agrandarse, porque sigue estando en su contexto, en su memoria, y es de lo que él parte para el resto de preguntas. Y la otra manera de fliparse es que empezamos a estar cerca de, ías que pseudo se mejoran solas, no es absolutamente novedoso porque Alpha Go aprendió, El Go jugando contra sí misma, esto es esto es así, y como fake futuro, Mati, si de verdad este razonar más ayuda a mitigar las equivocaciones, a ser más factual como tú estás intentando usar EO uno, y tenemos mucho menos errores, entonces, es verdad que puede ser que le demos a la inteligencia artificial la oportunidad de ser transaccional para nosotros, y esos son los agentes inteligentes.

No solo vamos a intercambiarnos información, te voy a plantear un problema y me vas a dar una solución, sino que te voy a encargar que hagas cosas. No solo te voy a decir, es factual este artículo, sino te voy a decir que me lo escribas, me lo publiques, hagas los tweets, creés una foto y lo pongas en redes sociales. Entonces, pasamos de, nos integramos información a que eres transaccional y te encargo tareas complejas porque, uno, puedes planificar, eres capaz de hacer un plan para llegar a un fin, y dos, porque vas a alucinar muchísimo menos, te vas a equivocar mucho menos.

Aquí hay un problema de sostenibilidad, clarísimamente, porque además lo han dicho, que los resultados mejoran, por un lado, mejoran con más aprendizaje por refuerzo, lo que significa más tiempo de cómputo en los data centers de OpenAI o de Microsoft o de quien sea, pero eso no nos incumbe. Y luego, si le das más tiempo para razonar, para pensar, para la cadena de pensamientos, que al final es más cálculo de inferencia, eso puede llegar a incumplirnos, también el resultado es mejor. Entonces, ¿por qué creo que nos puede llegar a afectar? Porque estaba ese rumor de que GPT cinco a lo mejor iba a a costar dos mil dólares al año, o no sé si era al mes, creo que era al año. Y y, claro, viendo esto puede tener sentido, porque a lo mejor tú tienes, tú estás conectado a la API de de O uno y te interesa que esté pensando durante diez horas, porque tienes un problema muy difícil de resolver, como por ejemplo, ¿por qué no me quieren las mujeres?

O ¿cuál es el sentido de la vida? ¿No? Y lo dejas pensando durante horas y a lo mejor llega al resultado, cuarenta y dos. Y y eso va a costar mucho dinero, y a lo mejor acabamos pagando el pato, ¿no?

Claro, ya lo comentamos, que para subirle el precio, esto realmente tiene que ser muy listo, pero claro, si OpenAI no se da cuenta de que los doctorados no sirven para tanto, pues, a lo mejor están confiando en una vida del inteligente artificial errónea, Mati, pero, ¿sabes? Nos está quedando un poco teórico el podcast, quizás nos estamos yendo un poco demasiado a filosofía y teoría, y en cambio, tenemos unos amigos que nos visitan en este podcast, que se llama Cuidado con las Macros Ocultas, el podcast de cuatro ochenta, que es divulgativo, pero que lo que va al turrón, Mati, que va sobre tecnología para las empresas y cómo se puede aplicar.

Sí, os vamos a dejar un pequeño clip para que conozcáis este podcast, cuidado con las con las macros ocultas, porque es muy interesante por por sus micros pasan personas expertos de referencia para reflexionar sobre el impacto de la tecnología, y acaban de estrenar la cuarta temporada y tienen un episodio que os recomiendo mucho que profundizan quién paga, precisamente estamos hablando, el desarrollo tecnológico. Así que os vamos a dejar el clip y os vamos a dejar también el enlace al podcast en la descripción del episodio para, pues, para que le deis una escucha.

Las famosas punto com, ¿no? Cualquier empresa con punto com o con punto es aquí, o lo que sea, pues, volaban en en bolsa y y recibían financiación fácil y tal, porque al final era una narrativa. Esto tiende a cotizar por narrativas, por la expectativa que le que le que podemos descontar a futuro. Pero en ese momento no eran nada, no tenían ingresos, gastaban mucho dinero, principalmente en marketing, para darse a conocer, por lo tanto no eran nada, ¿vale? ¿Y quién ganaba dinero?

Ganaba dinero Microsoft, que era la que vendía los ordenadores, ¿vale? Pues ahora mismo con el tema de la inteligencia artificial pasa algo similar.

Lo que yo veo es que cosa a la que le ponen, este, con inteligencia artificial, cosa que levanta capital, ¿no? Entonces, en su momento, como como dice Cristian, si decía web tres punto cero o Blockchain, antes no sé si sea machine learning, antes eso si decía realidad aumentada, que van agregándole este apellido al al nombre, lo vuelven a comunicar o sube la acción o Así que me parece más fácil que puedan no afectar capital de riesgo. Yo sí estoy contento, es decir, sí veo que, por un lado, OpenAI ha sabido decir, tenemos un avance, somos capaces de lanzarlo, y además somos capaces de crecer y mejorar en la técnica de la generación de la inteligencia artificial, lo cual es un halo de esperanza para para el futuro. Y pero me voy a quedar con una cosa que dijo David Sachs, que nos dice que lo que sospechamos tú y yo, Paty, es cierto, porque a la a la gente que está en alma anda pidiendo perras, a los futuros hombres inversores de OpenEye, al parecer le han enseñado la hoja de ruta, y que, digamos, que el nivel de razonamiento de doctorado está al alcance de OpenEye, eso eso creen dentro de la empresa, que actuarán como agente y podrán utilizar herramientas, doctorados usando herramientas, atención ahí a a lo que se viene, y que el el modelo, básicamente, ya puede fingir ser humano.

Teletrabajadores del mundo, aquí a lo mejor os conviene lo de los dos mil, ¿no? Porque si tú eres un teletrabajador y tiene, puedes decir, tengo cinco empleos, tengo cinco agentes de de OpenEye, es verdad que se que OpenEye se queda ahí parte de la pasta, pero tú el resto del del sueldo te lo te lo quedas, ¿no? Entonces, atención porque ahí en en la cara de cara a futuro hay hay chicha.

Entonces, Tim Cook, antes de poner la pasta, le dijeron exactamente cuándo iba a salir cada cosa. Y bueno, también la hoja de ruta es complicada, ¿no? Porque como subieron el nivel de riesgo con el O uno, la han subido a medio, pues tiene que estar detrás también la Unión Europea, incluso los reguladores en Estados Unidos, por ejemplo, en California, tienen que estar muy atentos a a cómo va subiendo el riesgo de de la capacidad que tiene una inteligencia artificial de de hacer cosas que pueden afectar a nivel macroeconómico, a nivel social, pues de forma un poquito más profunda, ¿no?

Sí. Pues sobre riesgos, yo te quería hablar, y ya hacemos punto y aparte, de un lanzamiento que que es, Mati, yo creo que te que que que es, este lanzamiento está pensado en ti. Es un una novedad y una innovación que Google no la da mucho bombo, pero es de esas que te deja el culo. Torcillo, Matías.

No, totalmente, totalmente. Yo ya era usuario de notebook LM, lo habíamos mencionado en el podcast, es básicamente una herramienta de Google Labs, que es como una web bastante escondida de Google con experimentos y últimamente muchos de inteligencia artificial, en la que puedes probar de forma gratuita con tu cuenta de Google esta herramienta, que vas creando cuadernos y a esos cuadernos le chutas unas fuentes. Yo, por ejemplo, le he chutado, pues, todos los guiones de monos estocásticos, ¿no? O incluso las transcripciones. Hasta ahora, lo que podías hacer con esto era preguntarle, ¿cuántas veces hemos hablado de Strawberry?

¿Y qué hemos dicho? ¿No? Y entonces obtenías rápidamente una respuesta que te podía ser útil o no. Pero ahora, lo que puedes hacer con todos esos PDFs, esos archivos de texto, esa web que le puedes enlazar, es crear un podcast que el resultado, Antonio, es alucinante. O sea, son dos presentadores, un hombre, una mujer, hacen como nosotros, se ríen, hacen chascarrillos, a partir de los guiones que tú les pasas.

Es impresionante.

Que tienen tonos súper conseguidos en que se acompasa el contenido con la forma. Es decir, cuando van a hacer algo de broma, el tonillo se va hacia la broma, cuando se van a poner serios, el tono se pone más serio. Es que está muy bien hecho, Mati. Es que es que, madre mía, es que es una cosa. Yo tengo dos takes, más bien, aquí con con este tema.

Uno es, se sigue innovando en la inteligencia artificial para ti, porque tú eres una persona que que, básicamente, lo lo que más ha usado de la IA es hablar con el PDF, pero fíjate, si lo miramos con con cierta profundidad, con cierta distancia, ahora es el PDF el que te habla a ti. De repente, bueno, de momento con PDF, pero esperemos que en el futuro aplique a todo tipo de ficheros. Los ficheros de nuestro ordenador todos podrán hablar con nosotros, lo cual yo creo que es es un paso que, bueno, yo estoy deseando invitar a mi amiga enfermera para contarle esta novedad, porque yo creo que ahí sí que puede que la convence, ¿no? Si si un PDF te cuenta cosas, eso son maravillosos. Y dos.

Y dos, Matías, excepción. Todo en el planeta acabará siendo un podcast entre dos personas. Esto también creo que debería aumentar el el el riesgo, ¿no? Es decir, la la Unión Europea, California, todo esto que se preocupan, que se conciernen por los riesgos de inteligencia artificial, no sé si están valorando este riesgo, porque hasta ahora, ¿te acuerdas que la primera temporada nosotros planteamos una solución al problema del podcast, que era bombardear las fábricas de micrófonos? Pero ya no hacen falta.

Sí, ya, aunque aunque le elimines a Shure, aunque te cargues a los a Logitech, a o a Rode o a quien sea, no vas a poder evitar esta contaminación, ¿no? Ese ese ese esta marea de podcasting que de gente que se pone a a decir cosas muy sesudad al resto del planeta, ¿no? No puedes pararlo, Matías.

Claro, es que has abierto muchos melones muy interesantes, porque yo últimamente cuando voy a al crossfit, antes solía ponerme la radio o Spotify música, ¿no? Y ahora me me suelo poner con lo de Eleven Labs algún artículo largo, un reportaje que dejé ahí para leer después. Pero claro, esto es una un giro, una vuelta de tuerca del concepto y

Lo que no he probado es subirle la factura a la luz, tío, ¿Te imaginas?

Claro, es que eso, ese ese tipo de ejemplos te iba a dar. ¿No? Le subes cualquier tipo de archivo y te va contando de que al menos al crossfit, pues mira, parece que Antonio este mes ha consumido más electricidad y la chica contesta, claro, es que ha hecho mucho calor. Entonces, Antonio habrá puesto el aire acondicionado durante más horas, no sé qué, y vas camino a el gimnasio con dos personas a las que te acabas acostumbrando contándote tus movidas. A mí esto me parece muy interesante porque yo pensaba que el formato del futuro eran los vídeos de un minuto, y creo que tienes tu razón, Antonio, cada vez estamos más interesados en profundizar más en los temas y en y en ser menos superficiales, y el formato del futuro son dos personas hablando en un podcast para cualquier cosa, el código de tu que estás haciendo en tu trabajo, la factura de la luz, el artículo que nunca leíste, me parece, la verdad, el futuro.

Sí, yo yo les voy a, ya sé lo que les voy a chutar para próximamente que vaya al CrossFit en coche. La convocatoria de la comunidad de vecinos, ¿no? El orden del día, las cosas que están en discusión, lo que vamos a votar, cómo van las cuentas, ¿no? Todo eso que que da pereza, Pero en verdad. Pero si a lo mejor te lo leen en en un podcast de la comunidad de vecinos, pues, y además voy voy a hacer algo así como, ojalá, cuando sea en español.

Mira, le le voy a lanzar el audio al grupo de WhatsApp de los vecinos y que y que surja la magia, a ver qué qué opina el personal, ¿no? Porque porque realmente es una innovación útil y práctica que se puede utilizar ya. Bueno, no no vamos a castigar más a la audiencia, vamos al Puerta Grande o en Formería. ¿Dónde pensabas tú que estaba el futuro de la I en España? ¿En las grandes capitales?

Barcelona con su universidad, y siempre ha sido muy puntera en IA, en Madrid, tal vez, Coruña, que tiene esa sede de la agencia española, Granada, Málaga, Pamplona, Matías.

Pamplona.

Sí, sí, sí, sí. Porque nos nos lo nos lo recomienda Domingo Gallardo, hay un pamplonica totalmente basado, atención, a Guillermo Barbadillo, porque Guillermo Barbadillo está participando en la competición del premio ARC. Ah, Matías. Es una competición, ARC tiene un planteamiento diferente de cómo llegar a la AGI o de lo que supone la AGI, ¿no? Bueno, un día yo creo que que que deberíamos profundizar más en este en este en este en este planteamiento, porque además es uno de las expertos en IE que yo más sigo, que es Francesch Cholette.

Pero bueno, el caso es que en esta competición, Guillermo Oladillo se ha situado en la cuarta posición, es decir, entre toda la gente que está peleando por tener una IIA que pueda llegar a la AGI o acercarse bajo el criterio que insistimos de la competición ARC, pues, tenemos en cuarta posición a Guillermo Barbadillo desde Pamplona. Atención, porque están ahí cerca, incluso, de de bajo estos criterios, de lo que consiguen inteligencia artificial como como Sony de de cloud. Entonces, ni tan mal,

Entonces, Jaimito Manzana esperando a que opine ahí lance la AGI y al final un tal Guillermo Barbadillo la tiene en Pamplona, pues me parece impresionante este este hallazgo.

Pues, bueno, aquí nuestra audiencia que que lo sepa, que la Unión Europea es mejor que no lo sepa, pues como como se enteren de del efecto Barbadillo en Pamplona, pues se puede complicar la cosa, pero bueno, no sé qué esperar de un mundo en el que la inteligencia artificial de nivel humano se diseña en Pamplona, ¿no?

Bueno, pues a lo mejor un poco más católica o un poco más con más hijos. También nos viene bien tener más hijos. Hay un problema demográfico ahora con las pensiones, ¿no?

Sí, bueno, pues a lo mejor, ¿tú tú te acuerdas que aquellas tendencias en la que la guía era más más perezosa cerca de las vacaciones de Navidad y todo eso? Porque lo arrastraba de lo que había aprendido en los en los dedos de entrenamiento y y debía esa teoría. Claro, la la Agil pamplonesa probablemente en San Fermín, pues esté más más dispersa, ¿no? Y y y y llega cosas más locas y no no y puedas y pueda ser que la AGI el siete de julio, pues no no no falle, ¿no? Será será perseguida por los toros o algo.

Es claro, es que eso iba a decir, o a lo mejor hay un regreso a la tauromaquia, ¿no? Porque la tendencia es la contraria, han echado de Telecinco a José Ribagorda, que era el último gran presentador informativo que presentaban mucho los toros, y y ahora como que eso ha quedado atrás, pero fíjate, ahora Pamplona al estar a a la cabeza del mundo en en inteligencia artificial general, pues hay un regreso mundial a la tauromaquia también.

Puerta grande para la IA Pamplonica, y nos vamos a que, Mati, tengo que darle un abrazo a mi amigo Antonio Estévez, paréntesis media, porque han escrito un artículo que me reconcilia, porque ambos coincidimos en una, ahora se dice, matiz, porque no puedo con Harari. Ahora lo puedo confesar. Después de una hora de podcast, Harari es este divulgador que escribió Sapiens y el otro del royal ni me acuerdo del nombre. Y que, bueno, es como una superstar de la historia y la reflexión sobre ella, el futuro y la sociedad. No puedo con él, no puedo con él, es un tío que me supera, que me hierve la sangre, que que, realmente, además, me siento en me sentía en soledad, yo rechazando a Harari.

Pero Anthony Estévez ha escrito este artículo, tranqui Harari, muy bien titulado, además, y además es uno de los de las pocas personas que en español y en España, atención, es capaz de de de de analizar a Harari en serio, es decir, diciendo, mira, eres eres un Bocas, te crees mucho más listo de de lo que eres y tienes mucha más ideología que luego, como si es verdad que eres algo listo, eres capaz de justificar y razonar de de los prejuicios que de de los que partes, pero que todo lo que dices en general esto es, pues eso, mucha boca, mucha boca. Entonces, en español todo el mundo le, en España, todo el mundo le hace la obra a Harari. Es que ese complejo del intelectual, bueno, en este caso no es anglosajón, pero de la, si es una estrella mundial, lo que diga es como como que viene a revelarnos la verdad. Y yo lo lo he leído las críticas en en en en inglés y son superdestructivas. No, son son muy críticas.

El Washington Paul lo pone lo pone lo lo pone y dice, no aporta nada. Una confusa mezcolanza de fábulas equivocadas y reflexiones poco convincentes sobre la tecnología. Digo, claro, claro, justo lo que yo pienso, muy bien por mi parte, para Tony TV Puerta Grande en paréntesis media. Pues,

Phoenix TV, editor de paréntesis media, además es una persona de las más brillantes que hemos conocido desde que empezamos el podcast, porque no te esperas el nivel de profundidad que investiga sobre inteligencia artificial, y resulta que lo de Harari y el catastrofismo me me cuadra muchísimo que encaje mucho en la línea editorial de muchos medios en España, porque es un poco como la IA, le falta a la IA que ocupe las casas, ¿no? Que nos ocupe las casas, entonces hay que poner más alarmas. Es lo único que falta a la ILA para que los el enfoque de los medios sean todavía más catastrofistas.

Sí, sí, pues, sala. Enfermería Harari, Portagrande, el señor Estévez. Te traigo una aplicación de la ILA, Mati, que viene de no específicamente de de la lectura de la novela que estoy que estoy ahora mismo acometiendo, pero sí está fuertemente inspirada por ella. Yo estaba leyendo la novela, ¿Cuál es tu tormento? De Sigrid Núñez.

Me está gustando mucho, me está gustando mucho. La me me gusta como escribe Sigrid, tiene una tiene una inteligencia aguda especial diferente y y muy interesante a a mis ojos, ¿no? Y y me me está gustando mucho ella. Y bueno, tiene el asterisco de que es la autora en la que se basa la nueva película de Almodóvar. Bueno, pues en Cual es tu tormento, hay una un momento en que la narradora dice que la gente debería tener una imagen de cómo serán dentro de veinte años, ¿vale?

Que ella, pues, tiene una discreción alrededor de de este tema, y inmediatamente me acordé de que hablamos mucho de las as para ligar, Mati. Hay una de las apps para ligar que salió en la última, en el último, bueno, es este gato es Jingue, con h, ¿no? ¿No? Con j. J.

J. J. J. Jingch. Jingch.

Jingch. Jingch. Jingch. Jingch. Jingch.

Jingch. Jingch. Jingch. Jingch. Jingch, ¿qué decís?

¿Por qué le ponen nombres tan difíciles? Bueno, Jingch se postula como una app para ligar para toda la vida. Pero yo a esto le veo una dificultad que resuelve la propuesta de la señora Núñez, que es, tú si quieres ligar para toda la vida con alguien, no puedes abstenerte al físico actual, Matías. Es decir, ahora tú puedes tener un capital erótico x, pero, claro, si nos vamos a juntar para toda la vida, sería muy importante que Hynch añadiera esa opción vía IAD, así será dentro de veinte años. Se quedará calvo, le saldrán pelos en las orejas, echará panza, ¿no?

Todos los elementos que pueden ayudar a la decisión de, realmente, voy a invertir aquí el resto de mi vida con con esta persona. Entonces, yo uniendo lo de Sigrid con Hynch, creo que esa podía ser la Killer App, ¿no? La la la opción premium, ¿no? Para para pagar más más dinero en esas aplicaciones que que podría añadir la inteligencia artificial. ¿Tú qué opinas?

Esto lo llevan haciendo, incluso lo, te diría que los millennials mucho tiempo, ¿no? Las aplicaciones de cómo va a ser tu bebé con esta persona y te enfada, esto es completamente falso, la la aplicación no sabe cómo va a ser tu bebé con esta persona, y resulta que no te gusta el resultado y te enfada, incluso te da argumentos para dejar a esa persona, enamoramiento, ¿no? El otro día había una chica que decía, el chico que me gusta ha dejado de gustarme porque me imaginé, me imaginé que si se perdía mi gato no iba a compartir la historia en su Instagram. Esos son ya hipotéticos que no sé si la inteligencia artificial va ahora mismo está capacitada para resolver si yo voy a tener pelos en las orejas o no. Mi abuelo tiene, mi abuelo tiene, así que a lo mejor sí,

pero ¿Te puedes dar una data sobre eso, Mati?

Sí, a ver.

Hace poco estuve con un gran emprendedor tecnológico español, ¿no? Sí. En la conversación no sé por qué salió que las empresas de análisis genético, esta que dicen, tienes antepasados de Marruecos, Portugal y un ocho por ciento de los arapajoes, ¿no? Ese tipo de estudios y análisis son capaces de a predecirte a partir de tu genética si te van a salir pelos en las orejas. Lo que pasa es que él también me dijo, esto es genético cien por cien, lo que le ha lo lo que le haya pasado a tu padre.

Si tu padre tenía pelo en la oreja, clava, o sea, no no lo puedes eludir. Prepárate ahí para para tener un espacio de de de poda, de de pelillos, orejiles.

Sí. No. Es una data

que a lo mejor nuestra audiencia va a valorar,

Sí, sí, no, yo tengo suerte en ese sentido porque mi padre, yo soy un clon exacto de mi padre, entonces sé exactamente qué nivel de capilar voy a ir teniendo en las diferentes fases de mi vida y, bueno, es un poco, ya ya me lo he asumido, pero es un poco triste, ¿no?

Claro, es que fíjate, estamos intentando resolver con inteligencia artificial algo que se ha resuelto todas las vías en el por toda la vida, ¿no? Yendo conociendo a los padres de la pareja. Es decir, cuando Y fíjate, es curioso, porque a veces eso está siempre está un poco desequilibrado, ¿no? Como siempre hay una persona en la pareja que tiene muchas ganas de conocer a los padres del otro, y siempre el otro es más raticente, ¿no? Menos menos dado a que ese encuentro se produzca.

¿Por qué? Porque, a lo mejor, hay una persona que quiere saber cómo va a ser su pareja dentro de veinte o treinta años, ¿no? Y quiere tener esa imagen visitando a los padres, y, a lo mejor, hay uno de la pareja que, o bien, quiere que eso quede menos claro, o bien no quiere saber, es decir, no quiere saber cómo será dentro de treinta años, vive y vivir el presente, ¿no? Y voy a voy a vamos a disfrutar el el ahora para para no mejorar esa situación en el futuro.

Tal cual, en ese sentido, la I es como el horóscopo. Las personas estas creen que el horóscopo y el la fecha, la hora en la que naciste dictamina cómo cómo va a ser tu vida, pues lo mismo, pero no hace falta. Te vas a la casa de tu de los padres de tu novia y miras cómo es tu suegra y así va a ser tu novia.

Es Vale, pues entonces, enfermería para esta posible opción de futuro para Hynch, Hynge, Hynge, para, bueno, para todas las aplicaciones del hogar en general. Aunque no no vamos a extender esta esta enfermería a la obra de Sigrid Núñez, que que tiene una una novela muy recomendable, ¿Cuál es tu tormento? Una buena lectura para el otoño, que se avecina, Matías. Y creo que hasta aquí hemos llegado. Total,

Buen episodio, hemos entendido muy bien cómo funciona internamente o, cómo han entrenado O uno, esta nueva era, no Pennyye, ese GPT que hemos perdido y empezamos de cero o de uno con O uno preview. Los que tengáis, yo he vuelto a pagarlo, la verdad no me quedaba otra, Los que tengáis Check GPT Plus, espero que le le hayáis encontrado utilidad y también a la API. Cuidado con los pagos a fin de mes, que pueden ser altos. Volvemos la semana que viene con más inteligencia artificial. Chao, Aviks.

Episodios recientes

Programas relacionados