Hoy hablamos de Sezar Blue y Romano Aspas, pero también:
- El debate de los benchmarks en los modelos grandes de lenguaje
- ¿De verdad la IA supera a los humanos en tareas básicas?
- Luzia levanta 20 millones de euros
- Cómo Javilop creó una comunidad para Magnific en tiempo récord
- ¿Satya Nadella, una marioneta de Bill Gates?
- Google crea el mejor sistema de inteligencia artificial médica del mundo
Patrocinador: Los amigos de FlexiSpot.es celebran su semana de ofertas con sorteos y descuentos de hasta el 40%. Si quieres pasarte a un escritorio elevable o una silla como la de Matías, la semana del lunes 13 de mayo empieza el BRAND Day de FlexiSpot.
Aviso parroquial: Nos vemos el jueves 16 de mayo en Barcelona. Episodio en directo de monos estocásticos con DotCSV y Xavier Mitjana. Se podrá seguir en parentesis.media y luego estará disponible en el podcast.
Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com
Transcripción
Hola a todos los monos estocasticos. Bienvenidos a un episodio más del mejor podcast de inteligencia artificial, objetivamente, como le dijimos a Joaquín Cuenca. Antonio, ¿cómo estás?
Estoy preocupado, Matías. Cambié una deriva en ti que que me tiene concernido, como diría un porócrata de la Unión Europea. Veo síntomas, Mathi, de que tú puedas ser el próximo César Blue.
César Blue. César Blue.
César Blue, un creador que ya ha pasado, que ha sido referencia para monos estocásticos, quien no lo conozca es un es un gastro youtuber, ¿vale? Que va a sitios, ¿no? Y va y se grababa comiendo y y era aficionado a esos mesones de comidas factorgélicas eran
Tenemos buen comer, tenemos buen comer, no sé, no sé, ahí acaban
Enseña Enseña enseña la foto, que ahí vamos a establecer el paralelismo de Matías con César Blu, y además el el el peligro es que, claro, César Blu se dedicaba a hacer estos vídeos de grandes comilonas. Hace poco estuve con una buena amiga, que es además César César Bullóloga, es decir, una gran experta en el contenido de de este creador, y ella me advertía que, claro, César ha dejado las comilonas por la vida hellsey, el deporte y ponerse mazado. Claro, Mattie, empiezo a ver paralelismo, es decir, él está abandonando su línea editorial habitual y está solo obsesionado, obsesionado con participar en la velada de de la este evento de creadores de contenido en que se se pegan se pegan tortas, suben a un ring, boxean, y que se va a enfrentar creo que a a una decena de jóvenes, y ahí vemos que César está muy preparado. Y claro, yo veo el paralelismo, Mati, porque ¿no has batido tú acaso tu récord de press banca hace poco? ¿No estás tú ahí tonteando con muchas temáticas, experto un día en en en eclipses, experto en cohetes, estás ahí poco fiel a la a la inteligencia artificial, igual que César, está abandonando la las comilonas.
Veo ahí un peligro, Mati.
Antonio, permíteme, antes de pasar a los temas del día, una aquí, una pequeña discreción, una una Me voy a ir por las ramas como egocéntrica, pues ya sabemos que tengo esas raíces argentinas ahí, y me llega una alerta de ha aparecido tu nombre en un artículo titulado estos doce expertos serán tu faro para navegar en las tempestuosas aguas de la Ia. Y
digo, él
me ha metido en este artículo a mí, como experto como faro para navegar en las tecnologías.
Un faro en la oscuridad. Sí. Y
claro, ¿cuál es el problema? ¿Cuál es el problema? ¿Cuál es el problema? Que te metes en el artículo de marketing directo, y el experto, el faro para navegar en las tempestuosas aguas de la guía, en realidad es Antonio Ortiz, y yo aparezco mencionado, aparezco mencionado como tu compañero en el podcast mono sextocástico, ¿vale? ¿Vale?
Vale. Entonces, la verdad, una una decepción importante viniendo de esa alerta de Google. ¿Qué ocurre? Que yo recientemente, por primera vez, te había superado en press banca, porque
Claro, aquí estamos llegando al tema, aquí estamos llegando al tema, Matías.
Entonces, digo, vale, Antonio es el faro y yo soy una nota al pie, pero yo le gano en Pressbanca, y ya lo puedo decir. Y la segunda cosa que tengo que añadir, de César Bulwell, la verdad es que se está poniendo bastante fuerte, pero, como dice este tuitero, bendita sea la Steticien que le le ha le ha despilado la espalda, porque era era un oso y ahora se ha quedado
En algunos ambientes, ser un oso te te te da puntos, papi.
Yo tengo dos dos sugerencias aquí, Mati, para que completes este
este viaje de logro que has savia, para no solo Matías S punto Sabia, para que Google te avise de de las noticias, es importante, tienes que poner Matías S punto Sabia parera, Porque claro, tú estás ahora en ese nivel de de ese tipo de gente, Matías. Entonces, Matías ese punto sabia parera. Y dos, yo te propongo que que que yo veo una cosa que que César hace muy bien, que tenemos que incorporar y recuperar, que es la la cinta la cinta en la cabeza, esa que es como una toallita pequeña
que te puede hacer en
la cabeza, que no sé cómo se llama. Es como una muñequera, pero para la cabeza, y que yo creo que es muy oportuna, porque entrenamos con gafas y y si cae sudor es incómodo, ¿no? Es es es desagradable. Entonces, creo que César está abriendo un camino estético, dejando la vida, la estética de oso y pasándose a la estética de tenista de los años noventa, que que yo creo que es que es la propia de la fortuna, Mati, y ahí tenemos que ir siguiendo su ejemplo. ¿Vamos a hablar de inteligencia artificial?
Vamos a hablar un poco de inteligencia artificial, por si llega alguien nuevo de la entrevista que nos hizo FreePick.
Sí, sí. A ver, bueno, hablaremos de FreePick porque es que qué suerte tiene la gente que pasa por monos, la gente que escucha monos, yo yo es que, vámonos, somos un regalo para la humanidad, Matías, pero luego lo explicaremos. Vamos a hablar antes de de un de un tema que que además tiene una gran importancia en el sector, que son, pues, todos los debates y todas las competiciones alrededor de los benchmark de modelos grandes lenguaje, Matty.
Esto lo mencionamos de pasada, lo había dicho Jean Lecoon, por favor, señores, dejemos de fiarnos, esto lo dijo a raíz de que aparecía el GPT dos, dejemos de fiarnos de los benchmarts públicos, ¿no? Y ha habido muchos debates sobre este tema de después de eso, ¿no?
Sí, por aquí traemos en el guion dos referencias. Una es Jorge Calvo, que es un experto español, que en likeding, pues estaba intentando explicar cuáles son estos benchmark y qué tipo de cosas miden. Entonces, Jorge tiene una una parte muy didáctica en la que explicar, pues, cuando vemos ese esas tablas, ¿no? Y quién es el mejor modelo de lenguaje en M M L U? Que es Massive Multitash Language Undestend.
Pues, claro, y él te explica que son una serie de pruebas de cincuenta y siete áreas temáticas, desde astronomía hasta microeconomía, ofreciendo, pues eso, un panorama del conocimiento humano lo más amplio posible, en el que, pues, los modelos tienen que aplicar conocimiento en situaciones nuevas en principio, ¿no? Es además del cero shot, ¿no? Sin entrenamiento previo específico para esas tareas, ¿no? Luego te explica cuáles son las de las Bueno, hay un montón de de de de tipos de pruebas, la SEO medieval, la gratuadette level Google Proof quan e evenchmark, es decir, hay un conjunto de conjunto de pruebas estructuradas que van a intentar medir desde preguntas muy desafiantes, muy avanzadas en biología, en física, en química, no, que evalúan ese tipo de conocimiento, a la que la capacidad de resolver un problema muy complicado en cuántos pasos o con cuántas pistas necesitas el modelo para pasarlo, y luego las pruebas de conjuntos matemáticos. Es decir, si atendemos un poco a lo que explica Jorge, pues vemos que los temas son súper súper completos.
¿Cuál es el problema de estos punchmark y que son los que aparecen en las tablas famosas con las que cada fabricante de modelos anuncia? Pues que una vez que son públicas, pueden pasar a formar parte de los datos de entrenamiento, ellas y sus soluciones. Entonces, son, pues, pruebas que, entre comillas, se suele mencionar, están contaminadas. Imaginaros que es, por ejemplo, esa esa prueba de los conocimientos de biología, ¿no? Y son preguntas, pues, súper sofisticadas, súper complicadas, una vez que lo estandarizas y ese benchmark es público, pues entonces cualquier modelo de lenguaje que se entreere posteriormente a esa publicación puede haberlo integrado en su dataset y, por lo tanto, no hay que el modelo sepa sea capaz de de, con su conocimiento, resolver un problema que le planteen en la prueba, es que como ha estado entrenado específicamente con esa prueba, la resuelve muy bien.
Y en en esta trampa han caído, pues, incluso personas que están muy al día de las novedades y de los últimos modelos que salen, personas que sale un una nueva versión de un GPT o lo que sea y y le hacen la típica pregunta de ¿qué pesa más? ¿Un kilo de plumas o un kilo de hierro, no? Y y de repente te vuela la cabeza, wow, mira cómo ha mejorado este este modelo de lenguaje, pero al final si las respuestas, estos acertijos, estas pruebas que se usan para para medir cómo va mejorando el razonamiento de los modelos de lenguaje son públicas, pues no es una prueba válida.
Claro, ese es el ese es el argumento de Jim Fan, que lo lo teníamos un poco también por aquí ensayándolo en el vídeo, es un investigador de de Nvidia, más es un investigador muy serio porque se se pone en Twitter doctor Jing Fan, lo cual ya te está diciendo una pista de de que de de suba tu percepción, pero el caso es que Jingfang comparte contenido muy interesante de la gente artificial, y él dice que, claro, por el problema justo que hemos mencionado de la contaminación, los benchmark del que realmente deberíamos tener en cuenta son solo de tres tipos. Uno, en el que las pruebas sean privadas, es decir, hay una organización que tiene pruebas privadas que no comparte con absolutamente nadie y cuando llega el el el modelo nuevo, pues se la se las pasa con la idea de que esas pruebas no hayan estado seguro en el dataset. Claro, el tema es que te tienes que fiar de esa organización y asumir que esas preguntas están muy bien planteadas, pero como son secretas, pues no podemos saberlo. Otra alternativa que se plantea, pues la las las comparativas del tipo chatbot arena, es decir, la gente habla con el chatbot y vota, que es como la la chatbot ARENA de Haging Face o de LMSIS, que ha sido muy famosa últimamente por por la aparición del modelo nueve, este GPT dos.
Entonces, él dice, no puedes trucar la democracia. Bueno, hasta cierto punto no puedes, pero también hay que pensar que las puntuaciones de chateo con muchísima gente probablemente no te sirvan para cubrir casos de uso que los casos de uso que le interesa, lo cual puede ser conveniente para la empresa, pero, bueno, hay que ver qué tipo de empresa puede desarrollar un benchmark de inteligencia artificial, aplicarlo, dedicar mucho tiempo a a poner a prueba a los modelos. Es decir, que el el problema está bien diagnosticado, las soluciones todas tienen pros y contras.
Qué bueno, y por cierto, voy a seguir a este Jorge Calvo que has recomendado en LinkedIn, porque yo pensaba que en LinkedIn solo se publican cosas tipo, mi mujer me ha dejado, ¿cómo ¿cómo he aplicado esto al business to business? Pero no, este, la verdad es que este post este post que has compartido
Yo hay un terreno perfecto para hacer una cuenta de LinkedIn un poco un poco así de coña, de y y a ver si cuela y se hace popular. Ahora, yo tengo un gran cariño a LinkedIn porque me nombraron, Mati, no no quiero incidir en la hebita, pero me pusieron top voice de inteligencia artificial en LinkedIn, pero aquí no puedes quejarte porque tú no lo usas. Se ve siempre que conectas con LinkedIn, alerta, ochocientas veinticuatro, ¿no? Totalmente ignorándola absolutamente. Hay otro artículo sobre Ovement que me me ha interesado mucho, que es de Melanie Mitchell, que también es una investigadora, creo muy muy interesante a seguir, que ella sobre todo se está un poco contrariada con el tipo de expresión, la inteligencia artificial ya supera a los humanos en tareas básicas, ¿no?
Es la conclusión que se llega a veces por el uso de estos benchmark o por estos competiciones o estas pruebas, en la que se se ponen gráficos, los humanos llegan hasta aquí y la inteligencia artificial ya nos está superando. Claro, es que lo que dice ella es que estos son pruebas de laboratorio en el que hay contaminación y en los que, claro, no sé, no son pruebas buenas para medir humanos contra máquinas, son buenas para medir máquinas contra máquinas. Entonces, realmente este tipo de separación de que la inteligencia artificial tipo GPT cuatro nos está superando en x faceta de la vida es bastante engañosa, Matías.
Pues sí, no, tal cual, pero, bueno, es que es lo que lo que decimos siempre, no Todavía no estamos en la singularidad, pero ojo, que como herramienta esto esto te acelera muchísimo. Yo estoy, ¿sabes lo que estoy disfrutando mucho últimamente? De hacer temas más difíciles, temas que no controlo, que se me van de las manos, temas de ingeniería muy dura. Por ejemplo, ayer saqué uno de un nuevo catalizador para la la electrólisis del agua para producir hidrógeno que han hecho en Japón, y y, claro, me estaba leyendo el paper, no entendía nada, pero lo que no entendía se lo iba preguntando a ChatGPT y, claro, le explicas a le le pides a ChatGPT que te lo explique como si fueras, pues, una persona normal y y vas entendiéndolo todo. Entonces, yo estoy disfrutando mucho de de ampliar mi conocimiento con con los modelos de lenguaje.
Sí, tienes tú la razón, Matthew, digamos, en toda la conferencia y clases que doy, que siempre piden, venga, ¿para qué se puede usarla ahí ahora tal? ¿No? Y tú les dices, el jarro de agua fría no lo uses en producción para sustituir algo que tú harías, ¿no? Para hacer el trabajo completo, porque falla y todo esto, pero en los procesos, hasta llegar al producto final te puede ayudar mucho, y uno de esos procesos es la traducción entre distintos registros del lenguaje. No la traducción que ya conocemos, venga, me voy a DeepL o a Google Translate, me me me trae del chino al español o del del inglés al alemán, sino entre ese lenguaje científico que que que está muy escrito para adentro, ¿no?
Para para la comunidad científica y la gente normal, ese ese caso de traducción es buenísimo. Antes de que nos vayamos de los benchmark, Mathee, uno que me ha hecho mucha gracia es uno que intentaba distinguir o ponía a a sujetos que participaban en el experimento intentar distinguir entre evaluaciones morales realizada por GPT cuatro y otras realizada por humanos. Y el caso, eso es muy divertido, es que sí distinguían entre la lo la evaluación moral, ¿vale? De de la inteligencia artificial y la del ser humano, pero no porque las evoluciones de la inteligencia artificial fueran peores, sino porque los humanos consideramos moralmente lo cual nos mete en un escenario un poco sorprendente, porque siempre estamos, la IA, pues, se convertirá en Terminator, ¿no? Hace poco vi Matrix con mis con mis chicos, ¿no?
Nos someterá, competirá con nosotros. Oye, bueno, de momento es más buena gente que que que la vida humana, Matías.
Bueno, depende, ¿no? No sé si viste el meme el otro día, no sé qué generador de imágenes le pidieron. Crea una imagen de la madre Teresa de Calcuta luchando contra la pobreza, y se y se ve a la madre Teresa de Calcuta a puñetazo limpio contra niños pobres, ¿no? Entonces, a veces la la IEA no interpreta muy bien cómo funciona el tema ético y moral,
Sí, bueno, hablando de de noticias importantes, Matías, como las que tú das sobre ingeniería, cambiamos de tercio y, atención, vamos a un tema importante, importante por dos motivos. Uno, la gran pasta está llegando a la el el gran dinero que se mueve en inteligencia artificial en España está relacionado con bonos, estocastico, Matías.
Pero además de verdad, además de verdad, señores que llevan con nosotros desde la temporada uno. ¿Os acordáis de cuál fue uno de nuestros primeros episodios con entrevista? La gente de Lucía. La, bueno, la inteligencia artificial que puedes usar en WhatsApp, que le puedes transcribir audios, que puedes hacerle preguntas, etcétera, pues ha levantado esta gente desde que aparecieron en monos estocásticos veinte millones de euros. Y la última ronda es de diecinueve millones, según publica La Información.
O sea, esta ha traído bastante interés, Lucía,
Claro, y, bueno, aquí siempre hay hay un poco de debate con con esa gente, porque hay una parte del análisis estratégico en que lo comentamos y lo debatimos a fondo en el en el podcast, es un episodio que merece la pena, porque porque te cuentan el proyecto, la visión, la ejecución, te lo cuentan todo, y y justo allí lo planteamos. Es decir, tú eres un bot de WhatsApp, pero WhatsApp en su momento tendrá su bots, algo que se ha cumplido, es decir, son los pasos y los planes que está incorporando Meta con la inteligencia artificial. Una vez que Meta compita contigo, con un bot nativo al que va a va a privilegiar cómo puedes tú seguir manteniendo tu éxito, tu crecimiento y el negocio que quieras montar? Bueno, esa es esa es la gran pregunta con Lucía. De momento, recomendamos echarle un una prueba, están en WhatsApp, han saltado a Telegram, lo cual yo creo que les da también un un punto diferencial, pero seguro que a los inversores le han contado el siguiente episodio, el siguiente capítulo en su en su andadura y que, bueno, lo lo contaríamos por aquí.
Pero no es solo eso, Mathey, no solo está consiguiendo pasta la gente entrevistada por nosotros, sino también la gente que nos entrevista. No, la gente que nos entrevista se la está gastando, Matías.
Lo publicamos el otro día. De FreePick, decidió entrevistarnos para el canal de YouTube de de FreePick, que tiene un podcast también de inteligencia artificial, y está está muy divertido, es cierto que pasamos mucho frío, yo creo que el día que más frío hizo en Málaga y encima estábamos en una terraza allí en el muelle uno, pero la noticia no es esta, la noticia es que FreePick, días después de publicarse esta entrevista, ha comprado otra startup, otra empresa española, en este caso de Murcia, que es Magnific.
Sí, el proyecto de Javi López, un tuitero intenso en el mundo de la generación de imágenes.
Sí, son dos, de hecho, son Javi Lop y Emilio Nicolás, son dos dos de Murcia y no se sabe por cuánto la han vendido, pero se sabe que es probablemente la startup de más rápido crecimiento en usuarios gratuitos que se ha hecho nunca en España y y la que más rápido ha llegado a a una venta, suponemos que millonaria, ¿no?
Sí, bueno, Lola, yo he visto que también Jesús Margón en en la información ponía una cifra, pero no no no estoy seguro de que sea, bueno, él él es muy fiable, Jesús suele suele cuidarse de de de de de aventuras y de inventos. Bueno, el caso es que hay muchas cosas, honestamente, Magnific, para el que no lo conozcas, es una empresa, es un servicio de escalado de imágenes. Tú le pones una imagen de entrada y con inteligencia artificial te la escala, te la pone a otra resolución superior. Bueno, realmente no hace eso exactamente. Todas las empresas que dicen que escalan la imagen no es que solo la escalen, porque para tener más píxeles te tienes que inventar cosas.
Es decir, es un modelo de imagen a imagen que sube la calidad de lo que le metas por dentro, pero inventando, reinventando la imagen de entrada. Entonces, consigues resultados muy espectaculares. De hecho, es muy habitual en los usuarios que generan imágenes con inteligencia artificial tener un workflow, un un conjunto de procesos por el cual tú creas la imagen con un servicio, Sable Diffusion, Delee, Midjourney, y luego le pasas el escalado, le pasas esa última fase para dejarlo ya feten a magnific o a una alternativa a a magnific. Cosas interesantes, sobre todo por como lo explicaba Joaquín en el en en el en el mensaje que que publicó, se lo he visto en en Twitter, ¿no? El tipo de startup que puede generar la inteligencia artificial, tú la has explicado muy bien, Solo dos individuos han creado un servicio que captura setecientos mil usuarios, creo que ahí están los de pago y los gratuitos juntos, ¿no?
No son setecientos mil de pago, pero tampoco son setecientos mil gratuitos, o sea, la cifra está entre medias. Como se suele decir en el algoritmo de las startups, bootstrapping, es decir, que no hay un inversor que les haya dado un millón para montar esto, sino que con sus recursos propios y partiendo de de de costes muy bajos, han conseguido este este camino, y en muy pocos meses un par de emprendedores consiguen un proyecto supercompetitivo, consiguen una gran venta y, bueno, la la verdad es que enhorabuena, ¿no? Que que viva Murcia, la conexión Murcia Málaga es el futuro, pero sobre todo anoten, amigas, amigos, cosa que roza con monos estocásticos, proyecto que se nos viene cerca, si si si llueven los millones, Matías.
Yo tengo que decir, Antonio, qué Magnific, funciona muy bien, que es un gran producto, que el escalado lo hace muy bien y además, han ido añadiendo, pues, a a una velocidad vertiginosa, un montón de funciones y de y de herramientas nuevas, pero a mí lo que me vuela la cabeza es que esto de alguna forma se haya cocinado en
En Murcia. En Murcia
no, en Twitter, en X, ¿vale? Porque yo creo que aquí el el valor lo ha añadido el propio Javi Lop porque llevaba fácilmente un año tuiteando sobre inteligencia artificial con todas las novedades que salían en español. Un día decidió empezar a hacerlo en inglés, pero aquí está el matiz que a mí me vuela la cabeza. Javi dice que él no habla bien inglés y que todos los tweets que escribe en su cuenta en inglés, que es la que le ha dado, pues el mayor recorrido y la mayor difusión para su para lo que luego crearon con con Emilio, que es el Magnific, lo pasaba por ChatGPT. Él lo escribía en español, lo pasaba por ChatGPT y lo publicaba en la cuenta de Twitter.
Y así llegó a gente, pues, como el canal de Mister Beast que han usado para las miniaturas Magnific, así que no sé, a mí me me vuela la cabeza que lo haya conseguido de una forma tan orgánica haciendo este bootstrapping en tiempo récord y y nada, enhorabuena los dos.
Vaya magnífico. Y hablando de enhorabuena y de cosas que te hacen interesantes, los que estén buscando equipamiento para la oficina en casa o la oficina también están de enhorabuena, Matías, con nuestro patrocinador de esta semana.
Sí. Además repiten, porque Flexi spot, nuestro patrocinador de esta semana, ya fue patrocinador de monos Estocásticos, y la silla que estoy usando en este momento es de Flexiespot, ya dije en su momento en Twitter, y mucha gente me escribió que que que había comprado un Flexpot después de de de que nosotros lo probáramos. Me gusta mucho porque es una silla que para lo que cuesta, tiene una ergonomía de estas que te atrapan y que te obligan a sentarte con una postura corregido, me han desaparecido los problemas de de lumbarize. La cuestión es que Flex y spot nos está volviendo a patrocinar esta semana porque, a partir del lunes trece de mayo, celebran el Brand Day, que es el inicio de las ofertas con hay cupones de descuento, hay sorteos para para tener productos gratis, y nada, si lo que estáis buscando en este momento, los oyentes de estocásticos, es actualizar vuestro escritorio, pasaros a uno elevable como el que tengo
Vamos ahora, Matías, con uno de los referentes de de este podcast y de las competiciones más interesantes que hay el sector, porque sabemos que Microsoft está, pues, superinvertido en OpenAI, pero ha saltado una noticia que que siembra un poco la las dudas, que es que Microsoft estaría desarrollando su propio modelo, no los chiquititos como los que contamos en el último capítulo de de FI tres y todos estos, que eran alternativos muy diferentes a GPT cuatro, sino que quieren sacar su propio competidor de GPT cuatro. Y Kevin Scott, el CTO, el súper jefe técnico de Microsoft en LinkedIn, pues básicamente ha confirmado la la noticia y ha dicho, ¿de qué os extrañáis? Nosotros estamos invertidos en OpenA y hacemos cosas guays con ellos, pero siempre hemos hecho también nuestros propios modelos. El modelo se llamaría MA I guion uno, qué nombre más, más malo, Matías.
Yo lo que estoy viendo es que va a saltar por los aires en en cualquier momento esta simbiosis Microsoft OpenAI, porque está el rumor de que OpenAI está haciendo su propio motor de búsqueda, se suponía que a Microsoft le interesaba esta gran inversión que hizo en OpenAI para integrar los modelos de OpenAI en Bing, pero ahora OpenAI compite con Bing. Esto esto va a acabar como el rosario de la aurora en en muy poco tiempo,
Bueno, vamos a ver. Yo creo que es difícil lo los equilibrios, porque si tú eres de inteligencia artificial de Microsoft, no no te interesa, no tienes los incentivos para, bueno, que que OpenAI lidere y nosotros ponemos los servidores. No, no, tú quieres competir y y quieres ganar. Y claro, es que Microsoft fichó a Mustafa Suleiman, Mustafa Suleiman, uno de los fundadores de DeepMind, es decir, un número uno en el mundo de la inteligencia artificial, y que tenía una startup que se llamaba Inflection, ya lo contamos. Microsoft seudo compró Inflection, no la compró de verdad, pero se quedó con todo, su valor, sus empleados y los derechos sobre sus modelos, y a partir de ahí es donde parece que que van a a dar su su próximo paso y tiene sentido, si fichas a Sullivan, es para hacer un gran modelo.
Fíjate, yo creo que hay una hay una parte interesante porque, además de Konopineyyee, claro, Microsoft tiene a Suleiman, uno de los fundadores de DyndVine, Google tiene a Hasabis, el otro fundador de DyndVine, y de repente van a competir. Es es es como si, no sé, yo voy a decir, es como si si tú y yo, ¿no? Discutiéramos y cada uno creara su propio podcast y de y de con otra persona, y sería sería un poco extraño, ¿no? Y y es como si Andy y Lucas se separan, Matías, y y crearan bandas rivales, ¿no? Y de repente, ¿qué vas?
¿Con el flaco o con el gordo de Andy y Lucas? Pues, aquí hay que tomar partido, Matías.
Sí, sí, sí. Sí, no, es como Kiko Matamoros y Cotto Matamoros, no pueden estar más distanciados entre los dos.
Sí, al otro día me pasaron un un un vídeo de, creo que era que era de Cotto, diciendo que que Kiko Matamoros y y otra gente famosa que no, yo no conozco eran satánicos.
Sí, yo lo tuiteé. Jorge Javier, Vázquez sacrifica animales en una pirámide que hay en Valdebebas, según cuánto Matamoros es eso.
Hombre, bueno, si fuera satánico, buscaría un sitio más mítico que Valdebebas.
Ya tenemos miniatura para YouTube.
Bueno, yo te yo voy a tomar el partido, a ti, yo lo siento por Microsoft, pero yo no puedo ir con Suleiman porque se disfraza demasiado de Steve Jobs para dar las presentaciones, y entonces me da me da cringe, como se dice ahora. Entonces, yo con el cringe de alguien que se disfraza de Steve Jobs no puedo.
Sí, es verdad, no lo tengo localizada la foto, pero es que literalmente parece un cosplay de Steve Jobs, es que da bastante grima.
Sí, sí, sí, amigos un imán, tú, los modelos a lo mejor lo hacen muy bueno, pero te falta un amigo que te diga, no te disfraces de Steve Jobs, no te viene bien. Bueno, en todo caso, has avisado, yo siempre tendré un rinconcito de mi corazón para aquel proyecto, para lo chulo que quedaba en el en el en el en el documental de Alphago, que lo sigo recomendando a todo el mundo y sabe ahí Hasabis, ahí todo metido en la en las partidas de go, entonces siempre siempre me queda muy bien. De todas maneras, con Microsoft pasa a otra cosa, Matty, que es, aquí hemos encumbrado a Satia Anabella, lo hemos puesto como el gran estratega de la era de la inteligencia artificial.
Ya no lo es.
Pero se ha filtrado un correo, Mathi, que cambia un poco la historia de cómo sucedió todo. No fue solo una iniciativa de Satia, estratégicamente adelantándose a todo el mundo al invertir en OpenEye, hay un correo del CTO Kevin Scott, ya con el asunto pensamientos sobre OpenEye, un poco poético Kevin Scott, ¿no? El el el el correo, básicamente, se resume en dos ideas. Idea número uno, es una es un correo entre Satya Bill Gates y Kevin Scott, ¿vale? El el trío más jefe de de Microsoft.
Bueno, Bill Gates se supone que no, porque Bill Gates ya estaba afuera, pero ahí está ahí en el correo.
No, yo Bill Gates me lo imaginé instalando vátereres en África.
Pues míralo, míralo. Bueno, el el correo dice dos cosas. Uno, nos estamos haciendo caquita con Google, es es el es el primer punto, diciendo, Google con ProTeInvine avanza en inteligencia artificial, va como un tiro, claro, aquí Kevin Scott, Nivel Gate y Satinela de la se dan cuenta de que Google avanzará inteligencia artificial para no sacar nada, esa era su gran estrategia de inteligencia artificial, pero bueno, el caso es que en Microsoft se hacían taquita con este tema y el punto dos es no nos queda otra que apoyar a OpenEI y meternos partes en OpenEI porque tardaríamos muchos años, o quizás no pasaría nunca el ponernos a la altura de Google. Y de repente, claro, y Bill Gates se supone que es el que dice Kevin Scott tiene razón, tenemos que entrar, y al final resulta que Bill Gates, Bill Puertas, estaba justo empujando la entrada de Microsoft en OpenEye, y no fue solo cosa de Satia.
Pero esto es increíble, esto es increíble, Satia es una marioneta de Bill Gates, además, lo que más me flipa es que este email es del doce de junio de dos mil diecinueve, antes de la pandemia, que para mí antes de la pandemia ahora mismo es la prehistoria en mi memoria, y Bill Gates, que tendría problemas con su mujer y con Jeffrey Epstein y todo esto, está atento, perdón, perdón, perdón, está atento a a la a a OpenAI, que por entonces OpenAI, pues no el no era ni ni una décima parte de lo que es ahora, y y decide hacer el movimiento. Claro, ve vuelta.
Aquí aquí, pasa una cosa, Mattí. Es decir, Bill Gates no puede seguir cosas tan importantes como la deriva de César Bulut, por ejemplo. ¿Tú has visto algún correo de Bill Gates hablando de, oye, es que César abandona su línea editorial de los vídeos de comilonas, se está poniendo amasado? No, no no no está atento a esos puntos, está como muy centrado, con mucho foco en en sus cosas de Bill Gates, ¿no? Entonces, por eso se anticipa, pero a a un a un alto precio, Matty, no puede tenerlo todo, se está perdiendo gran parte de la cultura de Internet de hoy en día.
Seguro que el vídeo de de Cotto Matamoros tampoco le le ha llegado. Bueno, el caso es que cerramos puerta Microsoft y hay un hay un conjunto de temas que que yo creo que tocamos poco, demasiado poco en el en el en el podcast Matthew, que son los avances en investigación científica y en medicina que se están produciendo con la inteligencia artificial, y quería aprovechar este episodio para, al menos, citar un par de cositas que que nos calenten el corazón, Matías, que que ilusionan y que nos hacen ver que más allá de nuestras cuitas y nuestras cositas habituales hay un mundo por ahí creciendo y habiéndose realmente excitante y emocionante. Google Research, y, bueno, es curioso como las organización de Google, perdona el inciso, porque esto lo firman Google Research, Google Depot, Google Cloud y y una compañía de Alphabets llamada Very Lite. ¿No? Bueno, pues, cuatro unidades de Google se han puesto de acuerdo, firman como unos cuarenta investigadores, el METGemini, que es una versión del modelo de inteligencia artificial Gemini, pero especializado en el territorio médico.
Y este modelo lo hace extremadamente bien en una gran variedad de tareas de del tipo cómo utilizar, pues, información de los pacientes, información de, bueno, de todo la el conocimiento médico con el que han podido entrenarlo, y además usar búsquedas web para a darle la mejor respuesta de diagnóstico médico y apoyar a los médicos en el tratamiento de los pacientes. Han hecho una evaluación de tres Medce Jamie nine catorce, pruebas médicas de referencia, pues, además multimodales, es decir, no solo con información de texto que con los síntomas del paciente, sino con imágenes de su temas a tratar, y en estas rendimiento, en diez de ellas superan a GPT cuatro en todas las pruebas, y digamos que en algunos de ellos llegan incluso una precisión del noventa y uno por ciento del diagnóstico. Entonces, vamos, es un proyecto superinteresante, superchulo, y a mí lo que más me interesa de de todo este escenario es la dupla médico con modelo grande de lenguaje que le apoye especializado en medicina hasta donde puede llegar la mejora de los tratamientos médicos.
Sí, sí. Esto es que siempre lo tenemos de fondo. No sé por qué debatimos tanto sobre IA generativa y sobre derechos de autor cuando llevamos seis meses realmente preparando un especial sobre biotecnología, la IEA aplicada, pues al descubrimiento de proteínas, la IEA aplicada a la medicina, y y salen tantos avances prometedores contra el Alzheimer, por ejemplo, contra algunos tipos de cáncer, que que me parece que esto es que tenemos que meternos a fondo en algún episodio y y hablar de todo lo que se está avanzando, porque porque en paralelo a a las noticias habituales, esto está sucediendo ahí detrás, ¿no?
Mirá, un apunte es solo para para que la gente salga idea de cómo está avanzando esto, publicaba Nature, bueno, un estudio aleatorizado de uso clínico de la inteligencia artificial en el diagnóstico, especialmente en el en la en la parte de de cardiopatías, en gente de alto riesgo. Y el primer este primer ensayo aleatorizado muestra que incorporar inteligencia artificial ya está salvando vidas, Matías. Es decir, hay una reducción respecto a no usar inteligencia artificial de un treinta y un por ciento de la mortalidad. Siete de cada cien pacientes cambian de que hubieran muerto con el tratamiento habitual a son capaces de sobrevivir más tiempo gracias a que en el hospital se utiliza también inteligencia artificial. Entonces, claro, esto es esto es ya, esto no es laboratorio, esto no es hipotético de futuro, esto es ya, está publicado por Nature.
Vamos, yo le doy cierta verosimilitud a, o sea, cierta fiabilidad a la a la calidad de estudio cuando cuando he llegado ahí, pero pero, claro, es es realmente lo lo más interesante y alucinante que está pasando con la IA de de de plano, vamos.
Yo la shwiner le adopter, el otro día le pregunté a ChatGPT si mi PR se estaba muriendo, porque llevaba varios días que no quería comer, que solo quería dormir, pero no, la verdad es que ChatGPT todavía no está tan preparado para para esto, porque al día siguiente resucitó y empezó a correr por toda la casa, así que Bueno,
pues nada.
Ciertas cosas no
Vamos a tener esperanza con tu parrilla. Vamos a cambiar de tercio porque tenemos que hablar de Jaimito Manzanas, Matías. Ay, una persona que importante de la inteligencia artificial actualmente. Jaimito Manzanas, a ver, que que es que no no sé ni ni actualmente.
Jaimito Manzanas, a ver, que te que, es que no no sé ni ni a qué te refieres. Vale, hay un usuario que es Apple's Jimmy,
para mí, Jaimito Manzanas, que llega siendo muy popular en el en el submundo de de la inteligencia artificial, de Twitter, inteligencia artificial, porque se fue conocido como un filtrador temprano de cosas de OpenEye. No se sabe si es un empleado, un exempleado, es el novio de un empleado, no sabemos, Jaimito Manzanas, quién es ni de dónde ha salido. Pero el caso es que tiene un histórico de algunos aciertos con OpenEye, algunas derrapadas muy grandes, si si seguís a este a este hombre, pero tiene una línea de comunicación con con fotos un poco random y caras sonrientes que, pues cae cae bien, cae bien Heimy Too Manzana.
Joder, ¿me recuerda físicamente cómo se llama el influencer? Bueno, esto es foto de la habrá sacado de Internet, pero me recuerda cómo se llama el influencer este que es un hombre que siempre está como en Mallorca y que se pone a cantar en Instagram.
Joder, tengo un amigo que es muy fan de ese tío, que es que siempre canta con una sonrisa y tiene los dientes muy blancos, que canta desde habitaciones de hoteles. Espero espero que los que los siguientes y las oyentas de monos pueden dejárnoslo en los comentarios, porque me gustaría volver a ver un vídeo de de de este caballero. Da alegría de vivir cuando lo ves, ¿no? Bueno, Jaimito Manzanas, lo que ha revelado es que se viene evento de OpenAI, y en este evento de OpenAI, él dice que lo que va a sacar es un competidor de Google, es decir, un, bueno, no sabemos si es exactamente un motor de búsqueda o habría que considerar algo un poco diferente, pero, en definitiva, un sustituto funcional de lo que sería lo el buscador. Aquí se dio una primera fecha que era, nos va a nos va a pisar el episodio, porque va a ser el jueves de esta semana y nosotros creo que vamos a salir esta semana el viernes, pero parece que se ha pospuesto al lunes de la semana que viene, así que podrá entrar en el próximo capítulo.
Matías Jaimito Manzanas, esperemos que no nos decepcione.
Bueno, Bueno, lo que se rumorea es que van a presentar el motor de búsqueda del que hablaba antes, ¿no? No sé no sé qué más podrían presentar, ¿o tú crees que va de repente va a salir un GPT cinco?
No, no, no, no. Bueno, yo no yo no creo que estén todavía en el en el nuevo modelo. Mira, mi mi punto es que ahora mismo tienen como un martillo a la búsqueda de clavos, es decir, con la guía generativa de los grandes modelos de lenguaje, en estos sistemas que adivinan la siguiente palabra y están buscándole casos de uso comerciales, de negocio, que sean más allá de chateo y le pregunto por mi perra a a ChatGPT, o hago de sistema de soporte al cliente, ¿no? Los primeros casos de uso que estamos viendo un poco con claridad, que parece que tienen un recorrido comercial. Y están haciendo algo de lo que yo tengo dudas, Mathi, que es empujar a los LLM, a los modelos grandes de lenguaje, a los chat GPTs a ser buscadores, que es algo de lo que yo tengo bastantes dudas.
¿Por qué? Porque ya sabemos, y los hemos repetido mil veces, que los modelos grandes del lenguaje en algún momento alucinan, inventan, se equivocan porque no están inventados para ser factuales, están creados, diseñados para manejar bien el lenguaje, para decirnos cosas que probablemente suenen bien y encajen con el texto que se le ha puesto de entrada, pero nos almacenan los contenidos, la información, nos consultan una base de datos. ¿Hasta ahora qué hemos tenido en el mercado? Pues hemos tenido sistemas que cuando tú le preguntas algo, se van y lanzan una búsqueda, recuperan el texto de la búsqueda y lo incorporan a la entrada para darte una respuesta. Es lo que hace, por ejemplo, Bing cuando chateas con Bing, el copilo de Microsoft, o también incluso ChatGPT cuando dejas activado que pueda buscar en Internet.
Pero yo no tengo claro realmente que eso sea una mejor experiencia, o por lo menos como usuario, para las búsquedas. Ahora mismo, no sé tú cómo cómo lo haces, pero yo, hay búsquedas que ya tengo en mi cabeza que son PachGPT, son preguntas de conocimiento, de como de poco conexión con la actualidad y búsquedas que para mí son de buscador tradicional, que le pregunto a a Google o incluso a Bing, que la verdad le estoy usando un poco. No sé tú cómo en las búsquedas tienes la cabeza organizada ahora mismo, Mati. Oh, pues, yo
es que tengo tanto desgaste de de usar Google y chocarme con posts que tienen intenciones ocultas de llevarme a algún servicio por el que se llevan comisión, que que soy Bueno, entonces tú también lo has escrito el error quinientos, ¿no? Yo yo soy de si si si algo no no me fío de la respuesta de ChatGPT, lo busco en Google con un site dos puntos Reddit punto com o site dos puntos SHATACA punto com. Entonces, yo creo que Monos Estocástico tiene que aspirar a ser ese tipo de prescriptor para la gente, ¿no? Que la gente busque una noticia y y añada monos estocásticos para ver qué hemos dicho sobre el tema.
A lo mejor ayudaría a escribir la newsletter a eso, pero, bueno,
pues Es, tengo tengo que cambiar en Twitter, que enlazamos a la newsletter, en lugar de enlazar al podcast, la newsletter no se actualiza. Somos
Mira, una una una cosa interesante es que quien ha hecho esto antes que que Open Eye es Perclesity, es un precio del que hemos hablado aquí, que está bastante bien, y el que mejor se aproxima a una experiencia razonablemente buena de búsqueda apoyada en modelos grandes de inteligencia artificial. El problema de Perplexity es el problema que va a tener Google y el problema que va a tener OpenAI, que es el modelo de negocio. Y el problema es doble. Uno, estos modelos son caros de ejecutar, por lo tanto, ¿qué hago? ¿Le cobro al usuario una pasta por usar un buscador?
Pues, probablemente, la mayoría de usuarios digo, si Google es gratis, no voy a usar tu buscador pagando. Perpreciti ahora se plantea, viendo esta realidad, pues metamos anuncio, y entonces el mundo de los sistemas de inteligencia artificial generativa que quieren sustituir a Google están acabando con el modelo Google. Y por último, lo bueno de ChatGPT es que te responde, no te hace ir a más páginas webs. Claro, esto rompe un ecosistema, el ecosistema consiste en que hay unos creadores de contenido que ponen el contenido, Google intermedia entre las búsquedas y este contenido, pero te acaba enviando tráfico. El creador de contenido con ese tráfico, pues, hace hace su negocio, te pone anuncios o hace afiliación o lo que él quiera.
Claro, en el modelo en el mundo de los modelos grandes del lenguaje tenemos el problema de que si soy muy bueno y te puedo dar la respuesta, no te pongo enlaces, pues he roto el ecosistema, porque sí que me estoy nutriendo del contenido de los creadores de contenido, es lo que he usado para entrenar el modelo. Entonces, ¿qué pasa? Que Prestige te pone enlaces, OpenAI te va a poner el enlace seguro y hay hay una disyuntiva, si la respuesta es muy buena, aunque te ponga enlaces no lo vas a pinchar, si la respuesta, si quiero que pinches los enlaces para generar tráfico a los creadores de contenido, la respuesta no puede ser completa. Una disyuntiva que yo no sé cómo la van a resolver, Matías.
No, desde luego ser creador de contenido ya no se da la cuenta, Tony. Esto, si van a entrenar con tu contenido en las IAS y luego son las IAS las que van a poner los anuncios y van a llevarse el dinero, pues complicado. Aunque también te digo, es como cuando Marca coge un vídeo de Internet y le pone un un anuncio prorrol en su propio reproductor de vídeo y se lleva y se lo lleva calentito, ¿verdad? Entonces, siempre siempre hay grises, Antonio.
Un último punto que lo revisaremos cuando lo saquen es que OpenAI además tiene acuerdos con algunos proveedores. Tiene acuerdo con Assell Springer, tiene acuerdo con Financial Time, tiene acuerdo con Prisa en España. ¿Qué ¿Qué pasa? Que hay en las primeras voces, ya yo he visto algunos hemos hemos comentado que están diciendo, oye, OpenEye, cuando sea que es tu buscador, pasa? Que siempre vas a responder primero con el país, la cadena SER, el Huffington Post.
Entonces, claro, en vez del usuario poner dos puntos, quiero que me mires aquí, como hace Matías, el dos puntos mira primero en la cadena ser, te lo va a poner OpenEye, lo cual va a ser si es fuera finalmente así, yo no lo haría así, no sé la lo que tiene esta gente de su cabeza, pues sería un, pues, un asunto de nuevo de amplia discusión. Pero bueno, Matti, lo dejamos ahí porque tenemos que hablar de buenas noticias para bonos histocásticos, porque nos llevan, nos llevan de paseo, Matty, a hacer episodios.
A mí me hace mucha ilusión esto. Paréntesis media, que ya sabéis que lo recomendamos todas las semanas, porque muchas de las noticias que que sacamos en monos las montado en los estudios de La Viña en Barcelona, que lo vamos a emitir en directo, lo va a emitir paréntesis media en sus redes sociales, en su canal de YouTube, en su web paréntesis punto media, un episodio de monos estocásticos, que luego publicaremos nosotros en el feed del podcast, no os preocupéis. Y ojo, ojo, porque estamos Antonio y yo, como siempre, es un episodio de mono que va a tener su puerta grande de enfermería, etcétera, pero los invitados, claro, creo que tenemos muchísimas ganas de entrevistar, son dos youtubers que seguro que os suenan, que son Xavier Miglana y Carlos Santana dot CSV. Vamos a hablar mucho de la industria audiovisual, de cómo la inteligencia artificial está afectando a a la industria y de, bueno, es que en realidad tengo ganas de preguntarle muchas cosas a esta gente porque están todo el tiempo consumiendo noticias y seguro que tienen opiniones muy fuertes, sobre todo. Antonio, ¿un episodio live?
Life, sí. Yo voy a recomendar a toda la gente que intente verlo en directo, será el juego de dieciséis, cinco media, más las las dieciocho horas de de de la tarde, y, bueno, tiene tiene sentido verlo en directo porque si decimos alguna barbaridad, decimos alguna cosa realmente explosiva, no os quedéis con la versión editada, que luego vendrá ahí con su censura, ¿verdad? Porque Matías luego mete la tijera y verlo en directo porque, claro, es donde donde va a estar el la chicha, el el meollo. Así que muy contentos, la verdad, ya en serio, porque, primero, es una gente estupenda que está ahí peleando por la inteligencia artificial en español. Vamos a hacer un episodio con dos primeras espadas de la divulgación de la IA, y por último, bueno, el tema, uno de los temas más excitantes de la IA este año, que son los modelos generativos de vídeo, el impacto audiovisual y un montón de temas, habrá puerta grande de enfermería, vamos a hacer un episodio supercompleto de moros estocásticos.
Y hablando de puerta grande de enfermería, Matte, tenemos mucho, tenemos mucho en el guion, pero es que esta semana hay un puerta grande o enfermería especial.
Me la has adelantado hoy en el crossfit y has cambiado el formato.
Sí, sí, bueno, hay hay que decir una cosa que, por para que la audiencia lo tenga en cuenta, en el crossfit hoy, en la sentadilla trasera, Matías no no ha hecho más que yo, es decir, hemos estado ahí a la par. Es decir, que es verdad que en el press banca está ya Matías, ¿cómo se nota? Esa juventud, esa lozanía que que que que exudas, pero, entre todas las cosas como son, en sentadilla trasera estamos sin pátes, así que, bueno, que que no cunda el el pánico. La edición especial, Portacando de Enfermería, declaraciones de San Altman. Matías, nuestro amigo, San Almito, ha estado haciendo una ronda, entrevistas, conferencias, un poco de todo.
Las dos últimas semanas hemos recopilado algunas de las mejores declaraciones de de este hombre y tú, pues, vas a tener que evaluarlas porque y quién mejor, ¿no? San Alman, tú para poner en su sitio aquí las cosas que tienen sentido y las y las que no tienen. ¿Te parece bien?
Sí, es que además estas semanas no se no se ha callado este hombre, ha ha soltado por la boca, pues, todo lo que se le pasaba por la mente.
Se ha quedado gusto, Matías, se ha despachado bien. Primera declaración, atención. Es el mejor momento de la historia, Mati. ¿Sabes para qué? ¿Para qué?
Para ser joven, desconocido y pobre. Atención a la declaración de Zan Altmann, que dice, ser joven, desconocido y pobre son en realidad grandes regalos. Es una gran oportunidad porque con la inteligencia artificial, claro, se te abre un mundo de posibilidades para, supongo, que dejar de ser desconocido, supongo que para dejar de ser pobre y supongo que para seguir siendo joven. Creo creo que ese es el poco el punto, pero claro, el facto es, oye, es el mejor momento de historia para ser joven y pobre. ¿Cómo lo ves?
La montaña de privilegio es que este es de octubre pasa mucho tiempo en Silicon Valley. O sea, también es cierto que yo esta ya la había visto y yo pensaba, yo lo tuiteé en el Twitter de monos estocásticos arroba monos podcast, estamos tuiteando más últimamente, que yo pensaba que tú ibas a introducir al episodio de hoy con esta historia y, de hecho, inventé cómo iba a ser la intro del episodio de hoy. Matías, bienvenidos a monos Estográficos. Antonio, ¿cómo estás? Antonio, estoy preocupado por ti, Mati.
Matías, ¿qué pasa ahora? Antonio, eres joven, desconocido y pobre, no estás sabiendo ver esa gran oportunidad que de la que habla Sam Alman. Yo pensaba que tú ibas a intentar introducir así el emisor de hoy, pero lo de César, lo de César Blue ha tenido también su gracia. Yo, honestamente, creo que este hombre a veces debería callar más, porque ser pobre no tiene ninguna gracia, y ser joven, pues depende. Yo soy joven.
Ay, bueno, yo creo que ya depende de la del punto de vista, Matte. Yo te voy a ir en la transición a a señor al señor más maduro, entonces, bueno, tendrás que ir afrontando la realidad de la de la edad adulta, Matías, hacer algún curso de cocina o, no, tú ya sabes que, o o te haces foodie o te haces runner, tendrás que que ir eligiendo tu camino. Bueno, velo pensando, yo creo que te queda todavía unos cuantos años para para estar en en este mundo y vamos a pasar, esta es enfermería, esta primera declaración, no empieza bien San Altman. Siguiente declaración, GTT GTT cuatro es la inteligencia artificial más tonta que tendrás que usar en el resto de tu vida. ¿Bueno?
Bueno, ahí está el facto que suelta San Carlos. A ver,
yo creo que la gente de marketing de OpenAI no le habrá gustado mucho esta declaración, pero tiene todo el sentido del mundo, No vas a ir a peor, vas a vas a ir a mejor. Entonces, todos asumimos que GPT cinco y GPT diez van a ser mucho más inteligentes que GPT cuatro.
Claro, tú te imaginas presentando GPT cinco, no, es peor que el anterior, pero bueno, como como ya habíamos pagado el catering del evento, pues
Esto lo hace mucho Apple en sus presentaciones, ¿no? Este lápiz de solo odio. Lápiz del iPad es el mejor que hemos hecho en la historia.
Sí, sí, el mejor iPhone de toda la historia, me cago ni a día. ¿Qué me estás contando? Bueno, enfermería, enfermería para estos tipos de mensajes. Asán, vas vas cero dos contra Matías, está muy muy complicada la cosa. Bueno, vamos a ver, voy a buscar otra declaración, vale.
Bueno, vamos a saltar a una un poquito más abajo. Shandiman es conocido por por ser el gran, ¿no? Es estar siempre pidiendo perras, es que es algo que hemos contado muchas veces, pero hay otra cosa en la que también es muy bueno Sam, Matías, ¿sabes en qué? En gastarse las cosas. Atención, declaración de Sam.
No me importa si gastamos cincuenta mil millones de dólares al año. No me importa, porque estamos construyendo la AGI, la inteligencia artificial general, y va a merecer la pena. Pum, fin de la cita, Matías. ¿Cómo te quedas?
Si OpenAI es una secta en la que solo puedes entrar, si crees en las AJIS, pues este liderazgo tiene tiene sentido, ¿no? Hay que gastar lo que sea, lo que nos den con tal de llegar a ese objetivo de desarrollar la inteligencia artificial general. Ahora, no creo que a los accionistas les haga gracia, a los de marketing desde luego tampoco, pero, bueno, aquí veo un samal man empoderado, ¿no? Un poco escuela Elon Musk. Vamos a despedir a catorce mil personas porque es hora de de que Tesla mire el futuro, ¿no?
Pues es una declaración un poco energética, con mucha testosterona. Yo aquí lo respeto.
Sí, bueno, yo además creo que nos da una buena enseñanza, Mati, para gestionar las acusaciones de mal gasto de dinero. Imagínate que tú tienes una empresa o incluso en el ámbito familiar, haces una compra, ¿no? Te compras, ¿qué cosa mejor podemos comprarnos que un nuevo ordenador con una GPU potentonas ahí para jugar al balatro a todo lo que dé? Bueno, pues pues es lógico, ¿no? Entonces, a lo mejor en tu familia hay cierta incomprensión, porque te has gastado dos mil euros, dos mil quinientos euros, tres mil euros en un ordenador nuevo si el otro funcionaba.
No me importa gastarme dos mil euros, cariño, amigo, compañeros, es que estoy buscando la AGI, y si estoy buscando la AGI, va a merecer la pena, no, o sea, no no importa lo que gastemos el dinero ahí. Esto tiene una GPU de envidia, pues, para adelante, no hay ningún problema. Entonces, yo creo que aquí le podemos dar puerta grande, Mati, porque nos da una buena enseñanza para gestionar esos conflictos empresariales o familiares.
Me has hecho sentir mal, porque tengo aquí un air tag de de Aliexpress de tres euros y y ahora pienso, ¿por qué me he gastado tres euros pudiendo gastarme treinta y cinco en el de Apple? Pues
Claro, no tienes no tienes el espíritu de San Alma. San Alma, claro, es que estás buscando el agi, Mati, ¿no? No no puedes reparar en en minucias, en gastos, tiene sentido. Vamos, atención al al a la última cosa de Sam, bueno, a la penúltima. Atención a lo que se pregunta el amigo Sam, él ya está en el futuro, Matías, no no no se queda en los problemas habituales de esta generación en gestión financiera, y se pregunta cuando lleguen los agentes inteligentes, ¿no?
Esos compañeros que estarán con nosotros, que harán todo por nosotros, con los que hablaremos y se encargarán de nuestras tareas, que verán lo que nosotros veamos cuando vayamos a los sitios, que, bueno, en principio, pues vamos a contar con ellos para todo, Matías. Ahora bien, tú tienes esta gente inteligente en el que confías y en el que cuentas, con el que cuentas. Claro, si hay un juicio porque tú has podido cometer alguna fechoría, Matti, ¿no? Por ejemplo, vamos a poner un ejemplo para que la la audiencia se haga se se se haga cargo, ¿no? Matías, pues, suele coger botellas de agua desde el box cuando entrenamos.
Ahí sí que no escatigo.
Matías es una persona que no es partidaria de tener una botella rellenable y ahorrarse un euro cada día. Pero pongamos que en alguna de estas situaciones se le olvida pagar la botella, ¿no? Claro, como su agente inteligente va con él todo el rato, ¿no? Y él, bueno, aquí, mientras, charla con su agente inteligente, oye, debería ir también en el box, sí, sí, coge una botella, pero están ahí bulla con carne, claramente. Entonces, si en algún momento esto llega a juicio, Matty, ¿no?
Y Voxerral te te demanda y tú estás delante del juez, podrás llamar como testigo Voxerral, esto es lo que dice, sean almas a tu agente inteligente y, por lo tanto, que él testifique en tu contra. ¿Cómo ves tú que se puede resolver esta situación?
Pues mira, ahora que ChatGPT tiene memoria, me viene mal, pero como no funciona en la Unión Europea, no creo que haya problema, no no creo que haya problema.
De momento podemos estar tranquilos.
Joder, es una buena pregunta, pero esto se suma a la pregunta de, ¿es ético desconectar a mi novia virtual? ¿Es es ético? No sé, debería tener un abogado esta inteligencia artificial, ¿no? Pues eso.
Yo creo que el truco va a estar en que te cases con ella, es decir, porque creo, me lo estoy inventando aquí los abogados, yo lo único que he hecho es ver tres películas malas, creo que tus familiares pueden negarse a testificar en tu contra. Entonces, tú te casas con tu novia a gente inteligente, tienes que juntarlo todo, ¿no? Tiene que ser la, bueno, como compañera de trabajo y también pareja sentimental. Te casas con ella y desde entonces cuando tu gimnasio, por ejemplo, quiera demandarte estas cifras, pues tú puedes decir, ah, no, no puedes ser ético en mi contra porque es que estamos casados, nos amamos, no es una buena solución,
Sí, y además, ¿sabes qué es lo peor, Antonio? Que hoy no he pagado el agua, porque se Es que creo que la monitora, se cree yo que le le estaba contando un cuento, pero se me resbaló el euro en el asiento del coche y no y no he pagado el agua, o sea que
Es verdad que da mucho coraje, porque es muy difícil coger las cosas que se dan por por los asientos de los coches, Te echas un rato.
Bueno, pues nada, si alguna vez me queréis regalar algo, pues me viene bien una cartera, una mochila y una botella de agua.
Sí, y además, Matías te hará un buen uso de ellas, las dejarán todas en casa y volverá a ir al gimnasio siempre con las cosas en la mano. Última última tech de Sant Altman, Matías, y es un momento de nuevo para felicitar a la audiencia de monos estocásticos, Matthew, lo hacemos al final del capítulo, cuando solo los más fieles a donde solo los más fieles llegan, porque San Alma ha dado, atención, las claves para sobrevivir en la era de la inteligencia artificial, y yo las voy a resumir en una frase, la clave para triunfar, sobrevivir en la era de la inteligencia artificial es seguidor, ser seguidor de Buenos Histocráticos, Matías. Vamos a ver las claves que ha dado San Alman, atención. Es la edad de oro de la mayor la mayor edad de oro de las posibilidades humanas. Aquí incluye a los a los jóvenes desconocidos pobres, bueno, no hay novedad, vamos a ver qué qué qué dice Sam para prosperar en este mundo.
Dice, las habilidades que más importan, atención, es una profunda familiaridad con las herramientas, y esto es algo que monogestocástico ha facilitado, ¿no? Cuando, por ejemplo, tú te acuerdas del episodio en que explicamos cómo duplicar la voz de Yados para mandar mensajes de WhatsApp. Es decir, realmente profundizamos y damos ahí una familiaridad con las herramientas o tú, por ejemplo, la gente más avanzada que charla con PDFs lo es gracias a ti, Matías. ¿No ve? Primer punto, la gente monoestratégético lo cumplamos.
Estar al día de los cambios. Claro. Esto es totalmente, totalmente, todo lo todos los cambios, vamos, todo todas las noticias y novedades, pues, la la refleja monohistórcáticos, además con un pie en el Metaverso, César Blue, Spursito, contamos con con todas las novedades. Atención, desarrollar una gran intuición para las herramientas de IA hacia dónde van las cosas y cómo aprovecharlas. Y fíjate, yo creo que aquí en bonus somos un gran avance porque con el puerto grande de enfermería te decimos lo que sí y lo que no.
¿Te acuerdas, por ejemplo, cuando adivinamos y acertamos que el chatbot para hablar con Hitler y Goebbels no iba a triunfar? Mucha gente podría haberse descaminado a charlar con viejas glorias del partido nazi, pero gracias a monos no. Se pusimos ahí una barrera y y y, bueno, Lucía tiene éxito, FreePix se gasta los millones, la gente claramente estamos ahí en la en la onda. Y lo último, resiliencia, Matías, resiliencia, de todas maneras que me hace gracia, perdona. Resiliencia y capacidad para aprender rápido y evolucionar con la tecnología.
Entonces, yo veo muy clara la resiliencia que que tú traes al podcast, Mati, es decir, ese esos esos entrenamientos en el box, el crecimiento en pret banca, ¿no? Ahí está claramente la la la resiliencia, y para aprender rápido y evolucionar con la tecnología, pues prácticamente es que nosotros te plantamos un un pie en el futuro, somos dos colegas de Yal Decun de de Meta, en fin, estamos estamos en el ajo. Por lo tanto, yo creo que es un día para felicitarnos, Matías, estar muy orgullosos, porque todos los seguidores de Monday Tucásticos tienen lo que hay que tener para sobrevivir el área de la inteligencia artificial.
Qué bonito, pero es verdad. Toda la gente que ha llegado al final del episodio, seguro que serán en el futuro los que busquen site dos puntos, monos Estocásticos punto com y lo que quieran aprender ese día de nosotros.
Qué bien, qué bien, qué buen final de episodio. Dudabas en sacarte un tema porque hay un oyente que que tiene un problema, Mati, y aunque aunque sea alargarlo un poco, yo creo que merece la pena ayudarlo y sacarle del hoyo, Mati, sacarle del fondo oscuro en el que se ha sumergido y en el que a lo mejor necesita un poco de la luz.
Últimamente te estoy dando mucha manga ancha porque los episodios se van a hora y cinco, hora y diez. Cuidado, a ver, cuéntame.
Pero claro, es que estamos salvando a la gente en la era de la vida, Mati, no podemos regatear, igual que Sam, no regatea en gastos, pues nosotros nos regateamos en tiempo. Bueno, un oyente, periodista de tecnología, podcaster en binarios, Ángel Jiménez, una primera espada del periodismo tecnológico español, está pasando un mal momento, tienes un momento Deep Blue, un momento de vértigo y miedo ante la inteligencia artificial. Atención, él ha descubierto que un modelo multimodal de lenguaje, esos que permiten trabajar con texto, con imágenes, cuando le introduces una foto de un sitio, te puede decir dónde está ese sitio. Atención a que avance, ¿no? Tú le pones una foto de la Plaza La Merced y te dice, es la Plaza La Merced, y claro, Ángel entra en pánico, él entra en un gran miedo y dice, si esto no da miedo, debería daros miedo, porque con una foto se pueden localizar cualquier, la localización de cualquier foto en segundos con bastante fiabilidad.
Entonces, está en un momento, esto no supera a la a la realidad, Mati. ¿Tú qué qué consejos le puede dar a Ángel Jiménez para que supere esta facilidad?
Yo como fan dire geogesser, el juego de de adivinar dónde estás en el Google Street View, creo que hay gente que ya lo hace bastante mejor que que los modelos de lenguaje multimodales. Ahí el chico este, el que es más famoso, en en dos segundos te dice exactamente dónde está tomada la foto. Esto no te lo hace una hija.
Claro. Es que a mí me da más miedo ese chico que la hija. Sí, ¿tú eres tú serías la novia de ese chico o el novio de ese chico? Tengo mis dudas, Ahora eso sí, yo creo que aquí hay una es cosa fatal, el geogesing, ya sabéis ese juego de te pasan una foto y te vino dónde es, es un una una práctica, una competencia que ha tenido, ¿cuánto? ¿Dos años de vida, tres años de vida?
Y ya ha sido superada por la IIA, por la por lo menos en el ajedrez tuvieron miles de años, ¿no? De de, miles de años, Miles de años, a lo mejor me ha pasado, sí, bueno, cientos. Bueno, el caso es que, Ángel, tranquilidad, ver una foto y saber qué sitio es, no va a acabar con el mundo, no va a acabar con la civilización, pero sí va a acabar en este episodio de Moros Estocásticos.
Pues qué bonito final, la verdad me alegro de que hayáis llegado hasta el final. Yo no suelo mirar la estadística de cuánta gente se queda hasta el final, pero a mí me pasa cuando escucho criminopatía que a veces me quedo en el coche esperando a ver si dicen quién ha matado a la chica o o o qué, y entonces es cuando, ya lo sé, es cuando me bajo del coche y me pongo a trabajar. Pero que los oyentes de monos estocásticos estéis haciendo lo mismo en este momento. Nos vemos la semana que viene, Antonio, con muchas más noticias de inteligencia artificial, y acordaros, dieciséis de mayo el episodio en directo con paréntesis media desde Barcelona con doce CV con Xavier Migllana. Un abrazo a todos.
Chao, amics.