Nos regalan churros con chocolate, creamos el primer GPT cuñado y promovemos las estafas a la Generalitat. Además, una IA enfada pero que muy mucho a Bad Bunny.
Se viene Grok, el modelo de lenguaje sarcástico de Elon Musk. ¿Los coches autónomos de Cruise eran una estafa? Evento de desarrolladores de OpenAI con GPT-4 Turbo y la tienda de GPTs.
Y Tom Cruise convence a Joe Biden de regular la inteligencia artificial
Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com
Transcripción
Bienvenidos a Monos Estocásticos, vuestro podcast favorito de inteligencia artificial. A juzgar por nuestra saludable posición en los rankings, sobre todo los de Apple Podcast. Antonio, ¿cómo estás? Matías, no sé si te has dado cuenta de que nos va mucho mejor con la inteligencia artificial, y a ti, a mí, que a Bad Bunny. Porque, atención, nuestra comunidad de lectores es la mejor del mundo, nos deja comentarios majos,
nos soporta cada semana, Matías. Pero es que, además, nos han invitado a churros. Un logro que creo que en el podcasting, ni Jordi White, ni Masticando los Chicles, ni ninguno de estos, había conseguido hasta ahora este hito, Matías. Sí, estamos recibiendo comentarios chulos, pero cuéntamelo de los churros, porque yo no me había enterado. Es el usuario Trifero, ha dejado pagados para ti y para mí dos raciones de churros en Casa Grande, Málaga.
Claro, nos va a pillar a mano, claro. Imagínate, un escuchante cántabro, nos deja pagada un pincho de tortilla en Santander, pues no es tan práctico, no nos viene tan bien. Pero unos churros en Casa Grande, yo creo que entran bien siempre, además con el fresquito. Y, además, esto es muy importante, nos va mucho mejor que a Bad Bunny, que está ahí lloriqueando, lamentándose y porfiando contra la inteligencia artificial.
Bueno, pues, por mi parte, muchas gracias a Trifero, porque, la verdad, no sabía lo de los churros y voy, por supuesto, que voy a ir a cobrarme el regalo. Y luego, lo de Bad Bunny, yo lo sigo en los canales estos de WhatsApp, porque fue como el primer famoso en hacerse un canal de estos de WhatsApp. Y a las cuatro de la madrugada puso algo así como si a alguno de ustedes le gusta esa mierda de canción viral en TikTok,
sálganse de este grupo ahora mismo. Estaba muy enfadado, muy enfadado Bad Bunny. Bueno, pues, hablaremos de él en Puerta Grande Enfermería, porque es que hay tantas noticias, tanta actualidad que nos arrolla y tantos debates que surgen a partir de allá que hay que meter la quinta marcha. Matías, vamos a por ello. ¡Música! ¿Te parece si empezamos por lo de Elon Musk para no dejarlo atrás? Claro, porque teniendo aquí un especialista en Elon,
un experto en las andanzas, propuestas y quehaceres de este señor, hay que aprovecharlo. Vamos por ello. Bueno, pues, vamos a por el tema de Elon Musk. El tema de Elon Musk es que, en el mundo de la tecnología, el que más se ha visto en las últimas décadas es el que más se ha visto en el mundo de la tecnología. Y, por supuesto, el que más se ha visto en el mundo de la tecnología hay que aprovecharlo.
Vamos por ello. Bueno, pues, por fin, XAI, la empresa de inteligencia artificial de Elon Musk, ha presentado su primer modelo de lenguaje que se llama Grok. Tiene una explicación lo del nombre, ¿no, Antonio? Sí, porque Grok viene de un libro, un escrito de ciencia ficción del siglo XX, años 60, Heinlein, que en forasteros, en tierra extraña, creo que se llama... o por lo menos se tradujo así al español el libro, pues, plantean un entendimiento o desentendimiento
entre marcianos y terrícolas, en la que Grok es una palabra marciana que significa algo así como algo o alguien que entiende y comprende tan completamente algo que el observador se convierte en parte del observado, se fusiona, se mezcla, se mimetiza. Es una comprensión profunda, casi metafísica. Este término, como está en este ámbito de la ciencia ficción, pues, en la cultura geek, ha pasado a significar algo como entender algo
por empatía, intuitivamente, que estableces con una relación tan profunda, tan empática, que formas parte de lo mismo que eso con lo que establece la relación. Yo, la verdad, que Heinlein no lo he leído porque en mi época cifi me dio mucho más por los debates tecnicocientíficos, asimovianos y cosas de estas, y menos por Heinlein, que siempre tenía como libros muy violentos. Este fue un libro de referencia también en la época hippie,
pero bueno, o al menos lo intentan vender así, pues, censurado en España, en fin. El libro tiene una historia que yo entiendo porque a Elon le parece tan persuasiva como para bautizar así a su inteligencia artificial. Bueno, pues, esa es la explicación del nombre Grok. Al final, es un modelo grande de lenguaje, como todos los que hemos estado viendo, basado en la idea del autoestopista galáctico de explicar todo lo que se puede saber sobre el universo,
que esa fue la gran promesa de Elon, pero el primer ejemplo que puso es el de cómo hacer cocaína, cómo obtener cocaína o cómo cocinar cocaína, después de haber pedido la famosa pausa en el desarrollo de la inteligencia artificial, que lo que ha hecho más que nada es acelerar el desarrollo de la inteligencia artificial en los meses que han pasado. Claro, porque él fue uno de los grandes impulsores y primer firmante, por lo menos lo pusieron,
primero ahí, en las firmas, de aquella famosa carta que pedía que parara el desarrollo de modelos más grandes que GPT-4, si no recuerdo mal, en el Kennedy de distancia. Sí, bueno, luego en una entrevista dijo, bueno, no creía que nadie fuera a pausar realmente el desarrollo de la inteligencia artificial. Es un poco pájaro, no te puedes fiar mucho, tú ya lo sabes, pero claro, un modelo de este calibre y de este tamaño
no se ha entrenado en dos días. Es decir, estaba, o al menos ahora creo que queda claro, que mientras firmaba esa carta, el otro Elon, el Elon menos prudente, estaba ya poniendo a entrenar el nuevo modelo. Sí, cuatro meses es lo que ha pasado, los resultados los tenemos aquí en esta tabla, no llega a ser un modelo tan bueno como GPT-4, pero según este análisis que han publicado en XAI, está por encima de LLAMA 2 y de GPT-3.5
en muchas de las pruebas y de los benchmarks que le han pasado. Hay muchos expertos que cuestionan los benchmarks, Matías, dicen que igual que los benchmarks de microprocesadores, al final puedes diseñar o optimizar tu modelo para rendir y sacar buenos números en estos benchmarks, pero bueno, a falta de poderlo probar, que todavía no podemos, parece ser una guía al menos para tener una pista de por dónde puede estar.
Entonces, mejor que el chat GPT gratis, que el GPT-3.5, pero ligeramente inferior en distintos benchmarks a PAL-2, que es el de Google con BAR, el Cloud-2, el de Anthropic, y bastante peor que GPT-4. La gran ventaja, yo diría, que es el acceso, según Elon, en tiempo real, pero bueno, no lo hemos podido probar, porque todavía no está disponible para todo el mundo. En algún momento va a estar disponible para los usuarios
del Twitter Premium Plus o el X Premium Plus, que yo estoy pagando... Para ti, para ti, Mati, para ti. ...que yo estoy pagando ahí 19 euros al mes, ya explicaré por qué. Bueno, al final lo que hace es acceder en tiempo real a las noticias y a los tweets, lo que le permite tener este lenguaje sarcástico y un poco vulgar que tanta gracia le está haciendo a Elon, que no para de compartir ejemplos de respuestas
así muy irónicas, ¿no? Le pregunta, por ejemplo, por Sam Backman-Friede, el fundador de FTX, que, bueno, no sé cuánto tiempo va a pasar en la cárcel, pero bastante, y la IA de XAI, Grock, le contesta... Oh, querido humano, tengo noticias jugosas para ti, parece que nuestro amigo bla, bla, bla, ha sido encontrado culpable... O sea, ese es el tipo de respuestas que arroja Grock en comparación con Chas G.P.T.
En Chas G.P.T. siempre decimos que es Ned Flanders, pues esto es el vendedor de la tienda de cómics, más o menos, para ubicarlo ahí en el lore de los simpsons. ¡Qué buena referencia! ¡Qué buena referencia! Sí, además lo está vendiendo como un poco sarcástico. Fíjate, yo creo que es un buen punto, porque conforme el resto de empresas de inteligencia artificial están cada vez más cuidadosas, que no se metan la pata,
llegando incluso a ser bastante frustrantes, porque no te dibujo esto, no te dibujo lo otro, no te puedo responder a esto, no te puedo responder a lo otro, cuando responde es súper diplomático, blanco, no quiero molestar a nadie, están muy abonados a ese, digamos, diseño de la personalidad de la IA. El que esto tenga un poco de juego, que responda con un poco de ingenio, que sea un poco sarcástico, puede tener su punto.
Yo creo que quiere recuperar aquel primer entusiasmo que hubo con Sidney Devine, que era bastante atrevido, el bot, que duró tan poco tiempo, el pobre, y creo que en esa parte estaba bien jugado. Luego de Twitter, pues fíjate, la mayoría de gente dice que lo único que va a conseguir es tener mensajes de odio y desinformación. Yo creo que es interesante si se integra muy bien con las notas de la comunidad,
que creo que es una de las funcionalidades más interesantes de Twitter de los últimos años. Bueno, tiene una carta que jugar, tiene un punto. Bueno, desde luego, si algo nos parece mediocre de echar GPT o de GPT-4, es el acceso que hace a las noticias con Bing. A mí nunca me ha resultado tan útil como el propio modelo de lenguaje, así que quizá si esto de Grok mejora un poco el acceso a la actualidad
con esas correcciones de las notas de la comunidad y te da respuestas en tiempo real de lo que está pasando en el mundo, a lo mejor por ahí puede haber algo interesante. Recordemos que solo lleva cuatro meses, lo han entrenado en los últimos cuatro meses, o sea, que parten con una desventaja importante y ya se sitúan supuestamente por encima de GPT-3.5. Keith Foley, que es un clásico, un histórico de la inteligencia artificial,
yo me he leído algún libro de él, es un tío superinteresante, fue el primer director de Google China, cuando Google China existió muy poquito tiempo. Ahora ha sacado un modelo que se llama 0.1.AI, que está un poco en el entorno del rendimiento de este Grok, en los benchmark y tal, un poquito mejor que ya 2. No está teniendo tanta cobertura, como algo basado en X con Elon Musk detrás, pero es bastante interesante porque además lo está distribuyendo
y lo está compartiendo con una licencia más abierta y que en contraposición a OpenAI, además el amigo Kai Foley le está pegando tiritos a Elon de, oye, mucho criticar a OpenAI, mucho tal, pero esto es igual, es el mismo modelo, cerrado, propietario, compartiendo muy pocos detalles de la tecnología interna, entonces es copycat de OpenAI, mientras que Kai Foley va un poco más en la línea de llama, de meta, de ser más abierto y una licencia,
con un asterisco, porque es un modelo chino, atención, porque está hecho desde China, claro, ahí el amigo Kai Foley se defiende y dice, no, esto no va de China contra Estados Unidos, esto va de cerrado contra abierto, y digo, bueno, bueno, a lo mejor el Partido Comunista Chino tiene una opinión ligeramente diferente, pero bueno, ahí están los nuevos modelos de la semana. Joder, pues no me extraña que empecemos a ver cosas también
desde China con esta guerra comercial que hay a todos los niveles entre Estados Unidos y China y seguro que tienen mucho que decir las empresas chinas privadas y con vínculos misteriosos con el Estado. ¿Con qué seguimos, Antonio? Cruiz, el servicio de robotaxis de General Motors. ¡Vaya polémica esta! Pues que es un caso superinteresante, por aquí ya hemos hablado de robotaxis y de conducción autónoma,
es un problema tecnológico-social realmente fascinante. Bueno, el caso es que ha habido noticias con ello, porque puede haber algunos incidentes extra protagonizados por sus robotaxis, bueno, un atropello de una mujer en el que se vio involucrado, aunque, claro, ahí cuando entramos a los detalles de las noticias siempre aparecen aspectos que son muy discutibles, el atropello fue múltiple entre un coche con conducción humana
que le dio una mujer, esa mujer salió rebotada y luego el robotaxis de Cruz no paró y se la llevó por delante. Entonces, los reguladores de California concluyeron que no estaban siendo lo suficientemente seguros para funcionar públicamente y además el New York Times publicaba un reportaje sobre la seguridad de los coches autónomos de Cruz que revelaba algo, que es que no eran conducción autónoma pura,
como se estaban posicionando, sino que había intervenciones humanas en remoto cada 2 millas, 5 millas de media del viaje, es decir, cada poquitos kilómetros un humano en remoto tomaba el control del coche de Cruz e intervenía para asegurar que todo iba bien en ciertos aspectos en que el robotaxis no funcionaba lo suficientemente bien, incluso a ojos de la propia empresa, para funcionar de manera autónoma.
No me leí el reportaje del New York Times, pero este resumen que hace Rodney Brooks en Blue Sky es muy impactante, ¿no? Intervenciones humanas cada 2,5 a 5 millas de viaje de los coches autónomos de Cruz. Esto es una tremenda estafa, dice Rodney Brooks, bueno, es una traducción libre del inglés, no es tan indisception. Bueno, luego salió el CEO de Cruz como a defenderse, como que no era tan así, como que el coche llama de forma proactiva
a la intervención humana, pero casi nunca hace falta y que solo un 4% de las intervenciones, o sea, de los viajes requieren intervención, algo así. Un 4% del tiempo de media. El CEO de Cruz intervino en la discusión en Hacker News. Ahí fíjate que no hace una defensa tanto ética como práctica, es decir, yo creo que aquí habla un poco también de cara a los inversores y el mercado. No rompe la viabilidad económica de Cruz,
claro, porque el punto de que Waymo o Cruz van a ser empresas rentables, la conducción autónoma va a salir bien, es que al no tener necesidad de mano de obra humana conduciendo los coches, los viajes serán más rentables y recuperarás toda esta inversión de décadas investigando coches autónomos. Claro, si él dice, no os preocupéis, que solo entre todo el 4% del tiempo intervienen humanos en los coches
y que eso hace que no haya un impacto muy relevante en el coste-beneficio de las situaciones y que meten seguridad en situaciones complejas en la conducción urbana. Bueno, yo he leído algunos análisis de gente que está siguiendo mucho el tema y, en general, la percepción de los... Bueno, por ejemplo, este Aperceptive, este substrat que es buenísimo sobre conducción autónoma, separa mucho lo que es Cruz de Waymo.
Waymo era la empresa que nació dentro de Google, que se dedicó a la conducción autónoma, que lleva prácticamente décadas investigando y probablemente lo que esté sucediendo es que Waymo sí lo está haciendo bien y están saliendo estudios de que tiene una tasa de accidente que es un cuarto de la tasa media de accidentes de humanos, mientras que Cruz, probablemente, por temor a quedarse atrás y por intentar ponerse a su nivel,
está intentando hacer cosas que están fuera de la competencia tecnológica a la que han llegado. En todo caso, el debate con los coches autónomos no se acaba, porque, como veremos luego, y yo creo que podemos enlazar al paper que ha sacado Google, que es muy interesante, tenemos esa idea de que el mundo real es demasiado complejo para los sistemas de aprendizaje que tienen estos coches autónomos y que, bueno, lo de Waymo está muy bien,
pero en entornos súper controlados, dentro de la misma ciudad, donde tienes todos los datos, tienes todo muy mapeado, tienes un montón de sensores y que gracias a eso lo puedes conseguir, pero que lo sacas de una ciudad que tenga todo eso y la conducción autónoma se queda insuficiente a día de hoy. Joder, no me extraña, porque cuando nos subimos al coche, nos convertimos en la peor versión de nosotros
y si alguien se cambia de carril poniendo el intermitente dos segundos antes, todos los insultos aprendidos a lo largo de nuestra existencia, pues los proferimos sin problema. Entonces, no me extraña que mientras convivamos coches autónomos con humanos estén pasando esto, pero tampoco me extraña, y vamos, pongo la mano en el fuego, que los coches autónomos sean más seguros que los humanos en muchos, muchísimos aspectos,
y más cuando haya más coches autónomos que humanos en la carretera. ¿Qué paper de Google a cuál te refieres, Antonio? Sí, ha salido un paper que creo que es bastante interesante, no nos vamos a detener mucho en los detalles, pero ha habido una fenomenal discusión científica alrededor del mismo, porque prácticamente estos investigadores de Google concluyen que los modelos Transformer, y recordemos, los modelos Transformer
son todos los GPTs de la vida, el GPT lleva la T ahí del Transformer, de hecho es probablemente la innovación técnica más relevante en la inteligencia artificial de este siglo. Sí, incluidos los DALYs y mis Journeys, ¿no? Sí, bueno, en el mundo de la imagen hay más variedad, porque también están los modelos de difusión, un día podemos discutirlo, pero bueno, en general, casi todas las inteligencias artificiales más chulas
que tenemos entre manos, de alguna manera o de otra, también se nutren de Transformer. El punto es que el paper de Google más o menos concluye que los modelos que se basen en este paradigma no pueden generalizar más allá de sus datos de entrenamiento. Claro, esto significa que básicamente todo lo que discutimos en el podcast de la semana pasada, de que es que los grandes modelos de lenguaje son capaces de comprimir una visión del mundo
y tienen un proto-razonamiento, es bastante discutible, también significa que la innovación técnica científica de la que hablábamos la semana pasada, que el nuevo estudio que decía cómo hemos conseguido que una IA generalice fuera de sus datos de entrenamiento y que aprenda a generalizar, es muy relevante esa vía de investigación, porque básicamente lo que Google ha concluido es que con los modelos Transformer
una IA no podrá hacer generalizaciones fuera de la distribución del dataset que se le ha pasado. Aquí ha habido un debate fenomenal, porque ha habido respuestas diciendo esto no ha usado los modelos grandes de lenguaje, sino que con pequeños Transformer ha hecho la investigación y, por lo tanto, las capacidades emergentes, esa quimera que buscan muchos investigadores de ciencia de inteligencia artificial,
que es que de la complejidad y del tamaño emerjan características que no están en los componentes particulares del modelo, pues, claro, hay gente que dice esto no aplica a los grandes modelos de lenguaje, habría que verlo, y otros que dicen esta es la conclusión de que Data Learning tiene un techo y de que todo este high que se ha montado de la inteligencia artificial general es una flipada, porque solo vamos a tener modelos que,
a partir de un dataset, nos permitan hacer cosas con lo que ya está dentro del dataset y, bueno, al final es chateas con PDFs, pero no tienes una máquina que razone ni que sea capaz de ese aprendizaje, hacer paralelismos, analogías con otros contenidos absolutamente nuevos. Pues esto encaja súper bien con las pazas mentales que nos montamos en el episodio anterior sobre modelos de lenguaje y si razonan o no, ¿no?
Así que si no habéis oído el episodio anterior, si no lo habéis escuchado, pues ahí lo tenéis, ¿no? Y al final no es exactamente el mismo concepto, pero si OpenAI está trabajando en una inteligencia artificial general, pues tendrá que ser capaz de generalizar. ¿O no hace falta que una AGI generalice? En principio, teóricamente, yo te diría que sí, que hace falta, porque si queremos una inteligencia artificial general de nivel humano,
pues sí, debería ser capaz. Lo que pasa es que, digamos, que inteligencia artificial general no es una definición de algo muy concreta, es un término más bien ambiguo y en el que el uso discrecional de lo que se entiende pues hace que algunos flipados digan, oye, no, es que ya la tenemos, porque hecha GPT, patatín, patatán. Bueno, no, entonces estamos hablando de cosas diferentes. De hecho, hay una alternativa a los escépticos que dicen,
bueno, como si la IA al final solo puede generalizar a partir del dataset, cuando la IA tenga en su dataset todo el conocimiento humano, pues ya no habrá problema, porque podrá hacer generalizaciones a partir de todo el conocimiento, por lo tanto, quedará dentro de la distribución casi cualquier cosa. Bueno, es una forma un poco ya de salir por la tangente y, bueno, yo creo que esto nos da, y yo me ascribo a esa corriente,
yo creo que un poco de refuerzo a los escépticos y resta un poquito de fuerza a los vendedores y compradores del hype, porque estos se nos han venido arriba, Mati, con la primera conferencia de desarrolladores de OpenAI. Pues sí, la vimos en directo y la verdad es que fue bastante corta, más de lo esperado, cuando Sam Adelman dijo, bueno, eso es todo, pensaba que la conferencia acababa de empezar y ya había terminado, ¿no?
Pero, bueno, al menos dos novedades potentes que sí podemos comentar y, si quieres, empezamos por los GPTs, ¿no? Que yo creo que para ellos es lo más grande del evento. Sí, los GPTs... Es que tengo la duda de si, al explicarlos, los tenemos que vender como agentes inteligentes integrados en GPT-4. Bueno, esto lo posiciona OpenAI como versiones personalizadas, adaptadas, de chat-GPT, de lo que tenemos ahora,
es decir, tu interfaz va a ser chatear con él, eso no cambia. Tiene dos características que lo diferencian. Uno es que lo creamos nosotros de una manera personalizada, es decir, podemos crear el GPT que hable del tiempo, ¿no? Es un GPT que cualquier cosa que le preguntes te responderá con información meteorológica. Para conversar en el ascensor, por ejemplo, se me ocurre aquí. Y lo pueden crear sin necesidad de saber programar.
Absolutamente, claro. Ahí está el punto de que es una solución no-code, como se llama ahora, Matías. Bueno, no-code, tenemos esos GPTs porque tienen esa primera característica de que lo creamos los usuarios y cualquiera puede hacerlo. Y van a ser unas cosas personalizadas, adaptadas, para X casos de uso. Y dos, se integran con herramientas. Lo que ha sido hasta ahora el concepto de plugin, es la que el chat-GPT puede llamar a una aplicación de fuera.
En nuestra aplicación del tiempo se conectaría una app externa, por ejemplo, el Weather, no sé qué, no sé cuánto, cualquier servicio meteorológico que nos permita el acceso. Y, de repente, ya nos podría devolver qué tiempo va a hacer o qué va a hablar del tiempo que hace en cualquier lugar del mundo de manera random. Entonces, si tú estás aburrido y quieres hablar del tiempo con alguien, pues aquí está nuestro GPT,
que yo creo que va a ser el primero de Mono Sexto Católico Producciones. Ahí aportaremos algo al mundo, Matías. Yo a esto le veo muchísimo potencial para hacer cosas muy cuñadas. Como en la evolución del gato ese que hablaba al inicio de las tiendas de aplicaciones, o incluso de la evolución de los aparatitos estos que teníamos que hacían sonidos como de pedos y de otras cosas, pues yo veo un GPT que hable como un cuñado,
un GPT que hable como tu suegra, un GPT que te diga que España ha despertado como los que están ahora en Ferraz. Yo creo que eso tiene mucho potencial para que la gente se divierta. Yo voy a intentar sacar pasta por ahí. Porque, además, no lo hemos comentado, pero OpenAI va a compartir los ingresos de esta tienda con los creadores. Ahí podemos... Claro, acuérdate cuando hicimos el ranking de frases cuñadas
aquí en el podcast, y yo creo que ahí tenemos un dinero que ganar, Matías. Bueno, el caso es que hay gente que está teniendo otras ideas pero hay gente menos comercialmente viable que las tuyas, diciendo, bueno, de esta manera, pues tú a los empleados de la empresa le puedes dar un GPT más controlado, que ya tenga un system prompt muy orientado a ayudándote con tal, tal, tal. O, de repente, creas el GPT profesor de matemáticas.
O con acceso a Wolfram, por ejemplo. O creas el GPT... Es decir, de alguna manera, fíjate que lo hemos discutido alguna vez en términos de producto y estrategia de mercado de inteligencia artificial, que echar GPT era una suerte de generalista. De repente, teníamos esa propuesta de que de cualquier tema podías hablar con él y que él se buscaba la vida para solucionarlo, pero que había otro mercado que era el de los especializados,
el de casos de nicho muy concretos, etcétera, que se podían ver beneficiados de el diseño específico para algo más estrecho. Claro, aquí OpenAI está diciendo, nosotros vamos a ser el general, el chat-GPT, pero integrado con chat-GPT vamos a tener a todos los especializados que los desarrolladores podrán lanzar y creamos una economía. Entonces, es el segundo intento de App Store de OpenAI. Primero fueron los plugins, que creo que no han acabado de funcionar.
Ahora están los GPTs. Sí, los plugins normales que no hayan funcionado, como llegan a implementar los de los GPTs con la misma torpeza que los plugins, que solo podías activar tres, que el buscador era un desastre, pues no va a volver a funcionar. Es que a mí me da la impresión que Sam Alman en realidad lo que quiere es que el dinero quede en casa y no apoya tanto a los desarrolladores. Varias startups han vuelto a morir con los nuevos anuncios de OpenAI
y empiezan a pensar que es posible que Sam Alman sea reptiliano. Luego te fijas al inicio de la conferencia, tiene como un toque, como que saca la lengua de una forma un poco reptiliana. Bueno, esa es una broma, obviamente. No creo que Sam Alman sea reptiliano. Vale, pues hay novedades. Presentaron un nuevo modelo, un pseudo nuevo modelo. Lo han llamado GPT-4 Turbo, que esto es como un DLC, Matías, del GPT-4, porque bueno...
Yo, Antonio, sé que te voy a parecer paranoico, pero yo creo que esto a mí me lo activaron el 26 de septiembre. Y tengo un mensaje de Slack que te mandé a ti, martes 26 de septiembre, 20 horas. Oye, algo le han hecho a GPT-4 que va como un tiro, misma velocidad que GPT-3 Turbo. Nadie está comentando nada en Twitter, raro. Yo tengo esa paranoia de que a mí me lo habían activado, habían hecho un test A-B y que yo estaba en el A.
Pues tiene sentido por una cosa, porque este GPT-4 Turbo lo que incluye es una ventana contextual mucho más grande. Es decir, le podemos dar mucha más información al modelo sobre el que preguntar, el texto de introducción, sobre el que trabaja GPT-4 Turbo, mucho más grande. Puede admitir hasta unas 300 páginas de texto. Es decir, PDFs súper grandes. Entonces, ¿a quién se lo habrán activado? A grandes consumidores de PDF, Matías,
y yo creo que ahí es una de tus características. Y, por tanto, todo encaja, todo encaja. Tiene sentido, y te voy a decir por qué. Muchas veces yo escribo artículos en base a estudios científicos. Los estudios científicos suelen estar en PDF y suelen ser larguísimos. Y GPT-4 no tenía una ventana de contexto tan grande como para chutarle entero el estudio. Entonces, OpenAI se ha dado cuenta de que yo era ahí un usuario potencial
y me activó el GPT-4 Turbo con un contexto mucho más grande para que yo pudiera chutarle esos PDFs enormes. Sí. No sé si tengo realmente el GPT-4 Turbo activado. De hecho, creo que nadie lo tiene todavía, que van a empezar con los desarrolladores a través de la API, que ya hay gente usando la API, que es más barata, creo que un tercio de lo que costaba antes, pero, claro, la gente lo usa tanto que, al final,
cuidado que se te puede ir la factura a cientos de euros al día. Sí. Tú lo has dicho. Es decir, yo creo que es una de las claves el que bajen los precios y que, por lo tanto, la barrera de entrada para integrar inteligencia artificial del mejor nivel, y ahora mismo el mejor modelo lo tienen ellos, está ahí. Hay más novedades. Hay API para asistentes. Guiño, guiño, Apple, todavía no has tirado la basura, Siri.
Meten la API de Dalit 3, meten la API de audio, mejoran las llamadas a funciones, pues ya más para desarrolladores. Y, bueno, ha dado algunos datos al más interesantes, que es los 100 millones de usuarios activos semanales de echa GPT. Creo que era un poco para refregarles a los... Oh, no, en verano ha caído el uso. Esto era un hype y ya ha pasado de moda. Bueno, bueno, aquí los 100 millones de usuarios.
Una promesa interesante, que es que OpenAI, igual que hizo Microsoft e igual que hizo Google, ha prometido cubrir los costes legales de los usuarios enredados en disputas sobre derechos de autor, lo cual, si alguien te reclama en tu GPT, cuñado, Matías, pues tienes las espaldas, tienes ahí a los restileros, perdón, a OpenAI cubriéndote los gastos legales. Si se parece mucho al Visa o algo de eso, te estoy protegiendo.
Bueno, aquí, estas stakes, bueno. Y una cosa interesante, porque me metí en la parte, porque empezó a circular y fui a comprobarlo. En los modelos personalizados, esto de lo de entrena GPT-4 con los datos de tu empresa, etcétera, que no es lo mismo que hemos dicho antes, sino que es un modelo prácticamente nuevo. OpenAI dice lo siguiente, ojo que te va a costar entre 2 y 3 millones de dólares. Y necesitas, como datos de entrenamiento,
unos cuantos miles de millones de tokens. Entonces, claro, yo, en mis conversaciones con el frutero, vine a intentar reenfocarlo, porque habíamos hablado de un modelo grande de frutería. ¡Ja, ja, ja! Menos mal que no tengo tanto dinero en el banco, porque si no, nos podemos meter en un lío. Bueno, relacionado con esto, yo vi una cosa que me hizo mucha gracia, permite ver que pierda el tiempo. No sé si esta foto es real del evento de OpenAI o no,
pero, bueno, están hablando de fine-tuning, de ajustar las respuestas de GPT-3.5 Turbo en base a 140.000 mensajes de Slack. Entonces, yo he pensado, por ejemplo, que se chuten todos los mensajes de mi empresa como entrenamiento de un GPT, ¿no? Y entonces, luego ocurre la siguiente conversación. Usuario, escribe un post de 500 palabras sobre tal. El asistente responde, sí, lo haré a lo largo de la mañana.
¡Ja, ja, ja! En fin, el fine-tuning también tiene sus peligros, ¿eh? Sí, sí, sí. Bueno, mire, yo creo que hay una conclusión. Esto es un evento de desarrolladores, era lo que habíamos de esperar. Moderaron las expectativas, dijeron que no iba a salir el GPT-5, no ha salido. Pero fíjate que yo tengo una sensación ambivalente. Por un lado, pasan los meses, yo creo que casi ocho o nueve desde que salió el GPT-4,
y nadie, nadie se le está acercando a OpenAI en la calidad del modelo. Pero a la vez, aunque el último GPT-4 ya está entrenado con datos hasta abril 2023, eso lo han mejorado, no vemos un avance tecnológico sustancioso en las novedades y anuncios de OpenAI. Quizás es porque somos un poco cagaprisas, Matías, que queremos ya GPT-5 y que sea revolucionario y que todos los días sean ferias. Bueno, yo creo que hay una relación ambivalente.
Tengo muchas ganas de que, a finales de año, salga Gemini, que lo podrán probar fuera de Europa, seguramente antes de 2024. Pero tengo esa sensación de que, entre el estudio de los Transformers, las noticias de Cruise, esta semana estoy un poco pesimista con que los avances en la IA puedan mantener el ritmo de los últimos dos años. Bueno, y aparte, me preocupa eso que dices, de que no podamos probar las cosas que vayan saliendo en Europa.
Tenemos que buscarnos una VPN que nos patrocine, ¿no? Hay tantas VPN que patrocinan podcasts que a nosotros nos vendría bien, ¿no?, para conectarnos desde un IP de Estados Unidos y probar el Gemini y todo eso. ¿Quieres cambiar de tema? Porque te he visto flipar también con el vídeo de Messi. Si quieres, nos metemos. ¡Ah, sí! Bueno, es que, claro, la gente está por fin empezando a probar la API de GPT-4 multimodal,
el GPT-4-V, lo llaman, y eso significa que los programadores pueden, con la inteligencia artificial de OpenAI, no solo ya trabajar con textos, sino pasarle imágenes. Lo que ha hecho este amigo Gonzalo, que lo hemos compartido en el Twitter de Monos Estocático, que es el Twitter Monos Podcast, es que le ha pasado un vídeo de unos 20 segundos de un gol de Messi y le ha ordenado a GPT-4-Ovisión que describa lo que está viendo
y, por lo tanto, sea como el locutor de la jugada. Sí. Vamos a ponerlo en postproducción. Vamos a poner el audio del gol narrado por Chad GPT o por GPT-4-V. Es el gol del Ancara-Messi, Ancara-Messi, Ancara-Messi, Ancara-Messi, ese gol, pero narrado frame a frame por GPT-4. Claro, lo dice el autor. Es verdad que es flojito como nuevo locutor deportivo, porque no hay emoción, es robótico, pero, uno, es alucinante
que una guía te pueda describir lo que está pasando en un vídeo. Es una cosa técnicamente que es chulísimo. Y, dos, está en la primera versión. Si lo entrenamos con Manolo Lama, aquí puede haber una intersección con tus proyectos. Y no olvidemos que si esto lo acaba implementando Google como parte de los metadatos de YouTube, aunque sea muy caro, por fin podremos encontrar cualquier vídeo en Internet,
porque las descripciones de todos los vídeos serán súper completas. Es muy difícil encontrar vídeos de memes muchas veces porque no sabes cómo buscarlos. Sí, claro, tú puedes decir aquel vídeo de un niño mexicano que se caía en un tronco mientras los otros le decían... Claro, es verdad, es verdad. La guía para los memes va a ser gloria bendita. Claro, esto es un antes y un después. Hay otro cachón proyecto de...
Por fin puedes hablar con la webcam, que es una cosa que yo creo que el mundo estaba esperando y que por fin... Porque la gran utilidad de la webcam siempre había sido eso, la videoconferencia y alguna gente que baila desnuda delante de la webcam y sus aficiones. Pero ahora, claro, con esto ya puedes chatear con ellas. Esto le veo mucho potencial para un arquetipo de persona que son esos que en su Instagram todas sus fotos son su cara.
Todas sus fotos son selfies de ellos mismos, ¿no? Rollo Gerard Piqué, pero hay mucha gente así. Le veo mucho potencial. Antonio, te voy a dejar hablar de regulación porque si no, no hablamos en todo el episodio y sí que hay noticias acumuladas de tema regulatorio. Sí, miedo me da porque tenemos como un montón de hojas de guión que voy a intentar resumir en tres minutos. Estados Unidos se ha movido.
Es decir, hay una orden ejecutiva, que lo llaman ellos, que se basa en acuerdos no vinculantes que alcanzó la Casa Blanca con las empresas de inteligencia artificial. Ya hemos visto durante estos últimos meses reuniones, visitas al Congreso, muchas declaraciones. La orden ejecutiva lo que hace es interpretar la legislación vigente estadounidense, en concreto, la Defense Production Act, una ley que viene de la Guerra Fría
y que toca al presidente de poderes para promover la seguridad nacional y responder a emergencias, y que pueden aplicar esta directiva sin necesidad de nueva legislación. Lo que pasa es que, aunque muchos están celebrando que por fin Estados Unidos también regula, los europeos no nos quedamos solos, o incluso Estados Unidos nos adelanta regulando. Bueno, en realidad, esta orden ejecutiva es bastante laxa.
Si yo tuviera que resumirla, diría que hay una exigencia a las empresas e instituciones de inteligencia artificial de que informen y que prueben bien los modelos antes de sacarlos. Y que las agencias federales van a ir estableciendo las normas concretas que irán apareciendo. Ese es el resumen, es un poco más... Ya sabemos todo de IA, estas son las normas, todo esto prohibido, todas estas obligaciones. No es tanto eso, que me parece el enfoque más europeo,
sino el mensaje de Biden y de la administración actual demócrata en Estados Unidos, parece ser ir haciendo cosas, pero, una, informarnos de todo, y dos, os estamos vigilando, vamos a cortar los excesos y puntos de problema, porque ahí ya se extiende, que nos preocupa la fugacidad, nos preocupa la seguridad, nos preocupa los derechos civiles, nos preocupa que haya competencia, etcétera. Entonces, hasta el momento, las empresas estadounidenses
no están descontentas con el plan Biden, así que, bueno, hay cosas concretas que se pueden discutir, porque probablemente, aunque no se ha concretado al 100%, empresas como PNI tendrán que compartir detalles de los datos de entrenamiento, y ahí puede haber una nueva batalla del copyright. Parece ser que una de las obligaciones más claras que se va a establecer es la adicción de marcas de agua cifradas
dentro de las imágenes y vídeos que se generen con inteligencia artificial. Y hay un detalle que yo creo que es de los más chulos y sorprendentes, que tiene que ver con cuando Biden, Matías, decidió que había que regular y había que entrar en inteligencia artificial. No sé si lo has visto. Me lo comentaste tú, porque me dejaste con la intriga la semana pasada, cuando terminamos el episodio, y me comentaste tú lo de Tom Cruise.
¿Cómo fue? Biden estaba viendo una película, ¿no? Sí, es decir, estaba en Capdavy, atención, y decidió relajarse, explica la fuente, que es PBS, viendo una película de Tom Cruise que era la última de Emisión Imposible. Claro, el malo de esta película es una inteligencia artificial conocida como La Entidad, y que hunde un submarino, mata a los que están ahí... No voy a hacer spoiler, porque esto pasa en los primeros minutos.
Entonces, claro, Biden... Es que, ¿cómo funciona el mundo, macho? Uno de los que estaba viendo la película con él, además, lo explica de manera abierta, es un secreto de ahí, le hemos puesto un micrófono al presidente de Estados Unidos, y dice, si todavía no estaba lo suficientemente preocupado sobre qué podía ir mal con la inteligencia artificial antes de la película, él estaba muy preocupado justo cuando acabó de verla.
Entonces, claro, la regulación de la inteligencia artificial en el mundo, de la mayor superpotencia económica, tecnológica del planeta, tuvo que ver con que ese fin de semana Biden vio Misión Imposible de Tom Cruise. Bueno, yo también la vi, pero cuando te lo comenté en el podcast, me dijiste que estabas harto de las películas estas que dibujan una inteligencia artificial súper maligna y catastrofista que va a acabar con el mundo.
Al final, Joe Biden regula a partir de ficción, de películas de ficción, y Trump a partir de Fox News, que también era un poco ficción. Fíjate, yo creo que la salida para España, para salir del hoyo regulatorio y de que todo es previsionista, es que Leo Harlem haga una película. Claro, dices que el gran artífice del cine español, el que mantiene las taquillas, el que hace los éxitos del verano.
Si Leo Harlem hace una película de ficción con una IA buena, puede ser que nosotros elegiremos a favor de la IA y nos convirtamos en una potencia mundial. Depende básicamente de eso, realmente. Pues no sé si Pedro Sánchez, si es que llega a gobernar después de todo lo que está pasando, es muy de Leo Harlem, ¿eh? Yo no sé, lo veo más... No sé, de Amenábar o...
No sé. No lo veo muy de Leo Harlem, la verdad. Bueno, claro, a lo mejor es que si se quiere relajar, relajar, pues es más relajado que eso. Bueno, vamos a ir muy rápido a cositas que han pasado en el mundo de regulación. Una cosa muy interesante es que la Oficina de Derechos de Autor de Estados Unidos ha preguntado a empresas tecnológicas sobre, oye, ¿y si regulamos que los titulares de derecho de autor de las obras que se están usando para entrenar inteligencia artificial,
pues, oye, ¿y si les pagamos? Entonces, las empresas tecnológicas, las grandes de la IA, no han sido muy majas, no están muy por la labor, y ha habido respuestas de todos los colores. Andersen Horowitz, una de las grandes inversoras, dice que los inversores han gastado miles y miles de millones asumiendo que no se iba a pagar a los creadores implicados en los datos de entrenamiento. Anthropic, oye, la ley actual está muy bien,
no vemos que haya falta cambiar nada, para nosotros, guay. Google, es que entrenar una IA es realmente como leer un libro, y leer libros no puede estar penalizado por la propiedad intelectual. Meta, es que de todas maneras, como son tantos, pues van a recibir centimillos. Yo creo que esta es la teoría Lola Flores, con un centimillo por persona, pues ya, ¿a dónde vamos? Y Microsoft dice, es que claro, si cambian la ley de derecho de autor
para forzar estos pagos, es que los pequeños desarrolladores de IA van a ser perjudicados, pobrecitos. Entonces, claro, la respuesta de todas las grandes tecnológicas es, oye, mira, esto es un jardín, esto es muy complicado, si eso ya lo vemos en el futuro, si eso ya, más adelante. Madre mía, todo el rollo este y el paripé de cómo atajan el problema de los derechos de autor las empresas, yo creo que nos va a dar para hablar durante tanto tiempo.
Yo he puesto mi granito de arena y por primera vez he comprado arte de una artista que vive del arte para decorar mi casa, pero más no puedo hacer, yo el chat GPT lo voy a seguir usando. Bueno, una de cari y una de arena. Una cosa que no me esperaba, Antonio, es ver al rey Carlos III, ¿no?, de Inglaterra. ¿Cómo se nota el salto generacional? Porque a mí no me sale decir el rey Carlos. Para mí, tras décadas y décadas de ser el príncipe Carlos,
solo me sale decir el príncipe Carlos. Es verdad, es verdad. Bueno, bueno, para ti y para la mayoría de la gente, porque su madre no sé cuánto vivió, pero este hombre está ya casi llegando a chochar. Pues hablando de inteligencia artificial y de los profundos desafíos que plantea, ¿no? O sea, que el Reino Unido también, todo el mundo, España también, todos muy metidos en regular y en adelantarse
a los peligros de la IA. El Reino Unido es una cumbre mundial que de alguna manera quiere decir, ya no somos la Unión Europea, podemos hacer cumbres mundiales sobre cosas nosotros solos. Ahí la hicieron y fue Elon y fueron grandes personalidades del mundo de la IA. Hicieron una pequeña declaración, más de intenciones que regulatoria de momento, y se creó un Instituto de la Seguridad de la Inteligencia Artificial
propio del Reino Unido. Y, bueno, le han dado a Bengio, a Josué Bengio, un gran científico de inteligencia artificial, el encargo de redactar el informe sobre el estado de la ciencia y los consejos y las recomendaciones regulatorias. Entonces, eso no tiene buena pinta, porque Josué Bengio es de los científicos que ha puesto más alarma, ¿no? Entonces, bueno, está todo el mundo metido en esto, porque ha habido una declaración entre 28 países,
un acuerdo para garantizar que la IA se desarrolle, centrada en el ser humano, fiable y responsable, la declaración de Brexit, bueno, es parte de la Cumbre Mundial del Reino Unido, hay un movimiento en el G7 en el que también se está discutiendo de que tienen que promover esto de la IA segura y fiable, las Naciones Unidas han establecido unas recomendaciones de gobernanza, el Supervisor Europeo de Protección de Datos
ha hecho una lista de seis recomendaciones, España, que además coincide ahora que en su turno de presidencia de la Unión Europea está intentando empujar mucho la ley de inteligencia artificial, con algunos cambios sobre los modelos fundacionales, a quién afectaría, si tiene que ser escalonado, pero ahora mismo no hay acuerdo, sumar en España ha sacado una proposición de ley orgánica para que las simulaciones y voces de personas generadas por medio de IA
estén superreguladas, controladas, que se establezcan las obligaciones del tipo de venir marcadas como tales, etcétera. El BOE ha sacado la adjudicación a Deloitte y Odisea de un sello de inteligencia artificial por 2 o 3 millones de euros y el gobierno está invitando a las empresas de inteligencia artificial que participen en el Sandbox, que es como vamos a ayudar a las empresas de inteligencia artificial del país
a adaptarse a la legislación que viene, para que estén preparadas. Bueno, esto es la típica invitación, pero tú te traes la comida, es decir, por favor, participa en esto, pero no hay un euro para ti. Entonces, bueno, está todo el mundo ahora mismo volcado en este tema de la regulación de la IA y yo, aquí ya termino, porque es un poco cansado todo este tema, hay una reflexión de uno de los científicos que más me interesa,
que es Andrew Unk, que lo comentamos la semana pasada, dice que esto de regular inteligencia artificial parte de un error de concepto que es regular la tecnología en sí y que igual que no hay una regulación de la base de datos, no hay una regulación específica de TCP y IP, lo que hay que regular es en la capa de aplicación, en la capa de plataforma tecnológica y que, por lo tanto, lo que necesitamos es,
pues si esto impacta en el debate y la comunicación pública, pues regular ahí. Si esto impacta en la privacidad de los datos médicos, pues regular ahí y que cada una de esas aplicaciones requerirá una legislación diferente ex profeso. Esa era, además, la idea original del Reino Unido, que creo que se está moviendo un poco, pero el debate regulatorio no acaba nunca, Matías. Bueno, pues de todo lo que has dicho,
me quedo con que el Gobierno ya le ha dado trabajo a alguna de las Big Four, de las torres de cristal de Madrid, tangencialmente relacionado con la inteligencia artificial, así que por lo menos trabajo vamos a tener en España o en Madrid. Oye, deberíamos cerrar el episodio con el Puerta Grande o Enfermería, que ya lo hemos retrasado demasiado y no nos queda tiempo para mucho más. Sí, pues vamos con ello, Puerta Grande o Enfermería.
¡Puerta Grande o Enfermería! ¡Puerta Grande o Enfermería! ¡Puerta Grande o Enfermería! ¡Puerta Grande o Enfermería! ¡Puerta Grande o Enfermería! ¡Puerta Grande o Enfermería! Antonio, estoy deseando saber qué me traes hoy porque no me he repasado esta parte del guión como suele ser habitual. Me gusta que me sorprendas y así te doy mi opinión sincera sobre las cosas. Las actrices están abrazando a la inteligencia artificial, Mati.
Porque hay una corriente que no esperábamos, nos ha sorprendido, mientras que los actores están despistados, fuera de juego. Por ejemplo, en España, a la actriz y guionista Berta Prieto, conocida por la serie Autodefensa, nos indica el país, ha hecho un escrito en el que confiesa que cierta propuesta que ella mandó la redactó ConchaGPT y se pregunta, esta es una cuestión que puedes resolver tú aquí éticamente, Matías,
¿debería devolver los 6.000 euros que he ganado en la beca de investigación artística de la Generalitat? Claro, la Generalitat se ha comido con papas la propuesta de investigación de Berta, generada ConchaGPT. Y ella ahí, ConchaGPT, le ha sacado los euros aquí al bolo honorable Presidente. ¿Cómo lo ves, Matías? Me recuerda a lo que hice yo con mi antiguo arrendador, que era un fondo buitre, que le mandé una reclamación
escrita totalmente por ChatGPT y al final conseguí que me reembolsaran mis cuartos. Lo de Berta Prieto, además, es que la siglo y la conozco porque me gusta... Hay como un microcosmos de modernillos en Barcelona de generación Z que son como muy vanguardistas en comparación con los modernos del resto de España y me gusta estar ligeramente conectado con ellos para ver por dónde van las cosas y me han dado la razón con esto.
Están otra vez a la vanguardia los modernos Gen Z de Barcelona en este tipo de cosas. Yo creo que casi todas las propuestas formales que se van a escribir a partir de ahora va a haber un modelo de lenguaje de por medio porque no queremos perder el tiempo con eso. En toda la burocracia, yo creo que el relleno va a estar ahí. Entonces, puerta grande para Berta. ¿Tú no crees que deba devolver los euros ahí en tu línea?
Ya te verás por dónde vas. Luego, hay un discurso muy divertido de Luis de Rifus, que es una actriz maravillosa a la que yo admiro mucho porque es la protagonista femenina de Seinfeld, que en los Premios Innovadores 2023 le pidió el discurso a Chas GPT, que además era la versión de pago, no usó la gratis. Y claro, si lo cuento yo no es divertido, pero verla a ella y la cara que pone, según cuenta, el discurso que le ha escrito a Chas GPT,
no sé por qué entendió que como era el Wall Street Journal la vendía el premio a la mejor innovadora inversora. Y es superdivertido el discurso de Rifus. Así que yo recomiendo verla, como recomiendo Seinfeld, que es la mejor serie de la historia. Pero, pasemos a, atención, el lado triste, el lado duro de la inteligencia artificial, Mati, que es cuando la IA te hace llorar. Atención, porque compartido Victoriano Izquierdo,
un gran emprendedor español tecnológico en el ámbito de la data y la inteligencia artificial, que un usuario de Reddit había escrito Deep L, Deep L, el servicio de traducción, me ha hecho llorar, Matías. Un caso muy triste. ¿Qué le ha pasado? Pues nada, que él era traductor y usaba Deep L para acelerar su trabajo. En este punto que estamos todos de oye, qué guay la IA, que me va a dar productividad.
Pero claro, un día hizo una traducción que era tan buena, tan buena, que dije, coño, ya aquí no hago falta. Fuck, me tengo que ir de aquí. Y se puso a llorar de lo buena traducción que había hecho Deep L. Y fíjate, yo esto lo conecto con tu ídolo, que a lo mejor la audiencia no sabe que eres un gran fan de Bad Bunny, que lo sigues en los canales de WhatsApp, como has confesado previamente. Creo que eres el único usuario de los canales de WhatsApp.
Una funcionera, atención, que voy a declarar, estoy en contra, porque me ha estropeado la mejor red social que hay en el mundo, que es los estados de WhatsApp. Bueno, pues en ese ámbito y en ese contexto denigrante, Bad Bunny se ha puesto a llorar también, porque ha salido una canción en TikTok, parcialmente basada en él, que no es el protagonista todo el rato, Benito, que aquí un dato importante, Bad Bunny se llama Benito,
Benito, que hay una canción que se ha sacado, creo que está basada en Justin Bieber, aparece él, bueno, aparecen varios, y que para Bad Bunny, esta canción hecha con inteligencia artificial que ha triunfado en TikTok, es inaceptable, y que además nos dice a todos, si a ustedes les gusta esa mierda de canción que está viral en TikTok, sálgase de este grupo ahora mismo. Ustedes no merecen ser mis amigos y por eso mismo hice el nuevo disco,
para deshacerme de gente así. Es decir, Bad Bunny venía de hacer mucha pachanguera, lo cual yo estoy muy a favor, soy un gran consumidor de lo que mi hija se llama solo musicote de verano, pero ahora quería ser un autor respetado y reconocido, y de repente el público, con la inteligencia artificial, le ha recordado de dónde vienes, Benito, y qué es lo que realmente te ha hecho famoso, y por eso Bad Bunny ha llorado, Matías.
Tengo tanto que comentar, Antonio, que no sé ni por dónde empezar. Primero, Whatsapp status, todo el mundo sabe que es de Boomers, pero es verdad que tiene su aquel que te vea las fotos, el fontanero, el... no sé, el que vino a traerte el agua de... La gente de verdad, la gente de la calle, Matías. Exacto.
Tiene su aquel, tiene su encanto. Lo del traductor de Victoriano. ¿Por qué sigue habiendo el San Benito de que los traductores son malos? Si es una locura cómo funciona hoy en día el DPL y cómo funciona el Google Translate, que hasta yo me preocupo de leer las cosas traducidas en lugar de en inglés para ir repasando y desoxidando mi inglés. Luego, lo de Bad Bunny.
En realidad, lo entiendo, porque aunque estoy con tu hija en que Bad Bunny tiene temazos, sí, lleva haciendo la misma canción tanto tiempo que ha dejado de ser o de tener esa popularidad, perdió el Grammy contra... Creo que fue contra Natalia Lafourcade, que a mí me encanta, o sea, que me alegro, y además el último disco es un bodrio. O sea, entiendo que esté enfadado, pero es que la canción, pondremos un trocito, la canción con Inteligencia Artificial,
es mucho mejor que las últimas que ha sacado Bad Bunny. Así que lo siento mucho y, por cierto, Bad Bunny, deshacerme con S y sin H. Se nota que no tiene un asistente que le escriba el Whatsapp, el canal de Whatsapp, pero bueno. Fíjate que mis amigas y compañeras de bebésimas.com han publicado este artículo que dice me he puesto a leer las letras de las canciones de Bad Bunny que escucha mi hija de 14 años.
Hay una canción que no me puedo crear. La canción es Vaticano, con B, porque ahí es muy malo, se salta de todas las reglas y las convenciones el amigo Benito, y que tiene una letra, a mí hay una parte que me gusta mucho de todas estas canciones que vienen de Puerto Rico, República Dominicana, etc., que es el desparpajo con el que meten anglicismo para que rimen y usan términos ahí random, que por un lado tienen en común con los consultores,
que siempre meten un anglicismo ahí para parecer más sofisticado, pero esto lo hacen para que rime la canción. Ey, aquí to fornica, la mesera y el que predica. Acho, mami, está bien rica. Envíeme fotito de la Joan Mika. Que me tienes obercinki, la noche se puso kinky. Es decir, es un tema ahí de Bad Bunny, de su último álbum, en el que aquí Benito dice que la inteligencia oficial, por supuesto, no está...
He visto que elegantemente has parado antes de la siguiente línea, que era tres dedos en el toto, en el culo, el pinky. Madre mía, gracias por parar ahí, Antonio, y no seguir leyendo. Claro, menos mal que hemos parado ahí y no hemos seguido leyendo. Bueno, tengo un último, atención, un último... Puerta Grande de Enfermería, para mí, el chico de Deep L es Puerta Grande, que encuentra ahí su lugar en el mundo, Bad Bunny, Enfermería,
pero te dejo un último para que sojuzgues tú, que tiene que ver con los streamers y creadores chinos que, de nuevo, nos pueden alumbrar el futuro de la humanidad. Atención. En septiembre, Chen Jiru, un influencer, en este caso, taiwanés, con casi nueve millones de seguidores en Weibo, retransmitió en directo cómo comía patas de pollo durante 15 horas. Atención. Sus seguidores quedaron asombrados, dice The Guardian,
hasta que algunos empezaron a preguntarse... Son unos espabilados aquí los seguidores de Chen Jiru. Se preguntaban si tal hazaña era realmente humanamente posible, tantas horas comiendo pollo. La letra pequeña del vídeo confirmó sus sospechas. Solo para mostrar o solo para informar, esto no es una persona real. Entonces, atención, creadores, creadoras, si lo vuestro, y usuarios en general del mundo, ciudadanos,
si lo vuestro es transmitir 15 horas comiendo pollo, la inteligencia artificial es para ti. Excépticos que veían que no se puede usar la IA para casi nada. Aquí tenemos la prueba definitiva, Matías. Yo aquí creo que la enfermería deberían ir los que consumen este tipo de contenido, más que los que hacen la trampa con la IA. Y bueno, no predico con el ejemplo, porque yo para comer me pongo algún vídeo de anécdotas de IlloJuan,
pero la verdad es que no es contenido muy nutritivo, intelectualmente. Yo creo que habría que hacer una versión de 15 horas comiendo tofu para equilibrar, y que ahí, a la mención, streamer españoles, que ahora estáis con esa crisis de las visualizaciones y el alcance y el público, claro, si no estáis atentos a la tendencia, os podéis quedar fuera. Entonces, yo creo que un vídeo de, no sé, Ibai Llanos y Cristinini, comiendo tofu 15 horas,
podría ser el camino a su redención, Matías. Hacemos una mención en Twitter. Por cierto, arroba monospodcast en Twitter, muchas novedades salen de ahí. Además, nos invitan a churros a través de Twitter. Y chocolate. Y bueno, tenemos la newsletter, un poco abandonada, pero ahí está, monosestocásticos.com. Tenemos comentarios en Spotify, en iVoox, en YouTube. Estamos en LinkedIn también petándonos.
Estamos en LinkedIn. Ahora también estamos como podcast en YouTube Music. Bueno, por favor, de alguna manera haced llegar comentarios para que hablemos de ellos en las próximas ediciones del podcast. Y suscribíos, porque también nos ayuda a crecer y a llegar a más gente. Muchas gracias a todos. Nos vemos en el siguiente Monos Estocásticos. Chao, chao. Chao, chao.