Creamos un doble con inteligencia artificial y se pone a cantar Wonderwall

00:00 /1h00

Patrocinador: Ya estamos catando nuestros jamones y embutidos de Vitamina Jota. Experiencia de 10 con envío rápido. ¡Y cómo está todo! (el lomo ha durado poco). Vayan a hacer sus pedidos a Vitaminajota.com

NOTICIAS DE LA SEMANA

Google Brain y Deepmind unen sus fuerzas https://www.deepmind.com/blog/announcing-google-deepmind

VirusTotal presenta "Security AI Workbench" https://blog.virustotal.com/2023/04/introducing-virustotal-code-insight.html

SnapChat es la primera gran plataforma social que se llena de bots de IA a propósito https://techcrunch.com/2023/04/19/snapchat-opens-its-ai-chatbot-to-global-users-says-the-ai-will-later-snap-you-back/

Aprovechamos que Matías es un experto en Metaverso para hablar de las gafas de Apple https://www.bloomberg.com/news/newsletters/2023-04-23/apple-s-ar-vr-headset-plans-ipad-apps-fitness-sports-viewing-gaming-music-lgtgopgx

Humane medio enseña su primer wearable https://www.inverse.com/tech/humane-ai-wearable-camera-sensor-projector-video-demo

ENTRENARON SU INTELIGENCIA ARTIFICIAL CON MI BLOG

¿Es ilegal rastrear la web para entrenar una IA aunque sí sea legal hacerlo para crear un motor de búsqueda? 

https://www.theverge.com/2023/4/19/23689879/ai-drake-song-google-youtube-fair-use

https://elpais.com/opinion/2023-04-24/la-industria-musical-mueve-ficha-contra-la-inteligencia-artificial.html

https://www.xataka.com/robotica-e-ia/5-000-tokens-mi-blog-estan-siendo-usados-para-entrenar-ia-no-he-dado-mi-permiso

BASADO O HACIENDO LA CIENCIA

Liam Gallagher está a favor de una IA que canta como Oasis https://www.brooklynvegan.com/liam-gallagher-responds-to-ai-generated-oasis-album-i-sound-mega/

Nick Cave se puso intenso https://www.newyorker.com/culture/the-new-yorker-interview/nick-cave-on-the-fragility-of-life

PUERTA GRANDE O ENFERMERÍA

Chaoisum va a empezar a usar una IA para ayudar al master https://twitter.com/FunySkywalker/status/1648621126698795008

Tu doppelganger liga por ti https://hackernoon.com/the-bizarre-future-of-ai-dating 

Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com

Transcripción

Hola a todos. Aquí estamos por segunda vez esta semana. No sé si habéis escuchado el especial de cine que hicimos con Paco Casado, pero os lo recomendamos. ¿Qué tal, Antonio? Muy bien, Matías. Con mucho optimismo hacia el futuro, Mati. ¿Ah, sí? Mucho. Estoy optimista porque, claro, piensa Matías que tenemos una apuesta en este podcast, la Inteligencia Artificial es la tecnología de la década, pero tenemos que tener un plan B,

Mati, porque torres más altas han caído y me congratulo de que en este podcast tenemos a un experto en metaverso, Mati. Ya al oyente se lo llevábamos adelantando que me iban a invitar a este viaje de la Comisión Europea para hablar del metaverso y no sé si quieres que te lo cuente ahora o te lo cuento luego cuando hablemos de Apple porque yo creo que el episodio de hoy no solo va a tener Inteligencia Artificial.

Bien, pues después a fondo un poquito de metaverso y muchísimo de todo lo de la IEA de esta semana. Vale, porque lo que tenemos que comentar antes que nada es que este episodio de Monos Estocásticos vuelve a estar patrocinado por nuestros amigos de vitaminaj.com, que Antonio ya ha probado, yo ahora explico porque todavía no lo he probado, pero Antonio ya ha probado el jamón y el lomo y no sé qué más nos han mandado, pero estamos bastante contentos.

Claro, yo he descubierto tres cosas con este patrocinio, Matías. Una es me gusta tanto el lomo como el jamón, es decir, bueno, nivelazo, vitamina J, estaba todo fantástico, pero la sorpresa ha sido el lomo, que estaba a un nivel inesperadamente excelente, me ha encantado. Luego me gusta mucho el rollo de Maxi, Maxi es el que lleva vitamina J y a mí lo que me gusta un poco de poder seguirlo en redes, que te cuente historia de su trabajo, de cómo

es él, que de alguna manera, bueno, esto de comprar en remoto y el comercio electrónico, pues tiene ese punto que a veces puede ser impersonal, pero esta conexión un poco con el que realiza el producto a mí me da como muy buen rollo de poder seguir a quien le estoy comprando y luego un descubrimiento, Matías, que nos ha permitido esta promoción, que es, eres el mejor yerno del planeta, Matías. Sí, porque yo directamente le regalé el jamón a mi suegro, ni siquiera pasó por mi

casa, directamente lo mandé a casa de mi suegro y me mandó un WhatsApp, no voy a abrir aquí delante de todo el mundo el WhatsApp, pero básicamente me dijo Matías, buenos días, está riquísimo, muchas gracias, así que he cumplido, Antonio, he cumplido. Claro, ahí yo, mis cálculos eran, bueno, Vitamina J muy guay, muchas gracias, visitadlo, comprad el jamón. Arroba Maxi Portes, por cierto, Antonio está hablando de Maxi, pues arroba Maxi Portes

por si queréis seguirlo en Twitter. Y luego una derivada de ese patrocinio, Matías, que es, bueno, tú tienes hermanos pequeños, primos, primas, yo tengo un chico y una chica casaderos, entonces, claro, si el nivel de yerno van a mantener tus familiares es el tuyo, a mí me, se dice, me rentaría mucho esa relación, podemos volver a los matrimonios concertados, Matías. A ver, tú tienes, también te digo, un paladar bastante exigente, que te haya gustado el

Vitamina J, pues dice mucho del Vitamina J. Hablamos de inteligencia artificial antes de pasar al Metaverse. Pues vamos, vamos a hablar y vamos, bueno, porque hay noticias en el frente Google, que sigue ahí azapado, Matías, pero está haciendo movimientos de calado estratégico. Hemos hablado varias veces de DeepMind, hemos hablado también de Google Brain, que eran esas dos divisiones y ahora son una sola, ¿no?

Sí, era casi populi que no se llevaban bien, no eran, no se iban juntos de vacaciones, como cuando llegaba el verano, los de DeepMind y los de Google Brain. Y bueno, Google ahora, que la inteligencia artificial y el realizar productos que no estén solo, no solo escondido detrás del buscador, no solo escondido detrás de su sistema publicitario, sino en frente del usuario, se ha convertido en prioritario y urgente.

Creo que aquí ha querido quitarse el ruido interno y fusionar ambas divisiones. DeepMind procede de una compra, Google Brain es digamos un departamento que era orgánico dentro de la organización y bueno, da la impresión de que ha ganado DeepMind. Sí, han dejado a Demis Hassabis como CEO de, como director de esta nueva división y el que era el fundador y director de Google Brain, que era Jeff Dean, lo han dejado como

científico jefe o una cosa así, le han dado un premio de consolación. Y después llevar el juego del programa, ¿no? Y además DeepMind en el nombre de la división, eso dice mucho porque la mayoría de las compras de Google o de cualquier multinacional, acaban sumergiendo, incuyendo y se impone, digamos un poco la cultura y los principios del comprador, pero que DeepMind esté ahí todavía en el nombre dice mucho de la fuerza y el nivel que tienen en el equipo.

Es cierto que es una victoria de DeepMind, pero también he visto el enfoque contrario y que por lo visto en DeepMind era difícil para controlar por parte de Google, hubo creo que la intención también de separarse de la compañía y que eso no fue fructífero y también que no tenían mucha ilusión por integrar inteligencia artificial en los servicios de Google, ¿no? Ellos tenían aspiraciones mucho más grandes.

Claro, yo sigo mucho a Hassabis y a él lo que le mola es, hemos hecho esta investigación para los descubrimientos de las proteínas y esto va a ayudar a la investigación del cáncer y lo damos todo gratis, creo que a él le va ese rollo, eso le mola muchísimo y le da mucho bombo cada vez que lo sacan porque es lógico, ¿no? Pero no le he visto nunca tuitear, hemos mejorado un 0,01% el CTR de los anuncios, eso no se

lo he visto con él, se lo he visto nunca, ¿no? Y claro, ahora llegan tiempos de paso a producción y de conflicto entre los equipos de ética maximalistas, todos aquellos que dicen queremos ir a riesgo cero o a riesgo casi cero y digamos las divisiones de negocio y de producto de Google que quieren entrar en los mercados ya. Entonces, la posición de Hassabis no va a poder ser muy estirada y no se va a poder

poner muy de perfil, creo yo. Pues ese Google DeepMind va a estar supervisada por un consejo científico que va a supervisar eso, los retos más grandes que va a tener la investigación de DeepMind y nosotros vamos a seguir viendo lanzamientos, yo creo que ahora sí que van a pisar el acelerador. Y tenemos dos lanzamientos de Google, de hecho, no son la relache, pero el mundo de Google de ley ya se mueve.

Uno tiene que ver con BART, ya saben los oyentes de monos estocásticos que es el mejor chat basado en inteligencia artificial y quien quiere saber por qué pues tiene que escuchar el capítulo anterior, el de cine no, el anterior al anterior y han anunciado que ya puede escribir el código y hasta ahora digamos que sólo chateaba, sólo comentaba texto y ahora añaden esta posibilidad como chat GPT, contemplan varios lenguajes, etcétera.

Y bueno, un pasito más para BART. Y la otra es una noticia local, porque al final ha sido VirusTotal la que ha presentado una plataforma de ciberseguridad dentro de Google, Security AI Workbench, basada en un modelo grande de lenguaje y efectivamente hecha en Málaga por el equipo de Bernardo Quintero. Así que tendríamos que traer a Bernardo un día para preguntarle cómo funciona esto, ¿no? Sí, sí.

Bueno, en los detalles técnicos lo mismo, Bernardo, nos queda un poco lejos, Mati. No, pero yo creo que sería una chulada. Ya tenemos un objetivo, que es ir a todos los eventos malagueños en los que pongan canapés, por supuesto, y en los que vaya Bernardo para intentar rodearlo y sacarle para el podcast. Yo creo que Bernardo estará contento con estos desarrollos, porque él, ante todo, es un ingeniero.

Él no quiere ser manager de nada, él quiere hacer cosas chulas. Eso es lo que nos contó, por lo menos. Volvemos a hablar de Snapchat en este humilde podcast, porque... Humilde, humilde, Matías, el mejor podcast de Inteligencia Artificial, solo seguido de cerca por otro, que ya no lo vamos a nombrar más, porque le damos mucha promo, pero... Bueno, en audiencia es debatible que sí, que somos el mejor podcast de Inteligencia

Artificial. Y volvemos a hablar de Snapchat porque siguen dando vueltas con ese chatbot de IA, que ya está disponible, voy a compartir para mis amigos de YouTube, la noticia que ya está disponible en todo el mundo para todos los usuarios y gratis, o sea que esto lo están pagando ellos y además te contesta, a lo mejor tarda horas en contestarte pero te va mandando mensaje. Sí, bueno ellos lo plantean algo así como que, bueno que sí, que es un chat básicamente

con el que tener conversaciones como tu amigo de Inteligencia Artificial, te puede sugerir actividades divertidas, atención, te puede desear feliz cumpleaños y bueno, claro, de hecho incluso creo que tenía, no sé si ya han lanzado, estaba en el roadmap, que te pudiera devolver imágenes también, no porque sea un modelo multimodal, sino porque es multimodal. Bueno, no vamos a enredarnos mucho en la parte técnica, pero bueno, ahonden este fenómeno

de las personas virtuales, personas hechas con Inteligencia Artificial, que van a estar en nuestros entornos sociales, Matías. Si ya empiezan a mandarnos espontáneamente imágenes… ¿En qué caso de uso has pensado, Mati? Me surgen preguntas. ¿Qué imágenes le mandarías a tu amiga, amigo, perdón, o amiga, claro, puedes asignarle el género que tú quieras. Fíjate que ha habido ya, como en todos los casos de chatbots y de guías generativas,

pues han buscado los casos más polémicos, de alguna manera, que le han pillado haciendo gaslighting a usuarios, mintiendo acerca de tener su ubicación e incluso dar consejos sexuales a preadolescentes. Claro, esto se ha presentado como negativo. Lo de la ubicación lo vi y era muy gracioso. ¿Tienes mi ubicación? No. Sería cercana, una buena pillada. En línea con las grandes corporaciones tecnológicas, Mati, como siempre, ha sido entrenada con

esos datos. Bueno, fíjate, yo creo que está bien que esta guía de consejos sexuales, estoy a favor de eso, no lo veo polémico, pero yo lo reduciría a un consejo sexual básico, Matías. Si estás chateando con un avatar de inteligencia artificial, no estás cerca del sexo. Fin del consejo, básicamente. Oye, pues no es mala idea, le doy puerta grande a esta idea de que si los adolescentes se acaban hablando con chatbots, porque al final, si lo pensamos desde el punto de vista de

una persona a lo mejor más tímida, que no tiene tantos amigos y que no se relaciona con tanta gente y que no le devuelven los follows y que no le contestan los mensajes, pues esto, ojo aquí, porque esto puede acabar siendo algo grande para mucha gente y si aprovechan las empresas esto para, por ejemplo, educar sobre educación homosexual, pues interesante. Has sacado una idea interesante, Antonio, y que yo creo que puede dar que hablar en

el futuro. Sí. El caso es que está siendo un poco polémico el despliegue de esta, mi, mi, me voy a decir en español, mi IA, porque está reciendo muchas notas negativas en la App Store, digamos, porque digamos un poco lo han puesto a piñón, ¿no? Como en tu lista de amigos te lo ponemos lo primero y se queda ahí fijo. Y claro, eso a muchos usuarios los tiene cabreados, digamos, los usuarios que no están en esa

corriente que tú dices, Matías, los que tienen mucha actividad, pues les molesta esta usurpación en la prioridad de la inteligencia artificial, ¿no? Entonces esto es un poco como las nuevas aplicaciones preinstaladas del móvil, ¿no? Si tú quieres usar las tuyas y lo que te gusta, pero no, no, no, aquí te ponemos a piñón la que tenemos nosotros que hemos pensado. Bueno, yo imagino que lo alterarán, lo cambiarán y solucionarán esto.

De todas maneras, también tienen otro proyecto, porque es una chapada tope, que es el de conversaciones con personajes históricos a lo Character AI. A Character AI está creciendo tantísimo que le están saliendo imitadores y ahora Snapchat también va a integrar eso en su servicio. Otra red social que está muy subida a estos temas, sobre todo en generación de imágenes, es TikTok. Ya hay un montón de filtros ya que utilizan IA generativa en TikTok y ahora además vas

a poder crear tu avatar basado en inteligencia artificial, que esto cada dos por tres se hace viral, una nueva aplicación que lo permite, porque los resultados son bastante resultones. De hecho, tú en el CrossFit, Antonio, tienes una imagen generada por IA, que es tu cara. Yo creo que eso suele ser un gran problema, que es a los tíos que somos guapos, Matías, tú, yo, ¿no? Es un gran atractivo, pero luego la cámara no nos hace justicia, Matías.

Entonces eso es un fenómeno injusto de esta realidad metaversiana que nos hemos dado y ahí está pues eso, Lensa y todos estos proyectos de haces avatares con generadores de imágenes y ahora que TikTok lo va a meter, una vez que lo meta TikTok, pues yo creo que va a ser algo universal, sobre todo si lo hace gratis, que está por ver, porque en general todas estas aplicaciones tipo Lensa han estado facturando y bueno, razonablemente, porque

tiene todo un coste de entrenamiento y computacional, bueno, apreciable, ¿no? Así que si veis un montón de imágenes autogeneradas de repente en los perfiles de la gente ya sabéis de dónde sale. Hablamos de metaverso o por lo menos de Apple para empezar, para romper el hielo, porque Mark Gurman, que para el que no lo conozca pues es un chico que empezó a filtrarlo todo sobre Apple y acabó trabajando en Bloomberg y lleva mucho tiempo en Bloomberg, tiene

una newsletter dominical en la que suele recopilar estas filtraciones, estos rumores y de las gafas de Apple, las que va a presentar en la WWDC, en su conferencia para desarrolladores el 5 de junio, pues se sabe casi todo, al menos según la recopilación de Mark Gurman. ¿Qué sabemos? Es por resumirlo, que esto lo vengo contando también en Cupertino, se van a llamar o por lo menos hay referencias en el código de los sistemas operativos, etcétera, Reality

Pro. Son unas gafas de realidad mixta o realidad extendida, que ahora eso de realidad mixta ya no se lleva tanto y han pasado a XR, ¿no? Extended Reality. Y de hecho funcionan sobre un sistema operativo nuevo que se va a llamar XR OS, en lugar de Reality OS que era la otra opción, aunque esto, aquí una acotación, Apple en el último momento suele cambiar los nombres de todo lo que se filtra, porque yo creo que para

que Google Imágenes salgan las suyas y no salgan los renders que ha ido creando la gente porque eso luego es muy confuso. Bueno, pues el planteamiento de Gurman es que esto va a ser como el primer Apple Watch. Apple va a sacar esto con miles de aplicaciones, sobre todo portadas desde iPadOS, desde el sistema del iPad, para que sean los propios usuarios los que acaben de alguna manera enseñando a Apple el camino de qué es lo que funciona en gafas de realidad aumentada o realidad

virtual. Porque las gafas estas se rumoren a que van a costar 3.000 dólares y no tienen muy claro quién va a comprar esto, ¿no? Esto es un problema que se han encontrado ya varias marcas. Esto es algo que Meta está haciendo diferente porque está haciendo con unas gafas de menor precio y, de hecho, las MetaQuest son las que mejor han funcionado, pero luego hay otras que tienen más calidad de imagen, etcétera.

Entonces las de Apple van como las MetaPro, ¿no? Que tienen cámaras por fuera para mezclar, eso es realidad aumentada, realidad virtual, tienen una petaca con la batería externa para reducir el peso de las gafas y luego... Y luego tienen un montón de desarrollos nuevos por parte de Apple. Sobre todo el tema fitness, Apple tiene su suscripción de Fitness Plus, que es básicamente un gimnasio virtual, pues ahora en lugar de verlo en 2D en una pantalla lo vas a ver como

si estuvieras en el gimnasio haciendo spinning con otras cuatro personas, ¿no? O para leer libros, esto la verdad, no sé si alguien va a acabar en el metro de Madrid leyendo un libro con las gafas, yo no lo veo pero como son pantallas con muchísima densidad de píxeles y porque las tienes muy cerca de los ojos, pues técnicamente es posible. Y bueno, formas de ver video, cine, películas en un entorno virtual pero con la pantalla

en 2D, juegos, quieren tener juegos, que esto es un tema que se le resiste mucho a Apple, pero quieren tener juegos importantes y sobre todo darle a los desarrolladores las herramientas para portar las aplicaciones del iPad con ningún esfuerzo, que todas las que estén adaptadas a todas las resoluciones, que se puedan cambiar de resolución, se van a poder portar sin ningún tipo de fricción a X, Y, R o S, ¿no?

Entonces eso es lo que se sabe de las gafas de Apple y claro, es un acto tan importante que esto que estaba ahí como una cosa de nicho y que algunos se centran en los juegos como Sony o como Valve, HTC y otros pues han intentado llevarlo a la oficina como Facebook, con Horizon, etcétera, de repente viene Apple con ofrecer absolutamente todo al usuario y la duda que me queda es si esto va de repente a traer ese metaverso que planteaba Mark Zuckerberg

o va a quedarse como un fiasco de Apple. Bueno, aquí lo de esas apuestas es complicado. Fíjate, mi primera impresión, Mati, es que el desarrollo de este tipo de plataformas y la inteligencia artificial van a estar muy mezcladas porque, por un lado, yo creo que la inteligencia artificial va a actuar como una suerte de electricidad digital, es decir, va a estar integrada prácticamente en todos los servicios y aplicaciones y dos, porque en ese estado del metaverso yo creo que va

a haber mucha interacción en teoría, en principio, con otros humanos pero también con bots y con personajes basados en EMEA. Así que yo creo que esa separación del metaverso se va a la birria, a la porra, y la inteligencia artificial es lo caliente ahora, creo que probablemente esos dos estancos habría que no mantenerlos tan separados, también porque la concepción de metaverso que se ha estilado últimamente tiene que ver mucho con lo programado

por Facebook y por Meta, esa visión de réplica de lo que pasa en el mundo real en una realidad pues virtual, creo que es algo reduccionista. Dicho esto, mi impresión es que yo no daría por muerto el concepto de metaverso como, digamos, creo que da bastantes analistas a lo mejor viendo que Facebook no lo está consiguiendo, están haciendo.

Creo que hay dificultades tecnológicas y técnicas a corto plazo para que esa visión sea realidad, que esto es una carrera de 10 años o más, sobre todo porque las latencias y la capacidad computacional y de ancho de banda necesaria para tener a muchas personas a la vez en el mismo sitio haciendo cosas y que a la vez a todos nos llegue una visión superrealista en la resolución necesaria por una gafa de realidad virtual es un problema técnico acojonante que estamos

lejos de estar cerca de resolver. Y de las gafas de Apple, te traigo un take de nuestro amigo Eduardo de Text One On One, la newsletter que semanalmente resume las grandes noticias del sector digital y que dice, oye, 3.000 dólares y no lo puedes enseñar por la calle. Ojo a Apple, se la está jugando.

Aunque la solución petaca me suena un poco rara, te digo la verdad. Sí, pero yo creo que está en ese umbral complicado en el que esto no es un capricho. Esto no está dentro de lo que es ese voy a probar lo que podían tener los auriculares o que podían tener el reloj y digamos ese consumo más privado hace que parte de lo que te da el producto Apple, que es con estatus social también, pues no lo puedes amortizar.

O sea, que te haga fotos y lo compartas en redes, claro. El take de no el de Edu, el de Alex Barredo, competencia de Edu de alguna manera, es que esto va a quedarse como algo industrial, algo para empresas, fábricas, etc. Y yo no lo veo. Yo creo que Apple va a por el consumidor y que esto es un poco para sentar las bases de lo que puede hacer para luego sacar un producto más barato, que de hecho creo que eso fue lo que decía Mark Gurman en su newsletter. Y puedes ser paciente, es decir, puedes decir que esto es una manera de empezar a aprender

con el usuario e ir a diez años y que el análisis de, oye, es que han vendido solo cuatro el primer día, quizás sea el titular que tengamos el día siguiente, pues se ha precipitado y que esta es una manera de lanzar diferente. Dicho esto, yo creo que también puede haber una tentación de Tim Cook de quiero pasar a la historia y que quiero iniciar la nueva plataforma tecnológica computacional sobre la que Apple construirá su futuro y

a lo mejor precipitarse o equivocarse porque no quiere ser el gran CEO financiero de la historia de Apple. Sí, y de hecho hay rumores de que estas gafas salen contrarias a la opinión de diseñadores que creen que no están listos, etc. Dos cosas antes de terminar con Apple. Apple lleva tiempo con SDK para desarrollar reaumentada que la gente consigue virguerías absolutas porque además los procesadores de los iPhones, etc., son muy potentes y ahora con Apple Silicon

en los Macs, pues esa misma potencia pero exponencialmente más, ¿no? Entonces puede que veamos algo diferente, puede que veamos algo sorprendente y puede que estas gafas de 3.000 dólares sean comparables, por ejemplo, a las Varjo XR que probé este fin de semana que cuestan 6.500, ¿no? Entonces es una experiencia brutal, es mezcla de inteligencia, de realidad virtual con realidad aumentada, entonces estás viendo todo un mundo a tu alrededor que no

existe pero también estás viendo a las personas que están contigo en la misma habitación. Entonces es una experiencia muy chula pero que nadie las tiene porque cuestan 6.500 dólares y a lo mejor Apple consigue bajar eso a 3.000. Mira, hay una noticia relacionada con todo esto que estás contando.

Te voy a dar un salto en el guion, perdóname Matías, porque quiero irme a Humani, que es esta startup que había recibido una inversión muy fuerte y que quería entrar en el mundo de la robótica y que tú y yo nos reímos mucho de ella, bueno, nos reímos un poquito porque, claro, queremos hacer robots antropomórficos que estén entre nosotros y nos ayuden pero nuestro primer lanzamiento va a ser un wearable, ¿vale? Era un poco esa filosofía.

Vale, el caso es que han enseñado un poquito el wearable y es curioso porque es como un cacharrito que se lleva en el bolsillo de la chaqueta y que te permite una interacción por voz con el dispositivo como diciendo, oye, ahora que tenemos los grandes modelos de lenguaje, ya no estamos en la época de Alexa, Siri, Google Assistant, que eran bastante tontos, sino estamos aquí ya se puede manejar todo con la voz y luego hace una cosa guay porque

tiene un proyector y si quieres ver los resultados proyecta desde la teta, si tienes puesto ahí el cacharrito de Human y me pareció muy curioso la demo que hacía el fundador de la cosa porque se lo proyectaba en la mano. Entonces era como la gran digitalización de cuando te apuntas en la mano algo para que no se te olvide, tienes 12 años y sabes, oye, se me va a olvidar este recao, se me va a olvidar estos ejercicios que me han mandado,

me lo apunto en la mano y de repente Human ha inventado el wearable que ha digitalizado el apúntate en la mano algo para que no se te olvide. Me ha parecido fantástico a ti. Lo llaman un iPhone killer, algunos entusiastas. Puede ser, es como la escena esta de Los Simpsons, el negro es Carl, proyectado en tu mano. Bueno, tenemos un tema muy fuerte, Mati, hoy en el que, aunque suene un poco raro, no tenemos

todas las respuestas porque es un debate abierto, que es abierto con la IA y en el que parece difícil que encontremos soluciones rápidas. Es el gran problema o el gran debate o el gran conflicto entre las empresas de inteligencia artificial y aquellos creadores cuyo contenido ha sido utilizado para entrenar a los modelos de inteligencia artificial. Claro, esto ha dado que hablar también, y lo previmos, por la canción esta de Drake

más The Weeknd, ¿no? Él detonó todo. Sí, está chula la canción. Yo me la bajé porque dije, oye, esto lo van a cortar. Entonces, me la bajé rápidamente, la tengo en local, y es que tiene un flow bastante guapo, Matías. Y ya en España hay gente consiguiendo cosas.

El otro día compartimos en la cuenta de arroba monos podcast un hilo de todas las canciones populares de España en los últimos años, pero cantadas por Quevedo, ¿no? Quevedo se ha convertido en una especie de meme. Ahí hay un punto importante, Matías, que es, si las IA al final acaban teniendo conciencia, esto puede ser un poco tortura, someterlas a tener que hacer estas actividades, ¿eh? En el caso de Quevedo, complicado. Que, por cierto, estoy intentando compartir la canción y ya no está disponible por una

reclamación de derechos de autor presentada por Universal Music, y esto pasó lo mismo en Spotify, que tampoco está ya en Spotify. Claro, Universal Music, aquí es importante, no tiene los derechos de esta canción, claro. Esta canción es nueva, por lo tanto, no está en el repertorio de Universal Music que pueda decirle a la plataforma, oye, quita esto de aquí, pero han usado un truco porque, digamos,

al principio de la canción hay un sample de una canción que sí pertenece al catálogo de Universal Music, y a través de ese atajo decir, oye, usa un sample que sí tenemos el copyright, los derechos propiedad intelectual, bla, bla, bla, bla, bla, por lo tanto, Spotify, YouTube, todo el mundo fuera de la canción. Pues esto tiene que ser muy complicado a nivel de derechos de autor, porque cuántas canciones

exitosas usan samples de otras canciones hoy en día, y diría que todas. Ya, pasa que es un tema que está arreglado, es decir, de alguna manera, y ahora lo veremos, el creador original tiene que haberse beneficiado, o al menos el propietario de los derechos de la canción original, pero digamos que este conflicto aqueja a los dibujantes, aqueja a los creadores de texto. Decíamos la semana pasada, bueno, sí, la semana pasada, que algunos medios de comunicación

estaban en esa posición de, oye, si la IA ha sido entrenada con textos cuyo propietario en principio soy yo, entonces me tienen que pagar, y aquí hubo un reportaje del Washington Post, y perdona porque estoy saltando un poco en el guion, había un reportaje del Washington Post en el que profundizaban en uno de los datasets que han sido utilizados para entrenar inteligencia artificial, aunque el Washington Post fue muy cuco y puso a Chagepeté en el

titular. Qué piratas. Bueno, es que Chagepeté es como decir fiery, ¿no? Es como, representa a todos, la babajilla. Había una clave para hacer titulares en medio, es, si puedes poner la palabra gratis, ponlo. Ahora el nuevo gratis es Chagepeté. Bueno, el caso es que en el reportaje de esta gente, investigaban uno de los datasets más conocidos de Google, el Google C4, que había sido utilizado para entrenar el, digamos,

modelo grande del lenguaje, pero de Google, ¿vale? Y investigaban, ya que este dataset es conocido y es público, de dónde ha aprendido, y bueno, había cosas muy curiosas. El primer sitio donde más textos ha utilizado es el de Google, en Google Patents, el segundo Wikipedia y el tercero Scripted. Lo de Wikipedia lo entiendo, pero Google Patents, o sea, las patentes tienen el lenguaje más retorcido posible en cualquier idioma y me extraña que entrenaran estos modelos con

patentes. Claro, el tema es que ya se ponen ahí a hilar fino y hay un sitio de descarga de libros con no toda la legalidad desde el punto de vista del derecho estadounidense. Había muchos medios de comunicación, estaba el New York Times, estaba Wall Street Journal, estaba el blog de Javi Pastor, que lo ha comentado él en su propio blog, Incognitosis, y claro… No me había enterado de eso. Sí, sí, sí.

Entonces, bueno, ya todo el mundo se ha buscado. No ha usado, atención, error 500 en mi blog, y ahí me he sentido un poco, ¿qué pasa? ¿Por qué no quieres aprender de mis textos? Están de puta madre. Bueno, hay una cosa en el análisis de Javi que, claro, refuerza mucho lo que se ha venido comentando de, oye, no hemos dado permiso y no nos están pagando. Y, por ejemplo, Javi tiene una licencia Creative Commons, pero que exige atribución, exige

reconocer cuando usa su texto que es un texto original de Javi Pastor y donde está publicado y poner un enlace y tal. Pero claro, parte de la dificultad de encajar en el ordenamiento jurídico, legal, del copyright, etc., es que los modelos grandes de inteligencia artificial no reproducen tu contenido. Es decir, es distinto, he usado tu texto para entrenar un modelo que estoy reproduciendo tu modelo. ¿Por qué?

Porque, bueno, no me quiero poner muy técnico, pero básicamente, cuando se dice que el modelo es entrenado con texto de Javi Pastor, eso significa que para organizar el espacio en el que el modelo inteligencia artificial coloca las palabras y las expresiones, va haciendo pruebas contra textos. Entonces, la capital de París es, entonces el modelo va probando cosas, va probando cosas y si en el texto de Javi Pastor pone la capital de París, la capital de Francia es París,

cuando el modelo diga París, pues diga, ya has acertado esta ordenación que has hecho de tus textos y de las palabras en el espacio como lo estás organizando, va bien. Mientras va fallando, va mal. Pero el modelo no coge los textos de Javi Pastor y luego los escupe cuando chatea. Por lo tanto, no hay una reproducción del texto original y quienes defienden un poco que esto es legal o es más que legal, es un uso lícito, apuntan a que esto se parece

mucho a los buscadores. Los buscadores scrapean la web, indexan, es decir, se traen los textos a su base de datos y a partir de ahí lo utilizan para darte respuestas en forma de URLs. Claro, los que están en contra de este entrenamiento dicen que hay una simbiosis. Google indexa mis textos y luego me manda tráfico. Entonces es un ecosistema en el que podemos estar de acuerdo. Pero los modelos grandes de lenguaje no hacen eso, han aprendido a hablar, pero no me mandan

ningún beneficio y han aprendido con mi contenido. Pues es interesante lo que comentas, por ejemplo, con Google la que se lió con Google News al final era porque la gente quería dinero. Me imagino que en este caso pasa lo mismo, si Wikipedia va a tener toda su enciclopedia o todos los idiomas revisados para entrenar a inteligentes artificiales, pues querrán su parte. Al final siempre terminamos en eso, en cesar aliento.

El dinero arregla muchas cosas, eso es. Claro, al final algunos de los expertos consultados, y nosotros aquí ya anticipamos, vamos a traer a uno de primer nivel y vamos a hacer además un texto, un artículo sobre el tema en el blog en monosestocático.com, tienen que dilucidar o tenemos que ver si va a haber un uso legítimo de obras de autor con copyright, si realmente esto es así con la inteligencia artificial

y el entrenamiento de modelos, porque tenemos el caso de las imágenes, que ahora mismo está judicializado en Estados Unidos por las demandas de Getty y por las demandas de algunos artistas contra estable difusión image-art. Y además ahora ha entrado a la industria discográfica, porque la RIA entiende que la RIA es la Recording Industry Association of America, que al entrenar los modelos generadores

de música con canciones, pues se infringen de alguna manera los derechos de los artistas que las escribieron y grabaron, lo cual es un poco dudoso. De hecho, ahora mismo, por donde parece que hay un frente mucho más claro, es que al usar la voz de un cantante famoso estás usando su imagen pública, entre comillas, y por lo tanto éste debería dar su permiso y cobrarte si así lo exigera. Claro, a ver, en esto estoy de acuerdo, al final los artistas hoy en día muchas veces

son su imagen y un poquito su voz, porque no escriben ellos las canciones, no las producen ellos, muchas veces no las componen ellos. Pues a mí el take que me gusta, Antonio, es el de Grimes. Bueno, que soy fatal. No voy a decir la ex de los más, porque esa sería una descripción muy machista de lo que ha sido Grimes como artista, que es... No lo vas a decir. Es una artista multidisciplinar, muy conocida.

Pues me parece increíble, o sea, que se lo haya tomado con esta filosofía. Voy a repartir el 50% de los derechos de autor de cualquier canción que se genere con inteligencia artificial utilizando mi voz. Claro, es el mismo trato que ella plantea a cualquier artista con el que se monta una colaboración, ¿no? Ahora que se montan tantas colaboraciones, pues mira, la montamos, vamos a Pacha, el dinero que dé, pues pa'lante, ¿no?

Pues para Grimes, si lo hace alguien con una IA, pues guay, pa'lante. Yo aquí veo una cosa, esto puede ser muy grande. Esto puede ser muy grande porque ya hemos visto, como la de The Weeknd y Drake, canciones que a la gente le han encantado y vamos a empezar a ver pues artistas que a lo mejor han fallecido, Amy Winehouse, Kurt Cobain, Michael Jackson... El otro día Versus, de Versus.net, me hacía un take sobre este tema y decía, coño, tú

eres el heredero de Kurt Cobain, ¿vale? Y dices, qué oportunidad para que ahora mismo yo diga, joder, acabo de encontrar una cinta que dejó grabada Kurt y que habían estado ocultísimas y de repente son un nuevo disco que venga, facturemos todos, ¿no? Claro, el punto de Grimes es, coño, vamos a intentar, no estoy cerrada, pa'lante, hagamos pasta. Pasa que hay que tener un cuidado porque tú eres un artista y ahora que cualquiera puede

hacer cualquier basura o cualquier tema polémico con tu voz, no es solo que reparte ingresos contigo, sino que tú tengas cierto control de esta experiencia. De manera yo estoy contigo, esto es revolucionario porque los mashups y las remezclas son elementos centrales del ritmo de la cultura musical y han estado limitados por lo que ya existe, lo cual parece una limitación razonable, solo puedes mezclar cosas que ya existen,

¿no? Entonces, claro, esa forma de hacer mashups, mezclas con voces, elementos que creas con la inteligencia artificial puede dar un empuje a la creatividad y a las nuevas obras, brutal, pero en el otro lado tenemos un sistema que está montado con unos equilibrios, unas reglas en las que de alguna manera todos van a intentar coger una posición que les beneficie, ¿no? También una oportunidad para SoundCloud porque en Spotify estas canciones no van a poder

estar y en SoundCloud, que es donde están las mezclas más locas y más underground que hacen artistas desconocidos, pues ahora van a empezar a subir estas cosas seguramente. Así que oportunidades que abre la inteligencia artificial. Ahí luego también tenemos el problema, el conflicto entre creadores gráficos y estas herramientas, estos grandes modelos, están muy activos en Internet, están muy activos.

En algún caso, y aquí me meto en un charco, creo que un poco de pasada de frenada, al otro día en un caso de alguien montó una iniciativa en una biblioteca y había usado para ilustrar el evento con una imagen conía, ¿no? Le entraron a Sago que si era horrorosa, que si era terrible, que si la biblioteca no le permitiera esto, un poco, es verdad que ahora se sienten muy agraviados y se sienten mal

y se sienten un poco atacados, pero bueno, atacar a los voluntarios de una biblioteca que montan porque usen una imagen me parece un poco fuera, un poco exagerado, muy, creo que están empezando a resultarnos a alguna gente algo antipático. El caso es que tienen su punto de razón y creo que aquí va a haber dos caminos, ¿no? Tres o cuatro, ¿no? Pero el punto es ese de ¿han usado mis imágenes para entrenar a los modelos de inteligencia

artificial? Es correcto y pasa con establecimiento, pero ojo porque Adobe Firefly ya tiene la licencia, ha sido entrenado el modelo con imágenes por las que Adobe ha pagado la licencia y el permiso para usar esto o imágenes del dominio público, por lo tanto es probable que los grandes modelos de imagen del futuro no usen contenidos tuyos, entonces aunque puedas estar muy peleado con establecimiento, mi impresión es que es mejor tener establecimiento

como herramienta porque yo creo que esta herramienta se van a quedar que es libre, lo puedes modificar, eres propietario en parte de esa herramienta que quedarte en las manos de Adobe, entonces aunque ahora estés muy agresivo en contra de opciones como esta que es libre, que es abierta, probablemente tenga sentido, de hecho la pobre está de difusión en el modelo 3.0, ahora no está en la 2, ha hecho un opt-out, si tú no quieres que se entrenen a la cuenta

de imágenes puedes decirle que no lo haga. Yo no voy a entrar en regulación porque no entiendo, solo entiendo de regulación del metaverso por mi viaje a la Comisión Europea, pero sí creo que esto va a acabar como siempre ha acabado en la historia de la humanidad, todo el mundo copia a todo el mundo y al final lo que va a sobresalir por encima de los demás pues va a ser la gente que tenga el suficiente

talento, la suficiente inteligencia emocional, suficiente creatividad para generar imágenes o dibujarlas o ilustrarlas o canciones, etcétera, apoyado o no por la inteligencia artificial pero ofreciendo algo de valor a la gente que lo va luego a consumir o a ver o a admirar, etcétera. Entonces vamos a estar como siempre solo que con nuevas herramientas, esa es mi impresión. Sí, hombre, yo creo que va a haber otra vía que se va a intentar plantear o explorar,

que es que se amplíen los derechos del copyright y que se contemple que tienes derecho o que el entrenamiento de una inteligencia artificial tiene que pedirte permiso y compensarte a la hora de ser realizado. Yo creo que esa vertiente se va a estudiar y se va a explorar, se va a plantear, ya veremos cómo guaja y a mí no me extrañó una solución a la española, la solución española es pongamos un canon, es decir, como todo eso es muy lioso, pues todas las empresas de tecnología

y todos los usuarios de tecnología van a usar modelos seguro, por lo tanto grabaremos todo eso con un nuevo canon y habrá una organización que reparte entre creadores, los medios pillarán un cachito, los creadores que se pueden organizar en plan Sky, pillarán otro cachito y creo que en algún momento también es una de las vías o soluciones que se plantearán para aliviar con la situación, porque además, y ya aquí yo creo que rematamos, está el

tema del de la voz, había hace poco, estas semanas se publicaba un manifiesto de varias autorizaciones de profesionales del sector de la voz, actores de doblaje, narradores, actores que básicamente trabajan en el audio y que hacían una lista de peticiones del cual yo destaco dos, es decir, uno era que cuando un actor da su voz a un proyecto eso no significa que su voz pueda ser grabada y luego aprendida por un modelo y reproducida

para otros proyectos, es decir, se paga proyecto a proyecto y no me pagas una vez y de repente tienes mi voz para el resto de la historia y que además quieren que los usuarios sepan cuando las voces son directamente de humanos, cuando las voces son sintetizadas. Nunca había estado tan cotizado tener una voz fea como nosotros, Antonio, tenemos mucha suerte. Sí, a mí no me gusta, digo, a veces me pongo el podcast después y no me gusta mi voz ni

nada, Mate, qué horror. Yo tampoco, por eso no la van a sintetizar. Hombre, yo aquí estoy también un poco, a mí me gusta, algunas veces escucho podcast, escucho audiolibros y me gusta, como con el caso de Maxi, me gusta saber el actor, me gusta que haya habido una persona ahí detrás haciéndose ese trabajo y creo que la parte sintética va a quedar para otros servicios en los que es impepinable. ¿Por qué?

Porque en los modelos grandes de lenguaje, cuando hablan con nosotros y se relacionan con nosotros a través de la voz, no puede haber alguien que haya grabado los infinitos mensajes que pueden generar nuevos estos modelos y estos modelos estarán en videojuegos, estarán en redes sociales, estarán en asistentes, estarán en muchos sitios. Ahí tiene sentido que la voz sea sintética y que sea también generada con IA.

Pero en el libro que me compré el otro día y que estoy escuchando, etcétera, yo creo que tiene más valor que haya sido alguien declamando con la voz que Dios le ha dado. Claro. Yo como usuario de audiolibros también, los libros que están narrados con pasión por gente humana, todavía no estamos a ese nivel de inteligencia artificial. Pues relacionado con la voz, Mati, tenemos un basado o haciendo la ciencia.

Basadísimo o haciendo la ciencia. Yo creo que ya te digo que por el nombre Liam Gallagher, seguro que va a ser un basado. Va a ser un basado porque, claro, yo creo que tengo un conflicto porque tenemos dos declaraciones que una es de Liam Gallagher y otra es de Nick Cave y yo siempre he sido mucho más de Nick Cave porque básicamente siempre he creído que Liam Gallagher era un poco gilipollas, pero Nick Cave me parece admirable, súper chulo, leo lo que saca,

leo su blog, me compró los discos. Nick Cave tiene una postura que es decir que quizás la guía pueda hacer una canción que sea indistinguible de lo que yo puedo hacer, quizás incluso una canción mejor, pero para mí eso no importa. El arte no es eso. El arte tiene que ver con nuestras limitaciones, nuestras fragilidades y nuestros defectos como seres humanos. Nick Cave lo deja y ya no puede rebatir, no puede decir nada.

En cambio, Liam Gallagher tiene una postura con un matiz un poco diferente, Matías. Hay un grupo que se llama Isis, bueno no sé cómo se pronuncia en inglés, dicen que se pronuncia como Asis. Isis como el grupo terrorista o como el Estado Islámico. Que son un grupo que hacía ese tipo de grupo homenaje a las pandas homenaje que es un fenómeno que tú pues mira no vas a ver extremo duro, vas a ver la gente que los imita y que hace

canciones como ellos y sigue con su rollo. Ese fenómeno existe. Entonces, este grupo decía nos aburrimos de esperar a que Oasis volviera a formarse y a juntarse de nuevo, por lo que tuvieron la feliz idea de generar canciones nuevas de Oasis. Es decir, generaron canciones nuevas del grupo al que ellos imitan para poder imitarlas en sus conciertos, Matías. Esto es bastante interesante, creo yo, ¿no? Bueno, el caso es que modelaron a Lyon Gallagher con la inteligencia artificial y así pues

consiguieron que interviniera en algunas de estas nuevas canciones. Total que alguien se lo presenta por Twitter a Lyon Gallagher, no sé si tiene la declaración por ahí exacta porque he perdido un poco el literal y el tío dice algo así, oye pues sueno de puta madre, ¿no? No, me parece un buen enfoque. Lyon Gallagher basadísimo. Yo creo que va a estar un poco en esa escuela de, oye, como Grimes, joleen, yo estoy aquí

tocándome la nariz desde hace un par de décadas, qué pereza volver a juntarme con Oasis y aguantar a mi hermano. Mucho mejor que estos chavales hagan canciones con mi voz y de repente, fíjate, yo tengo una sensación que sigo teniendo, Mati, que es que la inteligencia artificial de alguna manera puede beneficiar mucho a los incumbentes. Si tú ya tienes una voz, una fama, un fandom, eres conocido, eres creíble, si tienes ese

punto de repente puedes amortizar mucho más tu imagen, tu voz, tu físico, tu forma de actuar, tu equis, con bastante menos esfuerzo como le pasará a Harrison Ford en la nueva de Indiana Jones, que le van a rejuvenecer como unas cuantas décadas. Harrison Ford ya está un poco, bueno, no está para muchos alardes físicos, pero el colega, claro, puede interpretar películas de acción, no solo porque vaya a haber un

doble en la escena más peligrosa, sino que para cualquier escena puede estar bastante más buen horror de lo que está ahora porque está un poco viejales. Entonces, bueno, basadísimo Lyon Gallagher y luego hay otro fenómeno en que, no sé si están basados o haciendo la ciencia, pero la industria de hacer trampa en los trabajos de colores se derrumba, Matías. ¿Por qué? ¿Qué ha pasado ahora? Claro, había una industria, se llaman ghostwriters los americanos, aquí en España estaba la

tradición de llamarlo un negro, que era básicamente que alguien escribe el libro por ti o alguien hace el trabajo escolar por ti. Y era una industria bastante pujante en Kenia, en donde se externalizaban muchos de los trabajos de los estudiantes estadounidenses universitarios, que, bueno, de alguna manera hacían un atajo hacia su éxito estudiantil a través de que un keniata te hiciera el trabajo. Y había una industria por ahí bastante sumergida que Chas GPT se la está cargando, Matías.

Es como la autoscuela, no sé si está en Guadalajara, está cerca de Madrid y que todos los famosos van allí a sacarse el carnet porque se lo regalan, pues ahora te regalan el título con Chas GPT. Pues sí, entonces aquí han hecho la ciencia y han fastidiado a los keniatas, una pena, en fin. Me quedo con que, por fin, la gente que sabe tocar dos canciones en la guitarra va a poder ampliar su repertorio y no solo cantar Wonderwall de Oasis, sino nuevas canciones de Oasis y

de Liam Gallagher. Claro, los que no sabemos siempre hemos odiado esos perfiles. Bien hecho, Matías, estoy contigo. Que, por cierto, me he quedado con ganas de comentarte, cuando has dicho Harrison Ford, no hay que ir a Harrison Ford, ya Mark Hamill ya sale en las de Star Wars, rejuvenecido, y también Carrie Fisher, muerta, también sale en las de Star Wars, entonces todo esto de los deepfakes es un tema que no hay ningún tipo de ética.

Y claro, algunos son facturaciones de los herederos, tú ves a Lola Flores en el anuncio de nuevas. El gran cambio es que probablemente eso con el CGI adecuado y en superproducciones pues era asequible. Lo que está pasando ahora es que eso va a ser mucho más accesible en términos de costes y por lo tanto puede ser mucho más masivo. Oye, una idea entonces, tú sabes cómo, por ejemplo, los actores de Friends que siguen

cobrando por las retransmisiones, pues si tú eres un grupo, que hay tantos, con un one hit wonder, que solo una canción te ha funcionado pero súper súper bien, pues después pueden generar con tu voz, pues canciones, como no tienes talento para producir más canciones, con tu voz generan nuevos éxitos y vives de eso, aunque solo sea el 50% como propone Grimes. Fíjate, tú sabes, que nos estemos dispersando un poco, Matías, lo peor de la carta de Paremos

la Inteligencia Artificial, que yo cada vez que leía ese tema o leía sobre ese tema se me venía a la cabeza la canción de Despacito, suave suavecito, pasito a pasito. Porque claro, yo leía la carta de Despejamos más lento con Inteligencia Artificial y tenía esa canción metida en la cabeza y quizás por eso estoy tan en contra de la carta, Matías. Yo creo que eso, de alguna manera, no tengo una respuesta racional, sino que simplemente

es algo visceral, ¿no? Recuerdo otra vez a Despacito y no puedo, no puedo. Bueno, ¿cómo cerramos este episodio antes de seguir yéndonos por la tangente? Yo creo que antes de cerrarlo, Matías, tenemos que intentar un puerta grande o enfermería. Bueno, hay una que yo creo que va a ser puerta grande, que es la IA Rolera, nos lo pasa por Twitter nuestro gran amigo Phony Skywalker, entonces Chaoxium, que es una empresa desarrolladora

de juegos de rol, de juegos de rol clásicos, no los juegos de rol de videojuegos. De hecho, esta empresa, si no recuerdo mal, yo fui rolero, pero lo tengo un poco osidado el tema, hizo el mejor juego de rol de la historia, que es el Chulu o el Catulhu, también hay un gran debate aquí sobre cómo se pronuncia, se pronuncia Catulhu, el Chulu no lo había identificado, pero luego la llamada de Chulu, ¿no?, basada en los mundos de Lovecraft y

todo ese tema, ¿no? Entonces, bueno, han hecho una IA que ayuda a los masters de los juegos de rol que, claro, la IA se sabe todas las reglas, uno de los grandes problemas del juego de rol es que el gran problema no es que el master no se sepa la regla, el gran problema es que los jugadores se la sepan mejor que el master, entonces esto de la IA, que se sabe el manual por completo, le puedes consultar cualquier cosa rapidísimo, no tienes que abrir el libro,

que además rompe el flow del juego, pues es una gran ayuda. Así que para mí, si te lo propongo Matías, que esta sea puerta grande. Puerta grande para esta ayuda a los masters de las partidas. Yo te pasé, pero un poco como chiste, porque me hace mucha gracia que en nuestro sector últimamente todas las notas de prensa se hayan reorientado a usar ChatGPT en el asunto, ¿no? Entonces las agencias hacen todo tipo de estudios que tengan mínimamente que ver con ChatGPT

y la mandan como nota de prensa, pero esta me hizo especialmente mucha gracia. El 72% de los españoles usaría ChatGPT para crear frases ingeniosas que le ayuden a ligar online. Yo creo que, claro, yo creo que el 72% de los españoles usaría cualquier cosa que les arrimara un poco más, ¿sabes? 72% me parece poco. Hay una cuenta de personas que no saben ligar en Twitter, que ya es lamentable cómo intentan

ligar los españoles. Pues no me quiero imaginar si metes ChatGPT, ¿no? Bueno, aquí, en caja, a lo mejor copian y pegan el, lo siento, como modelo de lenguaje no puedo. Bueno, pues mira, hablando de eso, hay un artículo en Hackernoon, ¿vale? Es una publicación así un poco de cosas muy futuristas y el planteamiento es muy similar a lo que tú planteas, Matías, es el extraño futuro de las citas online, tu doppelganger

que liga por ti. Entonces, el concepto es, el doppelganger es ese otro tú que es exactamente igual que tú, pero no eres tú, ¿no? Claro, el planteamiento del colega es, con la inteligencia artificial podremos imitar a cualquiera. Aprenderá de tus textos, tus audios, todo tuyo, ¿no? Ya tenemos el MatíasIA, ¿no? o el ChatMatías, MatíasGPT, podemos llamarlo MatíasGPT. Matías, con la I y la A en mayúsculo.

¡Oh! ¡Qué grande! Es buenísimo eso. Bueno, el MatíasA, pues de repente puedes sustituirte en cualquier situación. Que, oye, como es un gran podcaster, hace muchos podcastes, ¿por qué no te vienes y conversamos y nos ayudas y nos asesoras? Pues claro, tú dices, sí, sí, sí, por supuesto, pero no vas, mandas a tú MatíasA o MatíasGPT, ¿no? Es un gran ahorro para la gente que estáis altamente demandados, Matías, como es tu

caso, ¿no? Pero, claro, el escritor de Hacker.net iba un paso más allá, diciendo, oye, tú doble podrías sustituirte en las aplicaciones de cita online, hablar como tú, comportarte como tú, hacer chistes como tú y ponerse ahí, pam, pam, pam, pam, a intentar ligar con la gente, con tu público objetivo, digamos, hasta que llegue el día de la cita. Claro, el día de la cita, como ya tienes que estar en persona, pues si irías tú,

tú directamente, ¿no? Entonces, este podría ser un gran avance de la inteligencia artificial, Matías, ¿tú cómo lo ves? Sí, efectivamente, yo no soy, no estoy tan ocupado como para no presentarme físicamente en los sitios, pero hay cosas que me dan tanta pereza que mandaría a mi doppelganger sin dudarlo. Bueno, pues ya sabéis, la IA nos sustituirá en las aplicaciones de cita y nosotros solo apareceremos para rematar, esto es, bueno, es una visión un poco distópica para algunos,

pero puede ser muy práctica para otros porque, claro, tú puedes intentar ligar con 400 personas a la vez, Matías, puedes mantener todos los chats que quieras y a la vez puedes intentar estar ahí metiendo fichas continuamente. Sí, como los vídeos de los que en el Tinder van dándole que sí a todas, ¿no? Sí. Alguna caerá, pero ahora de forma totalmente automatizada, incluso los chats. Claro, claro, porque luego en la parte de chat, el botón ese, la mano mecánica que

da OK en el Tinder, que hacía el OK, el OK a todas, claro, luego en el chat no escala, no escala. Entonces, en la parte de chat hemos conseguido escalar y ya tú solo tienes que aparecer ahí ya el día de la cita. Lo que pasa es que, claro, el día de la cita tienes que leerte todo el chat, la vez que le he contado yo a esta persona. ¿Necesitas un chat PDF para preguntarle de qué habéis hablado en la conversación?

No te lo vas a leer todo, es verdad, Matías, hay que hablar un resumen. Bueno, Puertas Grandes o enfermería. No, Puertas Grandes, Puertas Grandes. Bueno, sobre el doppelganger hay una serie en Reflex que se llama Réplicas, que está divertida porque luego además a un tío que lo clonan y tiene muchas peripecias, algunas sentimentales también, así que bueno, está divertida, se puede ver. Bueno, creo que es todo, Matías, ¿tenemos alguna noticia por ahí extra?

Pero hemos cumplido la hora y tenemos esta promesa de no saturar a nuestro público. Bueno, pues mejor dejarlo ahí en una hora y no irnos ya a la hora y media, que sería el siguiente nivel, porque de verdad os prometo que hay tantas, tantas noticias que salen semana a semana que me cuesta mucho ponerme al día. Antonio no, porque está conectado directamente al servidor de OpenAI y se lo va resumiendo

todo. Seguidnos, seguidnos en arroba monos, podcast en Twitter, en YouTube, arroba monos estocásticos, en todas las plataformas, si dejáis un comentario nos ayudáis a seguir creciendo, que por cierto crecemos semana a semana, o sea que estamos muy agradecidos y os dejamos hasta la semana que viene. Ah, tenemos también en la semana que viene un especial que creo que os va a gustar bastante, no adelanto nada más.

Gracias a vitaminaJ.com por patrocinar este episodio, podéis ir a comprarle el lomo que tanto le gustó. El lomo, importante. El jamón también, pero el lomo fundamental. Y seguro que os gusta y que Maxi os lo agradece también por Twitter. Un abrazo a todos. Chao, chao, chao, chao. Chao, chao, chao, chao.

Episodios recientes

Programas relacionados