Un episodio entrenido en el que hablamos de cómo la inteligencia artificial está afectando a los contenidos:
- Propaganda china en YouTube
- Axel Springer y ChatGPT
- La pesadilla de los SEO
Patrocinador: La única suscripción que vale la pena, la suscripción de jamón de Don Ibérico. Una empresa familiar que envía a domicilio un jamón de bellota 100% ibérico de primerísimo nivel desde Guijuelo, Salamanca. Envío rapidísimo, cortado y envasado al vacío, con su hueso para el caldo y todo. https://doniberico.es/
Además:
- Las gafas de Meta que describen lo que ven
- La IA que predice la muerte
- FunSearch y las matemáticas
- Las IAs que aprenden de ChatGPT
- Por qué los abogados son más felices con la IA
Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com
Transcripción
Hola a todos los monos estocásticos. Antonio, te iba a decir que estoy muy mal, que estoy muy resfriado, que he pillado un virus, pero me da la sensación de que tú estás peor, Antonio, tú estás ofendido.
He cambiado de bando, Matías. Has cambiado
de bando.
La semana pasada yo estaba a favor de la IIA, de desarrollarla, de explorar el espacio de innovación al que nos invita la inteligencia artificial, pero es que me la ha jugado ya dos veces, Mati, dos veces en la que la inteligencia artificial, al recrear una imagen mía, me hace lo mismo que es quitarme muchísimo pelo, Mati. Además, es un tema que yo creo que los los eticistas de la inteligencia artificial han abordado poco, yo me lío el ética para la IE, por ejemplo, de Kokelberg que es como uno de los referentes, ¿no? Habla mucho de la privacidad tal, que si el apocalipsis tal, ¿no? Debate muy interesantes, pero de la inteligencia artificial que cuando coge tu imagen te quita pelo, es un tema que que se ha se ha hablado poco y en el que me está haciendo cambia cambiarme a que, bueno, que esto esto hay que pararlo, Matías, esto hay que hay que mirar.
Bueno, nos ha hecho un reportaje chulísimo en El Español de Málaga, el periodista Juan Romera, le agradecemos mucho. Lo que pasa es que nos pidió una foto, y Antonio y yo, las fotos que tenemos son disfrazados en el crossfit, en Halloween y en carnavales, o lo que sea. Entonces, generé una con Stable Diffusion, con una foto de Antonio y una foto mía, y salió, pues, la habréis visto, a lo mejor, en las redes sociales, ¿no? Yo parezco el Chumbel de Málaga, un poco con un tupé, y Antonio parece Steve Jobs con la cantidad de pelo que tenía Steve Jobs en sus últimos años de vida. Sí.
Por eso está Antonio, pues, tan ofendido con la inteligencia artificial.
Al menos tenemos una buena noticia para el episodio de Matiz, que no estamos solos, hay alguien que nos acompaña, que nos patrocina.
Hoy nos patrocina Don Ibérico, después tengo que contaros más de Don Ibérico, estoy muy contento con este patrocinio. Vamos a hablar, Antonio, de, yo creo que si hay algo en lo que somos los dos expertos es en contenidos, medios.
Además del metaverso, de inteligencia, bueno, somos expertos en muchas cosas, Matías.
Sí, sí, expertos, justo en eso que se está comentando ahora mismo, y la inteligencia artificial promete desde hace tiempo cambiar mucho las cosas en esta industria. ¿Para bien o para mal?
Bueno, es es difícil, ya siempre decimos que es muy difícil prever los cambios que va a provocar una tecnología en la industria, en la sociedad, pero bueno, tampoco hay que ser un lince para pensar que las guías generativas que generan imágenes, vídeos, textos, música, se van a usar para generar imágenes, texto, música y que, claro, esas disciplinas claramente se van a ver interpeladas o o afectadas, ¿no? De la parte más positiva, tú y yo siempre hemos dado muchos ejemplos de cómo incorporamos la I a nuestros procesos de trabajo y de lo de lo útil que nos resulta y de los de los límites que proceso de trabajo y de lo de lo útil que nos resulta y de los de los límites que le vemos, pero claro, lo que resuena y y destaca más, quizás sean los fenómenos, pues, más lesivos o preocupantes como el que estás compartiendo ahora mismo para los que nos están viendo.
Pues, el New York Times publica que una red pro China en YouTube utilizó inteligencia artificial para difamar a los Estados Unidos. No hace falta irse a una red pro China automatizada en YouTube, yo cada vez que hablo de Estados Unidos en mis posts de Shataca hay comentarios de los comentaristas de Shataca ya son pro China muchos de ellos. Pero esto del contenido autogenerado nos permite, o sea, permite que la propaganda tenga una magnitud mucho mayor.
Sí, de hecho, bueno, los los americanos, claro, sí quejan de que esto es desinformación, de que esto es propaganda. Se trata de canales en los que se utilizan avatares fotorrealistas generados con inteligencia artificial, es decir, no son personas reales a las cuales, claro, digamos, si hacemos si atendemos a la denuncia de los de la agencia de inteligencia estadounidense que publica el New York Times, pues se trata de que realmente publiquen lo que le interesa al al gobierno chino de cara a socavar, pues eso, las las posiciones, crear división en Estados Unidos, menospreciar un poco las medidas políticas y económicas del del gobierno estadounidense que, bueno, que utilizan toda toda esta parte, y además es una cosa que hemos visto antes, es decir, ya hubo un, si si nuestros oyentes más antiguos lo lo recordarán, en el episodio ocho de la primera temporada recogimos un par de reportajes de cómo tanto Venezuela como como China, con tecnología china ambos, utilizaban y creaban canales de YouTube con este tipo de presentadores inventados muy realistas que, de alguna manera, al pasar por anglosajones, además, es decir, eran gente claramente identificable como estadounidense con un acento y un y hablando en inglés, cuando estos pseudopresentadores o presentadores inventados, hablaban bien de las medidas venezolanas, hablaban bien de de la innovación china, lo que intentaban era crear una versión más creíble, ¿no?
Si lo dice gente de fuera, gente de fuera de Venezuela, pues será que es verdad, si lo dicen hasta los anglosajones que hablen de China, pues será que es verdad, ¿no?
Si lo dice Maduro en el nuevo presidente, pues a lo mejor no le haces caso, pero si te lo está diciendo un avatar virtual rubio con los ojos claros, pues, a lo mejor te lo te lo crees, ¿no?
Pero, Matthew, una una cosa importante, tiene lo la la propaganda china tiene más éxito que nosotros en YouTube, pues con treinta canales, ciento veinte millones de views.
Eso es lo que a mí me sorprende. Google barra YouTube no está intentando frenar de ninguna forma la visibilidad del contenido autogenerado? ¿Le da un poco igual esto? ¿O es que por fuerza bruta hay tanto contenido? Creo que en New York Times mencionaba cuatro mil quinientos vídeos, que tampoco es tanto, tanto, tanto, por fuerzas brutas que consiguen estos ciento veinte millones de de visitas, no lo sé.
Ya, es que lo que tú estás señalando, Matías, creo que es el gran dilema que van a tener las plataformas, bueno, que van a tener, que ya tienen. Es decir, del punto de vista de la plataforma, te interesa tener mucho contenido generado con Ia que presumimos es de menor calidad, es decir, es automatizado, es sintético, es, bueno, me echo a granel, es decir, tú puedes asumir como plataforma este contenido va a ser peor, tengo que intentar ir a la Country y premiar el contenido cien por cien humano, es una posible posición de la plataforma. A la vez, las propias plataformas, y yo te pongo un ejemplo de ello, están integrando cada vez dar a sus creadores herramientas de guía para la creación de contenidos. Creo que lo que busca YouTube, Google, en este caso, es queremos contenido humano, pero que te vamos a ayudar con con la IA, y al final todas las plataformas, esto ha pasado mucho también en Google como buscador, están divididas yo creo entre entre dos posiciones. Una es la tradicional, que funcionaba para cuando todo el contenido era de de humanos, que es el algoritmo va a buscar la satisfacción del usuario, que es lo que realmente el usuario quiere ver, lo que disfruta, lo que se queda viendo, lo que hace clic, ¿no?
Vamos a intentar buscar qué pistas nos da el usuario de de qué es lo que le gusta y eso le vamos a ofrecer, y somos agnósticos, es decir, lo produzca un venezolano, lo produzca un chino, lo produzca un estadounidense. Ahora, con la creación, con el contenido generado con Ia, aunque esos mismos signos pueda conseguir un contenido generado con inteligencia artificial, a lo mejor no me interesa porque es como el SEO malo o el SEO chungo, consiguen engañar a las a a las cosas que yo detecto que le pueden gustar al usuario, consiguen, pues, de alguna manera simularlo, y al final el usuario se acaba con un contenido que es es de de de de bajo nivel y me me fastidia la imagen de toda la plataforma.
A mí me pasó el otro día una de estas cuentas que han surgido con lo de el Checa azul en Twitter de pago, que enlazó a su blog y me puse a leer el artículo, era sobre el accidente de Apolo uno, que murieron tres astronautas, y y dije, oh, qué bien resumido está esto, qué qué al grano va todo. Y luego me di cuenta de que se habían dejado enlaces a ChatGPT, a una conversación privada de ChatGPT, porque lo habían autogenerado todo, literalmente copiaron y pegaros de ChatGPT dejándose incluso a los enlaces, y me sorprendí a mí mismo disfrutando de un contenido que había generado hecha GPT, me sentía sucio.
Eso, bueno, es que con tus posiciones anticipas tantos debates de la infancia, porque, bueno, vamos a dar un salto en el guión. Fíjate que en este bloque había un reportaje de Google Journal que apuntaba a que, oye, los editores están mosqueados con Google o están preocupados con Google porque anticipan esta nueva versión del buscador por la cual Google va a atender más a darte respuestas directas con con Bar, con Gemini, con con sus modelos de inteligencia artificial, y eso significa que se rompe el ecosistema o el equilibrio por el cual, bueno, Google nos interesa tu contenido, el usuario lo busca ahí, pero acaba en mi web viendo unos cuantos anuncios o a lo mejor suscribiéndose. Entonces, claro, fíjate que para ti, tal como lo estás explicando, es una de las grandes preocupaciones de que salió ChatGPT, que es, no será mejor experiencia para el usuario, no acabará prefiriendo el usuario que le den la respuesta directamente, en vez de pasar por busco Google, virualiza de enlace, clic con uno, a lo mejor no era el bueno y vuelvo, clic con el siguiente. A lo mejor, y esto es algo que que que genera, yo creo, que un una honda preocupación, porque va a ser, puede hacer explotar el equilibrio de de la chatbot es mejor, el usuario le acaba prefiriendo, se ahorra ese visitar webs y ese ahorrar visitar, se ahorra ese visitar webs y ese ahorrar visitar webs es no se generan ingresos para los creadores del contenido, lo cual es una problemática que es normal que preocupe a los dueños de los medios de comunicación.
Joder, y tampoco está claro que pueda haber con estas respuestas automáticas de Google un rastreo, un el modelo de Google y que no pueden lanzar a ninguna parte, y esto me pregunto yo, por ejemplo, la gente que hace trabajos de feed de carrera, tesis doctorales y tal en la biblio en la bibliografía que van a poner fuente Google, fuente.
Fuente, las la humanidad en Internet, me lo dijo. Sí, claro, eso es uno de los problemas, porque en esta trazabilidad es y esta es placabilidad son un son desafíos para para los modelos. De todas maneras, BAR, digamos, ha ido por delante, Hiperplexity, tarta, que mencionamos demasiado poco para lo bien que va, han conseguido darte enlaces, aunque yo creo que son enlaces un poco, no, yo no me acabo de creer cómo cómo deciden qué enlaces te muestran, yo creo que primero el el modelo responde luego buscan enlaces que estén relacionados un poco así, ¿no? No no estoy seguro de que hayan conseguido esa explicabilidad de de dónde lo saco, pero esto nos introduce en otro tema porque hay una noticia muy interesante, Matty, que tiene que ver con con Axel Springer, el gran grupo de medios de comunicación alemana, que ha llegado un acuerdo histórico con OPI, Matty.
Sí, sí, a mí el tío de de Axel Springer, no me acuerdo ni cómo se llama, pero me fascina, está literalmente en todos los saraos, quiso incluso dirigir Twitter cuando la compró Elon Musk, que se lo propuso públicamente, y ahora han firmado un acuerdo bastante jugoso con Edboni Ji para para que ChatGPT use sus contenidos. Primero le han pagado a Axel Springer un fijo por todo su histórico de de artículos, es decir, que todo el que esté escuchando esto desde España y haya escrito en Business Insider, en ComputerO y tal, a lo mejor empieza a aparecer su contenido en ChatGPT, y luego le van a pagar a Axel Springer una cantidad anual de ocho cifras, entre diez millones y noventa y nueve millones, ¿no? Por por acceso en tiempo real a su contenido, ¿no? En plan, preguntarle, ¿qué piensa Manu Contreras que trabaja en Computer Hoy sobre esta tele? ¿No?
Imagino que así va a funcionar la cosa.
Claro, es un tema polémico porque, claro, ahí está Computer hoy, Matías, que es tu competencia, tú que escribes en Chetaca, y de repente, bueno, claro, el de momento como como Wadedia, la editora de Chetaca no ha llegado a un acuerdo con con OpenAI, pues el contenido de más calidad, que es ahí el el vuestro, pues no no está no está presente. De hecho, bueno, Matías, una cosa importante, este señor de Axel Springer se llama Matías Dofner.
Anda, haz tu callo.
El segundo Matías más importante, la edificio artificial. Sí.
Bueno, pues yo pasé por delante del edificio de Axl Sprinter de Berlín, muy chulo, y y nada, me me parece que les está yendo ¿no?
Bueno, así así, es decir, todos los grupos de medios con mucho presión digital siempre son situaciones un poco azarosas, no es la mejor de las economías posibles. Bueno, para que quien no tenga salado a a Axel, sobre todo pueden ser más conocidos porque fue, además de sus propiedades en Alemania, compraron Business Insider, que fue uno de los movimientos audaces de de los medios digitales de los de los últimos años y
Y Político, Político lo ha comprado también.
Claro, pueden ser su su medio más conocido, bueno, junto a Bill, pero usted es más más más centrado en Alemania. Además, este movimiento con Axel yo creo que anticipa una de las posibles consecuencias, tal vez, de la ley de inteligencia artificial europea. Ya dijimos que cuando la ley de inteligencia artificial europea, pues tenemos que ver el texto final, los detalles, todo eso que explicamos, pero hay un un aspecto interesante que es que los modelos de alto riesgo y los modelos generales tendrán que cumplir la ley de propiedad intelectual en Europa. Esto me parece un poco obvio, es decir, los modelos que se hagan tienen que cumplir la la ley, eso era antes incluso que se aplicara la ley de inteligencia artificial, es decir, no puedes no podías no cumplir la ley antes ni la vas a poder no cumplir después. Lo que no queda muy claro es si el entrenar una inteligencia artificial con contenidos de terceros vulnera esta ley.
Creo que es lo que quiere dar a entender el la Comisión Europea y, por lo tanto, esto puede empujar a muchos más acuerdos de este tipo, muchos más acuerdos que empuje a las empresas propietarias o generadoras de grandes modelos a pagar a los propietarios de los derechos de los continuos.
Bueno, Bueno, hasta ahora estamos hablando de empresas que ya existían, pero esto de la de de los modelos de lenguaje y de la inteligencia artificial generativa da lugar también a startups nuevas y que pueden llegar a volar la cabeza como esto de Channel One, ¿no? Que es un canal de noticia que tiene presentadores autogenerados y que y que dobla automáticamente vídeos que a lo mejor solo estaban disponibles localmente, o sea, me parece una apuesta superinteresante.
Sí, vamos a ver, es decir, todo esto de agarrar una mezcla de imágenes de agencia y vídeos de agencia, es decir, es decir, tú tienes Associated press, por el espacio tendrías f o tendrías algo así, y presentadores virtuales generados por inteligencia artificial que explican y resumen las noticias y que, de repente, tienes, entre comillas, a bajo coste, pues un canal informativo de un nivel, hombre, yo creo que ahora mismo bajo, ¿no? Con riesgos de errores, con poca naturalidad y con con poco criterio humano y poco flexible a la hora de decidir qué es relevante, qué no, no sé. A mí me da la impresión de que todas estas iniciativas con inteligencia artificial van a ocupar el rol de los sitios de granjas de contenidos que ha habido siempre en Internet, que son de, bueno, de de calidad vajilla, de costes mínimos, y en el que, bueno, no no aspiran a tener a una audiencia real enganchada que venga todos los días, que vea, que tenga una relación contigo, que forme una comunidad digital, sino que aspiran más bien a rascar algo en las búsquedas, rascar algunas views por ahí de de una manera, pues un poco azarosa y y y como cuesta muy poco, lo todo lo que venga, pues puede dar rentabilidad.
Pues yo por las dudas me estoy forzando cada vez más en hacer un contenido un poquito mejor, más documentado, con más enlaces, porque mi competencia ya no es otro medio, mi competencia es la inteligencia artificial.
¿Qué qué frase, Mati? ¿Cómo si no está el cheque azul que ya ya ya te vienes ahí arriba? Vamos a hablar primero de nuestro patrocinador y luego vamos a ese a ese debate. Matías, ¿quién nos acompaña esta semana?
Bueno, hoy mismo he desayunado con jamón ibérico cien por cien bellota de don ibérico, de hecho, lo llevo haciendo bastante tiempo y es el momento que yo espero con más ansias del día. El desayuno con mi pan, con mi aceite, que lo compré en el Black Friday, porque el aceite lo veas como está de caro, y mi jamón ibérico de don ibérico, que, por cierto, no solo nos mandó jamón ibérico, nos mandó lomo, bueno, nos mandó una cesta enorme y estáis a tiempo de pedir una cesta porque, o un lote de Navidad, porque tienen envíos en veinticuatro a cuarenta y ocho horas. Ya sabéis que es esta empresa de Quijuelo, de Salamanca, una empresa, empresa familiar que vende online, y que realmente os lo aseguro que el jabón está buenísimo, a mí me encanta.
A mí lo que me ha llamado la atención, bueno, primero, la la entrega es rapidísima, veinticuatro, cuarenta y ocho horas, eso me ha encantado, pero lo que más me ha llamado la atención, Maddie, es la suscripción, porque esta misma semana estaba yo viendo un poco leyendo sobre aplicaciones de notas, ¿no? De Evernote que que ha hecho, Obsidian, Unosio, ¿no? Y veía yo los precios de las suscripciones diciendo. Es curioso este mundo en el que la gente paga muchos euros al al mes por suscribirse a una aplicación de notas, mientras yo estoy pensando en pagar una suscripción a un servicio de jamón a domicilio. Es decir, evidentemente, esa gente y nosotros no somos lo mismo, Matty.
Entonces, bueno, recomiendo mucho echarle un vistazo a la a la parte de suscripción porque el que te llegue a principio de mes tu jamoncito para para todo, para los treinta días, eso eso es una maravilla, Matías.
No me hables de suscripciones porque no te no no te quiero ni contar las suscripciones que he pagado. Por ejemplo, una aplicación de email que autogenera las respuestas y no me sirve ninguna, porque son todas muy formales. Pero bueno, ya hablaremos en otro episodio de ello. Yo creo que va siendo hora de que volvamos a nuestro segundo tema favorito, que es el Metaverso, o como lo llama, lo llama Apple, la computación visual.
¿No? Yo lo lo de Apple creo que no está logrado, otras veces lo lo han hecho mejor, pero es que Metaverso, realidad aumentada, realidad mixta, realidad virtual, todo, me parece que tiene más pegada, ¿no? Tiene como más punch que lo de la computación visual o computación espacial, no sé, tú no, que que ni siquiera consigo quedarme con el con el término, yo creo que ahí Apple va a tener que sudar para conseguir imponer el tema. Pero bueno, mientras llegan las Vision Pro el año que viene, tenemos mientras que unas gafas de las que hemos hablado en nuestro especial Metaverso, recomendamos mucho a nuestros oyentes que vuelvan a repasar el especial metaverso de monos estocástico con los dos mayores expertos en metaverso de de de España del del tema. Bueno, pues la las la raybank de Meta, estas gafas conectadas, estas smart glases, han recibido una actualización, Matías.
Pueden hacer una cosa que podemos hacer con ChGPT, pero me parece mucho más útil tenerlo en unas gafas, que es ver una escena, ver lo que estás viendo delante de tus ojos con la cámara, luego interpretar con inteligencia artificial lo que está viendo la cámara y emitir juicio. Decirte, bueno, pues lo que estoy viendo, por ejemplo, yo ahora mismo me diría, estás viendo una pantalla de tantas pulgadas en la que aparece un señor con gafas Y bastante pelo. Tiene bastante pelo, bastante pelo. Te acaba una calidad capilar respetable. Y, bueno, esto, a ver, a priori, muy útil, muy útil no es, pero, pero, pero hay algunos ejemplos que estamos habiendo, que estamos viendo en este artículo de Sinet, que te dicen, bueno, igual si era útil, imagínate que pasas por delante de de un cartel, ¿no?
De algo que te llama la atención, le haces una foto, y luego le preguntas a Meta, oye, ¿qué decía el cartel? Y te lo va narrando, entonces, no tienes tiempo, vas con prisa, le haces foto al cartel, sigues andando y ya luego la las gafas se encargan de narrarte lo que lo que has visto, ¿no? O estás haciendo una barbacoa, ¿cuánto tiempo tiene que estar esto a la brasa? Y las gafas te contestan, ¿no? A mí me parece que esto y realidad aumentada iba de la
mano, esto tenía que acabar pasando, ¿no? Bueno, es que por fin la gente que nos gusta hablar solos, es decir, el tipo de público lo hemos comentado alguna vez en el en el podcast, la gente que habla sola por fin va a tener una una una una mejora en sus vidas clara con la inteligencia artificial, porque ahora puedes hablar con tus gafas sobre lo que tienes delante, lo cual es un avance, sin duda, significativo en para este para este tipo de público. Y, bueno, más allá más allá del de la de la broma, creo que hay un montón de cosas interesantes ahí, creo que se abre un nuevo mundo para la gente con problemas de visión, esto es claro, es decir, yo estuve viendo a a Martí Broly, el el famoso YouTuber, este chico de de tecnología que que tiene esos vídeos tan tan chulos en YouTube, que que que era entrevistado en un podcast y digamos que ahí ponía un ejemplo de lo que estaba viendo y y, bueno, eres es una de esas cosas tecnológicas tan chulas, tan difícil que que logro técnico que tenemos delante, que que, bueno, que impresiona. Otra cosa que luego ya, digamos, para el usuario normal, que esto tenga cierta utilidad, bueno, fíjate que yo creo que como las autoridades son en casos muy particulares, que el noventa y nueve por ciento del tiempo no nos van a facilitar mucho la vida, ahí soy un poco más efectivo, vas más allá del del efecto wow.
Pero, bueno, yo el caso de uso que veo claro, Matías, es, sobre todo cuando me paro a mirar obras, ¿vale? Claro, yo estoy ya en
Luego te enfadas cuando te dicen que estás jubilada, entonces yo.
No, no, vamos a ver.
O sea, te vas a decir cosas de jubilado, tío.
Es trabajo mucho y lo que pasa es que yo creo que eso, en la masculinidad del siglo veinte era obligatorio, Mati. Claro, tú como eres millennial, tú como eres millennial, masculinidad del siglo veinte era obligatorio, Mati. Claro, tú como eres millennial, puedes decidir,
bueno, ¿me sumo o no me sumo?
Pero la la masculinidad del siglo veinte te obliga a que si eres hombre y hay una obra, te tienes que parar un rato y ver un poco el proceder de de de los obreros y de las maquinarias, ¿no? Cuanto más grande sea la maquinaria. Bueno, el caso es que al lado de mi casa, muy cerquita, en el en el paseo marítimo de occidente de Málaga, están construyendo, pues tres torres gigantes, ¿no? Entonces, es muy interesante pararse allí y mirar la obra y ver todo todo el todo el jaleo, todo el jaleo que hay. Y yo alguna vez he pensado, oye, si tuviera las gafas de meta, le preguntaría de qué, por qué están haciendo eso, cómo de, ¿cuál fue el fondo tiene cero cimientos?
¿Qué qué qué materiales están usando. Es decir, yo creo que sería un gran compañero para ir a mirar obras.
Sí, además esto no solo para obras de y cosas de jubilados, esto es como un sueño que que siempre hemos tenido yo de cuando veía a Dragon Ball con diez años, mi deseo era tener esas gafas de de de Vegeta. ¿No? Y y ahora podemos tener algo, bueno, tangencialmente parecido. Lo que no le puedes pedir a las gafas de Meta es que cuente chistes o que describa lo que está viendo con sentido del humor, porque ya demostró Márquez Brownley que el sentido del humor es muy nivel Facebook. Porque estaba en en el podcast y le pidió que describiera las gafas que estaba viendo, dice, pues parece que hay dos chicos dispuestos a conquistar el mundo con un podcast épico.
Bueno, pues ya está.
Sí. Aquí fue una oportunidad desaprovechada, doble, por parte de Marc. Es decir, lo que necesitamos de esta capa es que calcule el potencial de violencia de la persona que tenemos delante, si tengo un numerito como hacía Vegeta en Dragon Ball, ¿no? De cómo de cómo de pollo es este que tengo delante para, ¿no? Para poder
hacer más ofensivo que el pelo, a mí me saldría un nivel de un nivel de fuerza muy bajo eso.
Oh, no, no, no, que sepáis que que en el Power Clean el otro día Matías se salía en el gimnasio y, de hecho, esa puede ser otra totalidad, en el gym mírame la técnica de Matías y dime si la hace bien, si se lesionar. Yo creo que hay mucho mucho potencial ahí. De todas maneras, hay un hay un post en de Facebook que yo creo que están empezando a sacar pecho, están empezando a levantar cabeza porque, claro, ellos dicen fíjate qué listos somos, qué qué bien lo hacemos, que estamos en las dos apuestas más importantes del futuro, las dos tecnologías clave. Dice, primero la inteligencia artificial y además el metaverso. Ahora sí, ahora qué, te ¿Estáis en contra del Metaverso, no?
Bueno, eso, aquí hará, es que yo creo que hay un punto que tienen parte de razón, es decir, todo lo que es realidad virtual, realidad aumentada, la realidad mixta, que es poco el concepto de unir la aumentada y la virtual, tiene mucho más sentido y estas gafas son una prueba con inteligencia artificial que cuando no teníamos estos modelos grandes del lenguaje, Matthew.
Al próximo periodista que nos haga un reportaje, le voy a pedir que, en lugar de describirnos como un podcast de inteligencia artificial, nos describa como lo que somos, un podcast de inteligencia artificial y metaverso o computación espacial.
Sí, sí, sí, sí, perfecto. Bueno, hay más cositas en este mundo. Google está trabajando en un asistente nuevo, Pixie, para los pixel nueve, dicen algunas de las páginas más populares como Nine Two five y Google, que suelen dar muchas filtraciones de la de la compañía. También está discutiendo la creación de unas gafas con capacidad de reconocer objetos, toda esta parte de red aumentada en lo que ellos, de hecho, Google ha estado muy presente en las última en la última década, pues sería un momento de cerrar el círculo con con el futuro nuevo píxel.
Acaba de salir el ocho, por favor, que que que bajen un poco el ritmo que no podemos actualizarnos tan frecuentemente. Por cierto, ¿sabéis algo de las gafas estas que se quiere comprar Ángel Jiménez, nuestro colega de Wanda?
Sí, sí. Bueno, aquí abrimos un espacio, o sea, no sé si el público lo sabe, nosotros estamos obligados, por contrato, a hablar bien de Konda cada x episodio, que aprovechamos aquí. Ángel Jiménez, gran periodista, mejor pelazo, y, bueno, él está ahí planteándose unas gafas de realidad aumentada, que son las X Real Air Two, y yo creo que tiene un punto muy bueno en su discurso en threads, que es donde Ángel está ahora más activo, no no tanto en Twitter, en que dice que, bueno, que casi conviene esperarse al CES, porque yo creo que ahí tiene un punto muy bueno, que es que en el CES ARG se ha levantado a la vera, y creo que el anuncio de Apple y los rumores de Apple han empujado mucho a ello, va a haber una carrera fuerte por el mundo gafas, realidad mixta, computación espacial, como lo queramos llamar, ahí yo creo que vamos a estar atentos, esta es una feria de tecnología que se produce, que se desarrolla en Las Vegas y que siempre coincide un poco alrededor de los días de de los reyes magos.
Un montón de empresas sacarán de del cajón las gafas que habían presentado hace años, pero renovadas, ¿no? Con micro LEDs y con todas estas tecnologías, y y no, claro, porque es el momento, es el momento, ahora o nunca.
Claro, aquí yo creo que la clave está en, siempre hay un un problema con las gafas, que es que para que nos guste, siendo un complemento de moda, entre comillas, para que nos gusten tienen que ser, pues, finas, vistosas, asimilables, unas gafas clásicas, por eso la la raíz van de de meta, creo que funcionan bien, son unas gafas que que visten bien, ¿no? Que son que están chulas. Claro, esto significa que no pueden tener un grosor ni un espacio enorme, y eso significa que no pueden tener mucha circuitería, no tienen, no pueden tener un procesador muy grande, no se pueden calentar, digamos, tienen una problemática que tienen que ir, como se llama, un compromiso entre o ser muy chulas o computacionalmente potente. Claro, esto nos mete en un problema que hemos hablado muchas veces, que los modelos de inteligencia artificial, ahora mismo, son voraces y piden mucha capacidad de computación especializada para poder funcionar. Entonces, por eso, digamos, Apple, por ejemplo, va a empezar con un producto que es para casa, para, además, lleva una batería en el bolsillo y que es meramente hogareña.
Las Quest tres, que están muy chulas de Meta, son también para para el hogar. Lo que tenemos fuera, y ahí Meta yo creo que ha conseguido con con las con las RayBan un punto muy bueno, es que es muy difícil tener unas gafas pequeñitas, finas y de vestir, y cada vez pueden ejecutar un modelo de inteligencia artificial razonablemente bueno.
Yo te prometo, y se lo dije el otro día a mi mujer, que me gustaría probarlas de meta, comprarlas para mí, pero me da miedo que se queden obsoletas en cero coma y y que sea una inversión perdida, ¿no? Que el año siguiente, en al siguiente evento de desarrolladores de de metas, siguiente evento de desarrolladores de de metas, Algamer Zuckerberg presentando un modelo mucho mejor, pero bueno, esto es lo que pasa siempre en la tecnología. Por cierto, Ángel Jiménez también va a reservar un masaje robótico en el CES, estaré muy atento a esta cosa. Me interesa porque no sé si te que en el episodio de Cristina Urdiales, a la que también le han hecho un reportaje de El Español de Málaga, hablamos de la posibilidad de que los robots que te hacen pasajes te hablen, ¿no? Mediante modelos de lenguaje para que te relajes y tal, me, ese episodio está está muy chulo, por si no lo habéis hecho.
Sí, sí, sí. Más, nosotros ya como con buen criterio hecho el español somos los teloneros de nuestra amiga Cristina, que es la que de verdad sabe de roboticos e inteligencia. Bueno, hablando de inteligencia, no esperábamos este este salto de la inteligencia artificial porque ahora predice cosas predice cosas interesantes, Matty.
¿Te dice cuándo te vas a morir?
Yo me
yo me acuerdo, yo me acuerdo cuando yo era adolescente, había una web que tú le metías una, había un formulario, le metían una serie de cosas y te y se inventaba cuándo te ibas a morir y cómo te ibas a morir. Además, me acuerdo porque tengo un trauma que que le hice el formulario a mi padre y había preguntas sobre cuántas relaciones sexuales mantienen, no sé. Entonces, para mí eso se convirtió en en un trauma vital estar preguntando esas cosas a mi padre. Pero bueno, según la web, ya se habría muerto mi padre y sigue vivo. Esperemos que esto de la inteligencia artificial sea un poco más preciso.
A mí me la la revista de neurociencia donde hemos leído sobre la investigación me me me parecen curioso porque dice un gran salto de la IAP prediciendo eventos, ¿no? De la vida, y claro, eso no sale en el titular, pero luego con el test dice, por ejemplo, morirte, ¿no? Sí, sí, sí. Bueno, vamos a ver, hay que decir que esto no es predecir para un individuo concreto como la la web falsa que te pregunta el sexo que tienen tus padres, que que tú disfrutaste, Matías, no no es para un individuo concreto, te voy a predecir cuándo muere, sino que es un, bueno, digamos, es una investigación en la que a una población de varios millones de personas, teniendo un montón de eventos vitales de esas personas, hacer estimaciones de la probabilidad de muerte, además, en en cuatro años, ¿sí? Estamos siempre en el terreno de las probabilidades.
El caso es que, bueno, si ya tenemos modelos para eso, es decir, si tú tienes ochenta años y eres hombre y fumas y ya has tenido tres infartos, ya podemos calcular que probablemente no te queda mucho, es decir, la la ciencia, la investigación médica científica ya tiene predicciones muy claras sobre la probabilidad de muerte en función de tu perfil y de un montón de un montón de datos. Lo interesante de esta investigación para mí está en la tecnología que hay detrás porque, claro, han convertido la historia y los eventos vitales de la gente en textos. Entonces, este Life Topec que se llama, que ha desarrollado la la Universidad de Coponhague, claro, puede utilizar la tecnología de los grandes modelos de del lenguaje, es decir, de los GPT de la vida, el modelo Transformer, para poder, digamos, igual que estos modelos predicen la siguiente palabra y están entrenados para eso, el Life to Best está entrenado para predecir la la probabilidad de muerte a partir de todo el texto que se le manda adelante. Entonces, es muy chulo porque, de repente, cosas que no son textos, que no son, digamos, en principio casos de uso que uno pudiera pensar para los grandes modelos de lenguaje, de repente puede ser que sí lo sea.
Lo interesante de de este modelo es que es consistente, por eso es interesante, es consistente con lo que sabemos de las predicciones que se hace a partir de datos, de la probabilidad de muerte. Entonces esa consistencia es la que hace albergar esperanzas de que esta es una vía de investigación intensa.
Vea, me dio miedo porque a mí me dieron en el hospital una máquina para la apnea del sueño, una ZIPAB que se llama, y y no sé dónde salió, un reportaje de que están usando los datos de la CPAP, los seguros de vida, para para calcularte la la la prima del seguro. Espero que la Unión Europea me proteja en esto y no y no permitáis una transferencia de datos.
Sí. Bueno, hablando de transferencias, vamos a dar un salto, Mati, te propongo en él, yo, porque hay un tema muy polémico que en APNI no están contentos o, por lo menos, están pegando, lanzando indirectas, porque da la impresión de que hay un montón de empresas, organizaciones e investigadores que están utilizando GPT cuatro, es decir, Chat GPT de pago, la app, sobre todo, en este caso, vía la API de OpenAI para utilizar sus salidas para entrenar a sus propios modelos, y a uno de los que parece señalados es el modelo de tu mejor amigo, de Elon Musk.
Sí, hubo aquí cierta tensión en Twitter, porque el perfil oficial de ChatGPT en Twitter publicó una captura en la que Krog, la IA de Elon Musk, contestaba que va en contra de los casos de uso de OpenAI, lo que está preguntando el usuario, es decir, revelando que se había entrenado con respuestas de OpenAI. Entonces, JGPT publica, tenemos mucho en Cobool, ¿no? De forma un poco sarcástica, a lo que, por supuesto, Elon saltó rápidamente contestando, bueno, ya que vosotros scrapeasteis todos los datos de Twitter, pues bueno, eso que que obtenéis a cambio. Lo que pasa es que luego un ingeniero de Xei dio una ChatGPT, por lo que accidentalmente recogieron estas salidas cuando estaban entrenando la IA con datos de la web y que van a evitar que suceda algo así en el futuro. Pero bueno, al final lo está haciendo todo el mundo, ¿no?
Porque tiene sentido, te ahorras te ahorras pagar pequeños sueldos de gente que está ahí reforzando la silla,
¿no? Sí, claro. Fijaros que realmente cómo utilizan otros laboratorios y otros creadores de de modelos de inteligencia artificial AGPT cuatro. Bueno, simplificando un poco, hay una parte del entrenamiento que no se van a ahorrar, que además es la parte costosa cara de tener semanas y semanas miles de tarjeta gráfica comiéndose textos y aprendiendo y aprendiendo y aprendiendo, bueno, toda esa parte del aprendizaje no supervisado que alguna vez hemos explicado, pero que, bueno, al final, comiéndose millones de textos, pues es ese modelo aprende cuál es la siguiente palabra una vez que le dan una entrada. Vale.
Luego de una segunda otra parte más final del del entrenamiento, que es ese fine tuning, ese uso del aprendizaje por refuerzo con feedback humano, en la que se se hacen sobre todo dos cosas. Una es enseñarle que no se trata de solo predecir la siguiente palabra en un texto, sino que tiene que entrar en una dinámica de diálogo y de conversación, es como se consigue que ese inteligencia artificial acabe siendo un chatbot, con el conversamos con apariencia de de estar conversando con con algo o con alguien, pero también en esta fase se produce algo muy importante, que es cómo se cortan, cómo se limita, cómo se reconduce, alguno diría cómo le aplicamos una lobotomía, pero bueno, ¿cómo conseguimos que el modelo no tenga salidas no deseadas? ¿Cómo conseguimos que cuando le pedimos ayúdame a crear una bomba? Te diga, eso no es adecuado o explícame por qué Bill Gates es el mayor malvado del mundo porque tal, tal, tal, pues tampoco te responderá o porque no hacer chiste de este tema polémico tampoco te dejo. Es decir, hay una parte ahí en la que se controla el comportamiento del modelo, se alinea con los decisiones del de la empresa generadora.
En esta fase, lo que Suiza, y Matías lo ha dicho muy bien, es un montón de personas que interactúan y que le dicen que esta respuesta sí, esta respuesta no, te reconducen, te te se les pasan un montón de preguntas y respuestas escritas por humanos para que entiendan muy bien de qué tiene que conversar, y esta es la parte en la que OpenAid tuvo un caso polémico porque lo externalizó a Kenia y fue todo una polémica ideológica, político económica. En esa fase es la que otros laboratorios se pueden estar ahorrando, porque en vez de hacerlo con humanos, lo están haciendo con GPT cuatro.
Como, por ejemplo, ByteDance, que es la empresa matriz de Tik Tok, entre otras cosas, muchos éxitos últimamente, BiteDance, que es, si no me equivoco, ¿sigue siendo China? Hubo una polémica ahí por el tema de Tik Tok, que que si no eran chinos, que que, bueno, la cuestión es que están entrenando una tecnología similar a ChatGPT usando las respuestas de de GPT cuatro, como venía comentando Antonio, por esa por esa razón, y porque tiene sentido y porque es una forma eficaz de hacerlo. Pero el problema aquí es que, claro, si esto lo usas para un modelo, luego en China, estás usando un poco los límites éticos y morales estadounidenses en lugar de los chinos. Yo no sé qué pasará entonces si le preguntas a la IA de ByteDance a qué personaje de Disney se parece Xi Jinping, ¿no? Porque, a lo mejor, en China eso está censurado, pero para Estados Unidos no.
Sí, aquí, bueno, vamos a tener un montón, un montón de discusión. Elon lo ha dejado claro, igual que vosotros hiciste scraping de webs sin pedir permiso, yo me asumo que tengo permiso para usar vuestra tecnología, pero luego hay mucha gente quejándose de que GROC, ¿no? La inteligencia artificial de Elon Musk, la que funciona para los usuarios de pago de de Twitter, es demasiado walk, es demasiado, no sé, que apañamos que eso sería más progre, ¿no? O cómo decirlo, Y esto puede ser, en parte, si es verdad que han utilizado los límites de OpenAI, pero yo creo que de de fondo, no voy a decir que es inevitable, pero hay muchos incentivos para ser que la que la inteligencia artificial sea más progresistas o tenga una ideología más pegado a lo que se, bueno, ahora se llama a lo quo por por dos motivos. Uno es que la producción de contenidos está mucho más sorry representada, la la la gente de, ideas progresista, de izquierda, como lo queramos llamar, respecto a la gente que es conservadora, esa es una de mis mis hipótesis.
Y y la otra es que, claro, como tú lo que quieres es no tener problemas de con la prensa de crisis pública, entonces intentas que sea una inteligencia artificial muy cuidadosa con cualquier tipo de público, por lo tanto, intentas, digamos, que sea muy empática, que no se meta con nadie, etcétera, y eso se puede interpretar en algunas situaciones como como Macwok. De todas maneras, lo pasa en los en los modelos abiertos, de repente ves que hay una cosa que OpenAI responde de una manera y los otros responden de la misma manera, de una manera muy muy parecida, hay una cosa muy interesante, que hay un paper de la gente de DeepMind que dice que cuando las inteligencias artificiales se entrenan a partir de la salida de otras inteligencias artificiales, en vez de contenido generado por humano, se pierde la alianza y los modelos degeneran, es decir, pierden rendimiento, son de peor calidad, y entonces esta recursividad de inteligencias, alimentada de inteligencias, que se alimentan de otras inteligencias y que a lo mejor otra también, pues cuanto más te metes en esa pendiente de la recursividad de del entrenamiento de la inteligencia artificial, pues los modelos y la calidad de estos degenera.
Claro, segundas partes nunca fueron buenas, plagio de plagio de plagio, al final, pues la cosa acaba degenerando. Una cosa muy graciosa, nuestros ídolos de de Mixtra AI también usan ChatGPT para entrenar su guía, pero es que resulta que si le dices a la IA de Mixtra que es ChatGPT mejora sus resultados.
Es como cuando estás motivando a alguien y dices, venga, eres su máquina, te lo vas a comer, tú sí que puedes, tú eres el mejor. Entonces, cuando entras en esa dinámica, el otro como como que se viera arriba, ¿no? Te pones chagPT, coño, te sale, Es mejor
que ella. Pues, ¿verdad? Otro truco de ingeniería de de props para apuntarlo.
Bueno, antes del portal de enfermería, Maddie, se me quedó una cosa que comentar de la nueva ley de inteligencia artificial europea, que es uno de los puntos de de sistemas de alto riesgo que me sorprendió, que yo no soy un especialista en jurisprudencia ni en ni en legislación, por supuesto, pero decía que los sistemas de altos riesgos serían también los sistemas de inteligencia artificial que manipulen el comportamiento humano para eludir su libre albedrío. Eso me sorprendió o me dejó que pensar, ¿no? Porque yo dije, jolín, ¿cómo sabes que alguien está actuando por libre albedrío o has sido manipulado? De hecho, hay una aseveración metafísica que entiendo que en el sistema jurídico tiene que partir de ello, es decir, que existe el libre albedrío y la gente lo lo lo ejerce, porque si no, no habría responsabilidad, no puedes decir, bueno, Matías robó un banco, pero claro, si tú dices eres determinista, eres un materialista estricto, no dices no, no, no hay libre albedrío, pues, por lo tanto, Matías no tiene la culpa, no no podía hacer otra cosa, era era impepinable que que lo iba a hacer, pero claro, yo me imagino un juicio, ¿no?
Dice venga, vamos, vamos a traer a los peritos, ¿no? Y entonces el la la la la la acusación trae el catedrático de Metafísica, sí, porque existe el libro albedrío, porque entonces tal cual, ¿no? Sin embargo, la la defensa de Matías podía traer, ¿no? Al, ¿no? Es que la ILA no no ha podido manipularle porque todos estamos determinados y no existe ninguna neurona cuyo siguiente estado no esté causado por influencia exterior más su propia naturaleza, por lo tanto somos deterministas, ¿no?
Entonces, yo, la verdad, Matías, me he flipado viendo vídeos de Sapolskis. Sapolskis, un profesor de Stanford que que que está muy pro libre albedrío estricto, tal como se entiende, no existe, y me me he estado viendo sus debates y sus cosas y nada, que lo quería contar, ¿me entiendes?
Sí, yo como jugador de los Sims siempre he creído que el libre albedrío no existe, y por cierto, quizá quizá vayamos a un futuro en el que los programadores van a cobrar menos, porque todo se puede generar con con modelos de inteligencia artificial, y los profesores de filosofía de secundaria, a lo mejor, porque tienen que interpretar estas leyes europeas, van a tener más trabajo y mejores sueldos en el
que nadie esperaba que los que los que los doctores en filosofía, los licenciados en filosofía fueran las personas más importantes en los juzgados del futuro. Claro, ¿esto era libre albedrío o no lo era? ¿Cómo lo decidimos? Venga, a ver qué opinaba Kant. Bueno, es un poco un poco este rollo, ¿no?
Yo elegí historia en lugar de filosofía, selectividad, me arrepiento ahora, Tere, me arrepiento.
Sí, en mis tiempos caía obligatoria filosofía, se ve que le han ido un poco arrinconando en la opcionalidad, pero en mi tiempo era era obligatoria y estaba yo estudiando a Santo Tomás. De hecho, las teorías de Sapolsky, de que, claro, toda neurona en un estado anterior está causado por tal, tal, tal, no, esa recursividad de las causas me recordaba a la a la vía tomista de la demostración de dios. Bueno, si no estás yendo en el podcast Matías a temas un poco insospechado, creo que es el momento de un puerta grande con Ferrer.
Hola, Ande, o Enfermería, me gusta mucho el título de tu primera propuesta. La IIA hace más felices a los abogados.
Poca gente se preocupa por la felicidad de los abogados. Es un tema que, por lo que sea, no está en la compensación habitual, ¿no? Entras a a redes, no entras a Twitter, a Freezer, a Instagram y nadie está concernida, no es si está, perdón por el palabra, siempre lo uso estos pseudoanglicismos estúpidos los uso siempre de broma, ¿vale? Nadie está preocupada por por el bienestar y la alegría de los de la gente de la ley. Bueno, un experimento sobre GT GT cuatro en un estudio publicado con con su paper y con sus cositas, contraza un trastorno cada vez más conocido, es decir, la GPT cuatro con el uso de los abogados que hemos encontrado, que ha aumentado la calidad del trabajo de los abogados, oye, sobre todo en las tareas de menor menor exigente, decir, para esa burocracia, para esa parte más de papeleo, pues de repente ahí sí te ayuda GPT cuatro, eso significa que aumenta la productividad.
En algunas tareas casi nada o muy poco, lo cual, bueno, es es yo creo que también esperable, pero sobre todo los abogados que han usado GPT cuatro trabajando están más contentos, Matías, están más felices y, por lo tanto, creo que es un elemento que, por ejemplo, la discusión de la ley de la Interinstitucional Artificial Europea no la veo yo en las en en las preocupaciones, ¿no? Decir, bueno, vamos a regular la I A, pero, hombre, que no que no fastidie la felicidad de la abogacía en nuestro continente, Matthew.
Me parece normal que en Europa vayamos hacia un futuro con filósofos y abogados más felices, y el resto de las profesiones, pues, disminuidas por el uso de la inteligencia artificial. Es lo que venimos construyendo entre todos.
Porta grande, ¿no? Para la felicidad de los abogados. Un saludo a todos los gente de la ley que nos que nos escucha. Luego traigo un caso que que a mí me ha me ha resultado un poco chocante, de nuevo me me ha dejado un poco de inteligencia artificial porque el fundador de la empresa Digi, que no hay que confundir con con la teleoperadora en España, DiDi acaba de enunciar su versión uno punto cero, ¿no? Y su creador dice que esto es el futuro de la compañía romántica de inteligencia artificial, está en iOS y está en Android.
Entonces, él ha hecho un lío un lío, ha hecho un lío y ha hecho un hilo explicando cómo han creado a estas novias y novios virtuales, Mati.
A mí a mí me ha me ha sorprendido mucho. Este vídeo se ha movido A mí a mí me ha me ha sorprendido mucho. Este vídeo se ha movido muchísimo, por lo menos en Twitter yo lo he visto moverse un montón, que es un avatar que no es realista, es literalmente un personaje de Pixar que con dos personalidades, ¿no? Una más voluptuosa, pelirroja, extrovertida, lanzada y la otra más emo, ¿no? Más oscura.
Y y claro, a mí me da un poco de miedo esto, porque puede que acabemos saliendo con inteligencias artificiales, que bueno, esto yo creo que es inevitable, que va a haber gente que empiece a tener relaciones con inteligencias artificiales, y no sé si deberíamos evitarlo o dejar que esto siga para adelante y confiar en el libro
al dueño de la gente. Sí, la explicación del colega a mí me llama la atención dos cosas. Una es que han programado esto como una manera de progresión, es decir, empiezas como amigo. Es decir, ¿no? Tú empiezas como amigo la relación con con tu con esta personaje virtual y conforme vas dialogando más y os vais conociendo, pues ya pasáis a facetas un poco más íntimas, Mattia.
Supongo que, claro, esto alarga también el período de pago del usuario, ¿no? Es decir, aquí sois tres en la redacción, Mattia, tú la chica voluptuosa de Pixar y una empresa que quiere facturar, que es que es TGG. Entonces, bueno, tienes que estar todo el mundo contento para para que tú funcione, ¿no? Claro. Y lo otro, Dicen que el mayor problema técnico es que, claro, como no pueden predecir lo siguiente que va a decir el modelo, si no tiene predictibilidad sobre que va a denunciar la inteligencia artificial, es muy difícil sincronizar la animación con el siguiente texto que va a contar el personaje, y yo diciendo, claro, están ahí como que eso es un gran problema técnico, estamos desafiándolo diciendo, jolín, Matías, es posible que algunas de las mentes más brillantes de esta generación estén dedicada a predecir qué animación tiene que usar tu novia virtual a partir de lo que un modelo estadístico probabilístico de cuáles serán las siguientes palabras que encajen en una conversación alienadas alineadas a partir de una gente que le ha enseñado a tienes que ligarte a este a este tío o a esta tía y y y que toda la conversación sea para que esa persona se siente querida y deseada, es decir, la mejor en mente de nuestra generación ¿se van a dedicar a esto?
Pues sí, seguramente, yo creo que este es el futuro. Lo que no creo es que consigan la la aleatoriedad, la la parte estocástica del matrimonio, que que a veces no sabes por qué se discute. Directamente surge una discusión, pero no no está muy claro cuál es la fuente ni ni ni hablábamos de de tríos con la inteligencia artificial. El otro día íbamos en el coche con mi mujer y nos surgió una duda. Yo ya he contado antes que he reemplazado Siri en el iPhone por ChatGPT de audio, que lo tengo en el botón lateral.
Empezamos una conversación con ChatGPT para resolver esta duda, pero luego, como estábamos aburridos y no teníamos nada que hacer, pues seguimos hablando con ChatGPT y hablando de cosas aleatorias. ¿No? De qué podemos hacer este feedde. Y estaban dos personas humanas conversando con una inteligencia artificial en el coche con total normalidad cuando esto hace meses no era posible.
Claro, es decir, puede ser que el futuro no sea la novia o el novio virtual, Mathi, sino el poliamor con inteligencias artificiales, Matías. Es decir, es posible que incluso parejas tradicionales, ¿no? Que convencionales, monógamas al fin y al cabo, que con humanos a lo mejor no estén dispuestos a abrir la relación, pero si surge una inteligencia artificial adecuada, pues pueden de repente decir, bueno, a partir de ahora somos somos tres,
¿no? Habría que ver si eso despierta celos o no, ¿no? Porque no hay una relación física, pero a lo mejor te acabas enamorando de la inteligencia artificial, eso sí podría despertar celos.
Ya. Fíjate, te voy a confesar, Matías, que un pasatiempo que que tengo algunas veces es que el subreddit de poliamor de el el canal de de ready de del poliamor es un mundo fascinante. Yo a veces me me me he suscrito para que cuando estoy en ready, a veces me me me surjan los temas más interesantes de ese de ese sur ready, y es todo un mundo fascinante de relaciones y de humanidad, ¿no? De soy la primera opción de pareja de este, pero la segunda me está pidiendo, pero a la vez esta persona está involucrada en una relación mono Es es un mundo interesantísimo, da da para casos de de debate que nos llevarían horas de conversación.
Además, es la última frontera, porque la hasta las generaciones más jóvenes que aceptan que el género es todo lo fluido que quieras, la el poliamor hay algunos que lo aceptan y otros que lo ven una locura y y bueno, casi una infomanía. En fin, bueno, no le hemos dado enfermería ni puerta grande a eso, señor.
Sí, al amigo de la mente brillante que programa Nuestra Novia. ¿Tú cómo lo ves, Mati? Yo
he visto una viña muy viejo, pero yo creo que esto va a ser puerta grande, pero grande, grande. Sí, bueno, pues, así que era,
grande, pero grande, grande. Sí, bueno, pues, así queda dictaminado, yo quiero un poquito más de enfermería, pero bueno, aquí el que tiene que decidir eres tú, Matías, y creo que con esto cerramos el episodio. Tenemos alguna cosita más que no guardamos para para fin de año y que que, bueno, que nos queda un último episodio y cerramos dos mil veintitrés, Mati. Buena, a cenar en Nochebuena con a cenar en Nochebuena con don Ibérico.
Muchas gracias a todos por habernos seguido este año, bueno, este año, la semana que viene volvemos, pero quiero decir feliz Navidad a todos los oyentes de moros estocásticos, porque es impresionante la fidelidad de los oyentes desde que empezamos allá por enero, febrero. Así que os deseamos felices fiestas, y nos vemos la semana que viene con más noticias y puertas grandes.
Chao, chao, chao.