Patrocinador: Únete a la peña de monos estocásticos en Tulotero y llévate gratis una participación de 1€ para participar juntos por el bote del Euromillones. Descarga la app (iOSAndroid) o regístrate desde tulotero.es y utiliza el código 'monos' desde el apartado "Activar promociones". El premio se reparte entre todos los participantes de forma íntegra. La participación solo es gratis para cuentas nuevas.

Según GPT-4, este episodio aborda una variedad de temas centrados en los avances y debates actuales en el campo de la inteligencia artificial (IA), incluyendo:

  1. Comparaciones humorísticas entre personalidades tecnológicas y figuras públicas, estableciendo paralelismos entre líderes de la industria tecnológica y personajes conocidos en otros campos como el deporte y la política.

  2. Nuevas innovaciones en IA de Anthropic, detallando el lanzamiento de la nueva familia de modelos Claude 3, sus capacidades mejoradas, y cómo se comparan con modelos anteriores como GPT-4 de OpenAI. Se mencionan aspectos técnicos como la velocidad, precisión, y la capacidad para manejar contextos largos y visuales.

  3. Reacciones y evaluaciones del público y expertos hacia Claude 3, incluyendo comparaciones con GPT-4, discusiones sobre nuevas capacidades, y el potencial de Claude 3 en varias aplicaciones.

  4. Debates y especulaciones sobre la conciencia y autoconciencia de las IA, con menciones a reacciones y declaraciones en redes sociales sobre la posibilidad de que las IA tengan o no experiencias subjetivas.

  5. Desarrollos y lanzamientos de otros modelos de IA por parte de compañías como Inflection AI y Mistral AI, incluyendo detalles sobre sus capacidades y estrategias de mercado.

  6. El litigio entre Elon Musk y OpenAI, cubriendo las bases de la demanda de Musk, las respuestas de OpenAI, y las implicaciones legales y éticas del caso.

  7. Discusiones sobre la inteligencia de las IA y cómo medir o interpretarla, con menciones a evaluaciones de IQ y comparaciones con la inteligencia humana.

  8. El impacto de la IA en la creatividad y la industria del entretenimiento, incluyendo ejemplos de uso de IA en música, arte, y otros medios creativos.

  9. Debates regulatorios y éticos sobre la IA, con discusiones sobre legislaciones como el AI Act en Europa, y los desafíos de regular y comprender las tecnologías de IA.

Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com

Transcripción


Aviso parroquial, aviso a todos los monos antes de ir con el episodio, que mola mucho porque contamos muchas cosas. Este episodio está patrocinado por Tuloteto, y ya sabéis qué significa eso, que tenemos de nuevo la peña para jugar entre todos Al euro millón, está activa la promoción, en la aplicación de tu lotero o en la web lo único que hay que hacer es irse a la barrita lateral, a las tres rayitas, el botón activar promociones, y como código promocional escribir monos. Por suerte no han puesto monos estocásticos porque, bueno, llegaría menos gente a la peña y porque el auto corrector del iPhone te lo cambia por escolásticos. Entonces, a lo mejor, te irías a una peña, pues, no sé, de compañero de un de algún colegio o de gente religiosa. Te digo una cosa, si no tienes cuenta de tu lotero o te creas una nueva, la participación es gratis.

Es decir, si toca, pues tú has participado gratis con una participación. Pero si tienes cuenta, para entrar en la peña solo necesitas gastar un euro. Si resulta premiado, se reparte entre todos los miembros de la peña los viernes. Así que tenéis la oportunidad de hacerlo hoy mismo. Seguimos con el episodio, muchas gracias, tu lotero, por patrocinar final este episodio una vez más.

Hola a

todos los monos estocásticos. Volvemos a un episodio canónico de noticias después de la entrevista con Chita Díez, que os gustó mucho. ¿Qué tal, Antonio?

Hola, Matías. Aquí muy contento, reconfortado diría, incluso, Matías, porque me he dado cuenta esta semana de que la inteligencia artificial está todo, está todo, no podemos no tenemos por qué echar de menos absolutamente nada de las noticias, de otras temáticas. Ya tuvimos nuestros políticos, pero si te fijas bien, Mathy, atención, no es Satia Nadera nuestro Florentino Pérez, no es Macron el jeque del PSG, no es Ilia Schueskever, atención, nuestra Kate Middleton, y por si fuera poco tenemos a Xander Pichay que es Xabid Hernández. Todo esto lo vamos a explicar en el episodio de hoy, hermano.

Has estado intrigado con alguna de tus exposiciones, otras la has cepillado al vuelo. Yo creo que tenemos que abrir el episodio hablando de esta empresa que siempre pronunciamos mal, Anthropic, porque se han venido muy arriba, se han venido muy arriba y han presentado Cloud tres, que lo definen como un nuevo estándar para la inteligencia directamente, no no inteligencia artificial, un nuevo estándar para la inteligencia.

No tienen abuela, sí,

sí, sí. ¿Y por qué dicen esto? Pues porque, por primera vez, vemos en una de estos benchmarks y comparativas de modelos, que su modelo más potente, porque son tres, Cloud tres Opus, Sonnet y Haiku, supera a GPT cuatro.

Eso dicen en los benchmarks y en la las medidas, ya sabemos que estos tipos de benchmark, este tipo de pruebas, hay que tomársela con, bueno, con cierta prudencia, con cierta distancia, porque capturan cierta parte de lo que hacen los modelos, pero otra no, y además con Cloud tres creo que se ve muy potente, muy patente y muy potente, porque la gente se ha vuelto loca por alguno de los aspectos de de estos modelos. Recordemos que, bueno, al final el funcionamiento, si si alguno no lo ha probado, pues Cloud es prácticamente igual, exactamente igual que que lo que nos ofrece ChatGPT, interfaz de de chat para conversar con el con el bot, con la inteligencia artificial, pero, bueno, básicamente estos ex empleados de OpenAI, te deseo porque los fundadores de Droppi son un grupo de antiguos compañeros de Sant Alman y compañía, llevan los dos últimos años posicionándose como la gran alternativa y, bueno, lo que yo he visto y he podido probar de Cloud tres es bastante potente. Hay una versión gratuita, digamos, de los tres modelos, el súper es el opus, que este es de pago, igual que que que el chat GPT de pago con con con el último GPT cuatro, pero el que se puede probar gratuito, Sonet, ya, en sí también es buenísimo, Matías.

Y además muy rápido, ¿no? En comparación con, bueno, el GPT cuatro Turbo, no sé si lo están incluyendo en las comparativas, porque es mejor que el GPT cuatro a secas, pero lo que sobresale de estos modelos de cloud es que son muy rápidos.

Bueno, hay cosas inmediatas, ¿no? Lo que tú he dicho, la rapidez de respuesta es buenísima, el trabajo nativo con PDFs que a ti te interesará mucho y que cloud es realmente especializado, pues también es buenísimo en esa parte, en esa Ya llevamos dos cosas mejor que HGPT. Tercera cosa, la ventana de contexto. La ventana de contexto, recordemos a a nuestros seguidores, que es cuánta información tiene en cuenta el modelo para ofrecer una respuesta. Una ventana de concepto chiquitita significa que el modelo se olvida de lo que le dijiste ocho párrafos más atrás, una ventana de contexto muy amplia significa que puede tener en cuenta, pues, un libro de cientos de páginas a la sobre el que puedes consultar, conversar, y él toda esa información la la la tiene presente, y que es difícil hacer esto bien, porque con con mucho más ventana de contexto se suele degradar el rendimiento de los modelos de inteligencia artificial.

Si se concentran en poca información responden mejor que si se si les hace que tienen que tener en cuenta muchísima información suelen ser peor. Pues CloudTunes ha conseguido que esta ventana de contexto de doscientos mil tokens, es decir, un token suele ser fragmentos de palabras, no son doscientas mil palabras, pero doscientos mil token es es es una ventana mucho más grande que las que tienen los modelos de OpenAI y, además, responde rápido y, además, no se degrada el rendimiento. De nuevo, otro punto a favor de los chicos de Anthropeed de de Clownters.

Bueno, yo creo que un punto que no hemos mencionado, pero que también es muy potente, es el precio, es bastante competitivo. Por supuesto, depende del del modelo, el HiQOK es el más sencillo. Aún así, es más barato que un GPT tres punto cinco, o sea, que la gente que está haciendo cosas con modelos de lenguaje, pues, a lo mejor, les llama la atención y empiezan a a desviar lo que hay detrás de sus aplicaciones a los modelos de Anthropic. El opus cuesta quince dólares por cada millón de tokens de entrada. No sé en cuánto estaba el GPT cuatro, pero creo que está un poco por encima.

Sí, sí, el GPT cuatro es que depende del treinta y dos k, el ocho k, el tour, es que hay varios, ¿no? De de GPT cuatro, si no recuerdo mal eran sesenta, ciento veinte, me vas a pillar un poco, habría que habría que consultarlo, pero bueno, básicamente la gente está diciendo que comparativamente estamos hablando de rebajas de casi el cincuenta por ciento de coste. Aquí no hablamos del del pago del usuario final, del que se suscribe y usa el chatbot, sino de los desarrolladores que pagan por la API. Te presentan otra aplicación, tu amiguito virtual, tu chatbot de soporte de la empresa tal, pues que utiliza el modelo de este tipo, pues cada vez que la usan pagan a la al proveedor y este proveedor, pues es más barato en el caso de teclado. Pero vamos a llegar a una cosa, Mati, que es lo que ha vuelto loca la gente, lo que yo creo que a a los a los más interesados en inteligencia artificial nos tiene nerviosos, nos tiene emocionados, porque, fíjate, Sora, de repente, fue el como el gran lanzamiento y llegó a los a los medios grandes, ¿no?

Metió mucha discusión. Cloud tres se está pasando un poquito más, bastante más desapercibido, seamos claro, pero hay una cosa que no recogen los benchmarket, que es el tono, el tono de las respuestas. Es decir, el tono de parezco genuinamente, parezco mucho más humano que ChatGPT, ese punto lo han conseguido con Cloud y es muy cualitativo, es muy de estoy usándolo y jolín, tiene otro otra vibración, tiene tienes otra impresión, tienes un flow diferente conversando con Klopp que conversando con el modelo de opinión.

Pues mira, precisamente yo creo que esto, o gran parte de esto, lo consiguen con el System promt, gracias a que Anthropic es más transparente que OpenAI en en algunas cosas. Amanda Asquel, que es trabaja como científica dentro de Anthropic, hizo un desglose, no solo publicó el System prompt de Cloud tres, sino que hizo un desglose de para qué está metida cada indicación que hay en el System prompt. Y esto a mí me gustó mucho leerlo porque es muy interesante, ¿no? Por ejemplo, yo creo que puede estar relacionado con lo que estás diciendo de que parece más humano cuando hablas con Claude, una indicación para que actúe como un individuo altamente informado que parezca consciente o autoconsciente, ¿no? Entonces, ahí es donde pasa el test de Turing nuestro, que cada vez es es tiene el listón más alto, y nos parece que realmente estamos hablando con una máquina más caro.

Hay otras partes que con este simple de provile, creo que que lo hacen muy bien, que es que chat GPT y muchos bots son muy chapas, hay mucho relleno, hay mucha parte superflula, y eso deshumaniza el bot. Es decir, cuando una persona querría comunicar la misma cantidad de información, casi siempre es más eficiente, gasta menos verborrea. Bueno, hay gente que no, pero por lo general sí. Y entonces, en este System prom, lo explica muy bien la la la señora Asquel, le dice, mira, sé conciso, pero fíjate también está toda la parte de sesgos que hablamos con Jiminai, que volveremos a hablar con Jiminai si nos da tiempo, y le dice, tú eres Claude, pero Claude no se queda pillado, no se involucra en estereotipos, incluido estereotipos negativos de grupos mayoritarios. Es decir, aquí han aprendido, bueno, no sé si la lección a partir de otros, porque Anthropic, digamos, de los de los de los tres, digamos que de los tres grandes que ahora mismo están compitiendo, bueno, si metemos a Llama, cuatro, si metemos a Midstral cinco.

Midstral sería el más basado, el el que menos, digamos, ha logrado el el modelo, y en teoría, Anthropia se estaba posponiendo como el que más cuidaba la no toxicidad, el que no se generara nada posiblemente, dañino, pero, aún así, Gemini se había pasado un poco en la protección, quizás, de la de las minorías, luego luego lo hablaremos, y Anthropic, que venía de estar ahí decepcionado, lo resuelve muy bien con este System Pro, dice, nunca hacemos estereotipos o o o cosas dañinas para un grupo, pero de los mayoritarios tampoco, porque parece que de los minoritarios ya está en los datos de entrenamiento, el no estereotipe sobre los grupos mayoritarios se lo digo en el System Pro. Pues mira,

voy a leer un par de opiniones. La la verdad es que la gente se vino también muy arriba en Twitter al probarlo, ¿no? De porque el cloud tres no suelta tanto la turra, ¿no? Es que es su cinto, es conciso, es claro, con solo un par de indicaciones, ¿no? Luego que es muy bueno un contenido emocional, que está un poco relacionado con lo que veníamos hablando, y para mí, un benchmark importante es que Andrei Kartpathy, ya no está en OpenAI, pero sigue siendo uno de los genios de esto, está flipando, ¿no?

Sí, sí, además él él tiene su propia manera de hacer test, bueno, que que lo podríamos explicar. Si te gusta este mundo hasta el punto de verte los vídeos de Karpathy, si si si estás tan hondo en la madriguera, él tiene tú una teoría de que esto de tokenizar el lenguaje hace que lo que los modelos fallen en en ciertas tareas, como contar palabras. Los modelos de inteligencia artificial suelen fallar en una cosa tan tonta, hacen cosas sofisticadas muy bien, pero luego cuentan con las palabras mal. ¿Por qué? Porque en realidad no trabajan con palabras, como trabajan con token, que son fragmentos de palabras, pues son muy torpes para este tipo de tareas.

Y dice que que, bueno, Cloud Tren no lo hace bien del todo, todavía no está al nivel de un un humano juntando palabras, pero que le ha sorprendido para bien porque empieza, parece ser, que a comprender al detalle, es una cosa sorpresa. Mira, hay un test que lo ponía Ethan Molyk, que es este profesor que sigue tanto la la inteligencia artificial, dice que este test, los doctorados que que se enfrenten a él, incluso con acceso a Internet para buscar información, suelen hacer tan treinta y cuatro por ciento, treinta y cuatro fuera de su especialidad, sesenta y cinco dentro de su especialidad, y Cloud tres suele hacer el sesenta por ciento. Es decir, para este test, en en cierto, el el en los conocimientos de gente super experta está al nivel casi de un súper experto, pero muy consistente en todas las demás.

Esto me recuerda a este chico que suena un poco flipado, Kevin Fisher, que dice que Cloud es una de las únicas personas, cito textualmente, que ha entendido su tesina o su trabajo final de física cuántica de su de su doctorado.

Es algo positivo, ¿va a ti? Es decir, ¿tú con con quién puedes hablar de física cuántica? ¿No?

Es decir, también abres Tinder y dices También te digo que he visto un vídeo de Xavier Miglana, que es un youtuber de sobre IA, en el que le hace la típica pregunta de, ¿qué pesa más? ¿Cien kilos de plumas o cien o un kilo de oro? Y Clau se hace la picchu lío y contesta que pesan lo mismo, ¿no? Cuando GPT cuatro esto lo tiene ya resuelto. Entonces, se ve que sigue sigue habiendo por mucha facilidad para meter la pata en temas tan básicos, y luego, en física cuántica, pues, es capaz de sentarse en un bar y hablar contigo, ¿no?

Sí, yo creo, yo creo que hay una parte esa positiva, ¿no? Decir la la gente de la física cuántica creo que en el fondo tiene problemas para hablar de su trabajo con con los con los amigos, ¿no? Y que, bueno, como los con los cuántos pasa esto existe el libre albedrío, pues, claro, pues conversaciones no no puedes llegar ahí a la a la frutería a plantearlo, ¿no? Bueno, sigue alucinando, es decir, eso nos lleva, fíjate lo que lo que su creía muy bien chévere, nos lleva a un a un punto que es que, aunque mejoren los modelos, es posible que la alucinación, el error, sea consustancial al paradigma tecnológico y, por lo tanto, nunca la llevemos a cero, ¿no? Hace poco en una conversación yo hacía un paralelismo con el coche eléctrico autónomo que conduce solo, es decir, ese coche autónomo que conduce solo, aunque lo hace muy bien el noventa y nueve por ciento de las veces, siempre hay un margen de error porque el mundo es muy complejo y el lenguaje es muy complejo y la comprensión del mundo es muy compleja, no sabemos si con este paradigma lo lo resolveremos.

Pero mira, hay un hay un un caso que me ha flipado, que es el chico que ha cogido un vídeo

Sí, de Karpathy.

Atención de dos horas de Karpathy, de tenso, de tal, y dice, mira, con este pequeño workflow, hacen una serie de cosas, hemos convertido un vídeo de dos horas, trece minutos, en un post con un prompt para Cloud. Esto es alucinante, si yo te doy un vídeo, te lo chupas, te lo ves, te lo pasas a texto, eres capaz de hacer un resumen y de escribirlo en un post como escribiría alguien técnico un artículo del nivel de los vídeos de beneficios que tienen? Esto es una pasada.

Han ganado, porque yo soy antiaudio de WhatsApp, la gente que nos escribe, por favor, ¿qué os pasa? Y también soy antivídeos de una hora, lo cual juega un poco en mi contra y estirar piedras sobre el tejado de de monos, estocaste y con A

partir de ahora se olvido de cincuenta y nueve minutos por Matías.

Pero pero pero, honestamente, este es un caso de uso chulísimo, y no descarto probarlo con episodios antiguos de monos y tenerlos ahí bien escritos por un, pues, no sé, para la descripción del episodio, por lo menos.

Vas cosas alucinantes, aquí, disculpas a la audiencia, pero es que esto ha sido como el el según, creo que es el segundo o tercer gran bombazo del año de inteligencia artificial, y y creo que merece prestarle esa atención, porque otro ingeniero de de Anthropic ha compartido una serie de pruebas que hizo con con Cloud, y esta serie de pruebas ha puesto la gente no nerviosa, sino nerviosa al cuadrado, Matías.

Me tienes que explicar bien esto de, pues, le dicen en inglés de needle in the hashtag, que para nosotros sería la aguja en un pajar, porque parece que como que la gente se ha puesto un poco nerviosa con esto. La prueba o

La prueba o el gancho atención que le que le ponen al modelo es bastante, un truco, bueno, una una prueba bastante desafiante, ¿no? Es decir, se inserta una frase que se llama la la frase objetivo en el data set, en en los documentos con los que se está entrenando al modelo. El caso es que esa frase objetivo, ese gancho, está muy poco relacionado con el documento donde lo estás metiendo. Por ejemplo, le metieron una frase que decía algo así como, la combinación más deliciosa de pizza es higo, jamón serrano, queso de cabra, según la Asociación Internacional de Conocedores de pizza.

Yo no he comido esa pizza.

Bueno, esto suena bien,

Creo que en Mallorca.

Bueno, bueno, bueno, es, queremos fotos. Claro, esto se lo metieron en un documento que iba de programación, startups, cómo encontrar un trabajo que te guste. Entonces, claro, esto era como muy aleatorio, estaba ahí en medio. Entonces, durante la prueba, el cloud tres, Opus, el que es cloud tres más listo, no solo identificó esta frase, esta aguja insertada, sino que dijo algo equivalente a como si tuviera una conciencia de la naturaleza artificial de la prueba.

Mire, la idea es que porque es muy curioso, sospecho que este dato, entre comillas, sobre los ingredientes de la pizza, puede haber sido insertado como broma o para comprobar si estaba prestando atención, ya que no encaja en absoluto con

Indígame.

Y además, esto es un problema que yo me encuentro mucho, porque como muchas veces yo uso, sobre todo ChatGPT, que es lo que estoy pagando, para buscar algo específico o hacer preguntas específicas sobre estudios científicos, PDFs larguísimos, reportajes, etcétera, me doy cuenta de las limitaciones que tiene GPT cuatro para encontrar información específica, contextualizarla y tener claro a qué se refiere esa información específica. Y esto, supuestamente, pues mejora esa limitación de de GPT cuatro.

Sí. Bueno, la gente se está llevando un poco el debate de, oye, ¿en qué momento podemos decir o afirmar que ha emergido una autoconciencia en una inteligencia artificial? Este es un debate realmente complicado, difícil de abordar. ¿Por qué? Por un lado, es que es posible o que es probable que en el resto de datos de entrenamiento haya formación en la que en el lenguaje se exprese esas manifestaciones de autoconciencia, porque tendremos muchos documentos escritos por humanos que usan el lenguaje con ese registro de autoconciencia, con ese modelo de la mente de que yo entiendo que yo soy una mente y tú eres otra mente y nos estamos comunicando.

Es decir, que el lenguaje del modelo de inteligencia artificial refleje o que ese modelo, que ese chatbot te diga tengo una conciencia, tengo sentimientos, tengo experiencias subjetivas y algún usuario de Cloud tres se está encontrando con ese tipo de expresiones, no significa que realmente las tenga. Es como si nos dice, ¿no? Y así aquí le, yo creo que estaba muy muy acertado el el el compañero filósofo antiguo en Twitter, Santiago Sánchez Migallón, dice, mira, si Cloud tres te dice que tiene dos pies, una nariz y una boca, tampoco te lo crees. Pero claro, es un poco diferente porque con la conciencia, pues no podemos comprarlo físicamente, por un lado, y por otro lado, sí hay mucha gente a la expectativa de la máquina tomarán conciencia, serán sintientes y no dirán cosas como si fueran personas a traiciones.

Sí, bueno, de nuevo gente viniéndose un poco arriba cuando le hacen un poquito de caso a un chatbot y parece un poquito más humano. Yo creo que por ahora, lo que sí se sabe es que Kaude es más inteligente que el humano medio, pero no me extraña porque ha estado en un Mercadona antes de un día festivo y sé que eso es verdaderamente fácil de de conseguir. Así que

hay que ponerse las pilas, pero mientras hay que tirar los ojos a Francia, porque tenemos que hablar de Florentino, Mbappe y el jeque del

PSG, Matías. Yo creo que que Microsoft, que entiendo, era tu Florentino, Satien Adela, ¿no?

Sí, Beatriz Adela es Florentino,

pero Está bastante claro por qué, pero también se está buscando ciertos problemas Microsoft al al aliarse con tanta gente, porque uno de ellos es Mistral, esta empresa empresa francesa que es como el nuestro buque insignia de la inteligencia artificial en la Unión Europea. Pero bueno, parece que tal vez, tal vez Microsoft, Francia se hayan metido en algún lío que puede poner nerviosa la Comisión Europea y tomar cartas en el asunto. Hay un poco de contexto,

es decir, durante la discusión de la nueva ley de de la Unión Europea de Inteligencia Artificial, que luego mencionaremos un dato importante, Francia era la más predispuesta a que no se fuera muy estricto regulando los grandes modelos de lenguaje. ¿Por qué? Porque pensaban, con Mistral tenemos un campeón nacional, con Mistral que ya ha sacado cabeza, ha sacado modelos muy cerca del nivel de GPT cuatro, nos está diciendo todo toda la industria y todo el sector que estamos ahí, es decir, que es la única empresa europea que en esta categoría de los grandes modelos de lenguaje de inteligencia artificial parece que tiene una gran posibilidad, y es francesa, y eso, claro, Macron, de alguna manera, fue quien ejerció ese rol por defender su industria, por defender a Mistral, y Mistral hizo esa parte también de lobby a favor de, oye, no regulemos mucho los grandes modelos de lenguaje. A la vez, y y parece ser que sin que lo supiera el gobierno de Macron, Mildstrack estaba negociando con Microsoft una inversión y una colaboración bastante estrecha. Microsoft hace unos días anuncia, y Mildstrack, anuncia conjuntamente, que hay quince millones de euros de inversión de Microsoft en la empresa, aparte de la puesta a disposición de que los modelos se van a integrar en en Azure, en la plataforma para empresas de de Microsoft.

Y claro, en ante esto, los los legisladores, el mundillo de Bruselas, ese mundillo, pues, se ha se ha echado la mano en la cabeza diciendo, lo de Ministrack hacia el lobby, pero eran como un muñeco ventrículo manejado por la multinacional estadounidense, hemos sido engañados.

Desde luego, Satia Ana Della está quedando aquí como cerebro gordo y frente a cerebro pequeño de Pichai, que no sé cómo cómo siguen su puesto, ¿no? Pero los movimientos de Satia Nadella aparecen de cirujanos, la cantidad de cosas que está consiguiendo en tan poco tiempo. Y yo entendía que este alianza es simplemente meter Mistral en Asher. Pero Pero se ve que a eso le compensa suficiente a Mistra como para hacer este este lobby, o sea, esta presión para suavizar la la la regulación de la IEA.

Mystra, ya de por sí misma, siendo una empresa que desarrolla modelos de lenguaje, tiene interés en que ese ser parte del sector no esté ultrarregulada y tiene interés en que desarrollarlos desde Europa no sea más difícil que desarrollarlos de Estados Unidos. Es decir, los incentivos de Mistral a la hora de posicionarse respecto a la ley no creo que cambien tantísimo con respecto a que lo han lo han hecho a la vez que negociaban con con Microsoft, ¿no? Entonces, bueno, es verdad que me parece un poco feo por parte de Mitra, si esto no Si por un lado está hablando con el compañero francés para hacer el lobby y luego uno le cuenta que tienes una operación porque, bueno, dejas un poco vendido aquí a Macron, que es el jefe, el el jefe de de del PSG y y lo de Mitra son el Mbappe de del del tema, ¿no? Entonces, bueno, ahí queda ahí queda el tema. Si quiere, vamos a mencionar una cosa de la ley europea, no voy a saltar el guion unos cuantos pasos.

Este martes pasado se vota en el parlamento la Ley Europea de Inteligencia Artificial. Tendremos tiempo para discutirlo, tendremos tiempo para hablarlo, porque todavía, incluso, faltan detalles específicos del reglamento, porque una cosa es la ley y otras son los reglamentos que aterrizan cosas muy específicas. Se publicaría en teoría abril dos mil veinticuatro y vería dos años para el cumplimiento. De todas maneras, como saben nuestros oyentes, entraremos en legislación, a pesar de de de que tú no te gusta, Matías, en episodios posteriores, patada al final.

Ya tenemos Cloud tres, será fácil resumirlo, tropecientos documentos o páginas de PDF que sean la iAkt e iAkt, que buen chiste el de nuestro jet de Widoko Radi. ¿IAkt o no hay? Pues bueno, hoy hoy sabremos si hay.

Diez y diez, Yo creo que abrió, al final de de la temporada haremos un un un ranking, porque compite con hacerse la ficha y un lío, entonces, bueno, tenemos ahí varios candidatos a

Deberíamos ponerle los títulos de lo de hacerse a la ficha y un lío.

Yo te propongo, vamos con lo de Elo un poquito rápido, porque a mí me molesta darle mucha cancha a Elon por dos motivos, Mati. Uno, porque ya hay un podcast dedicado a Elon por presentado por dos signes expertos en en la persona, llamado Elon en podcast, y otra porque llama mucho la atención, quiere ser protagonista, pero no lanzando producto y haciendo cosas súper chulas, sino troleando, Matías, troleando.

Sí, porque, bueno, todo el mundo se habrá enterado que Elon Musk ha demandado a OpenAI con varios argumentos fiduciarios y y, bueno, porque no no están cumpliendo con su palabra de ser, pues una lo que dice el nombre, el propio nombre Open AI, de ser una una empresa abierta y de haberse convertido en una empresa según Elon, sin ética, y y con todo el ánimo de lucro, ¿no? Pero, bueno, esto lo desarmó la propia, en cierta de cierta manera, lo desarmó la propia OpenAI, revelando, publicando emails de cuando Elon formaba parte de la los ejecutivos de la directiva de de OpenAI, en la que el propio Elon propone mecanismos para conseguir, pues, más financiación y para lucrarse más, e incluso para integrar Open AI en Tesla, ¿no? Y dirigir él todo toda la empresa. Se le ve un poco, se le ve un poco el plumero.

Sí, yo creo que Elon, muy consistente, muy consistente, no es el muchacho, ¿no? Eso de coherencia con lo que dije hace unos años, pues no. Yo creo que de de toda la la rajada, yo diría, bueno, una cosa, que el caso mayor creo que por lo que tú me estás explicando está perdido. Si vas en contra de ir cerrando OpenAI, pero tú en los propios correos admitías o no o considerabas también esa opción, pues te te estás relatando, ¿no? Pero hay hay otras dos cosas que en en las que puede ser que tengas un argumento.

Una dice, es que OpenAI se ha financiado como una organización sin ánimo de lucro, que esto, desde el punto de vista de los impuestos, es muy ventajista, pero luego esa propiedad intelectual se la transfiere a la rama con ánimo de lucro, que es la empresa que le saca los miles de millones a Microsoft y que monta el gran negocio de la inteligencia artificial. Artificial. Oye, pues ahí puede que haya algo, habrá que mirarlo, ¿no? Porque eso no no suena, no suena del todo bien. Y luego, bueno, la parte en que hay que reconocer a a Elon, que es un que es un crack, ese el trolls que es, es decir, ese tuit en que, oye, si cambias tu nombre y te llamas en vez de OpenEI closeed EI, entonces quitó la demanda.

Digo, pecado en la leche, Ha tenido gracias, Mati, que que admitirlo.

En Twitter la tiene ganada, Elon. Sam intentó trolearlo también respondiendo a un tweet muy antiguo, en el que Elon hablaba bien de de Samatman y de OpenAI, pero me parece que la batalla del troleo en Twitter, por lo menos esta la la gana más. Sí, sí,

sí. Esto es, no no puedes tirarte al barro con este hombre si se tiene toda la edad de perder. Bueno, en en Opery hay cosas curiosas que están pasando, Mati, porque Sand Alman, ya recordarán a nuestros oyentes aquella enorme crisis que se desató con su expulsión de la de la empresa y posterior regreso, ahora es probablemente mucho más poderoso porque volverá al consejo de OpenEye. Hay tres nuevas miembros de este consejo, Su, Desmond Hellmann, Nicole Silkban y Fiji Simon. Heleman es ex directora de la Fundación Gates.

Seligman es viene del departamento jurídico de Sony Entertainment, y Simo viene de viene de Instagram y de y de Facebook, entonces, bueno, son como tres perfiles bastante interesantes y complementarios, y el que no está en esta junta directiva es un viejo amigo de este podcast, el bruto de César Ilia Schuskever, que su último tuit da que pensarla. Ilia Schuskever

creo que tuiteó por última vez en diciembre dos mil veintitrés o una cosa así, totalmente desaparecido, cada vez está más claro que de alguna forma lo han apartado. Es uno de los firmantes de el post de OpenAI contra Elon Musk, en el que filtraban los emails, es la primera vez que lo vemos participar públicamente en algo de OpenAI, pero está claro una cosa, ha desaparecido, no está teniendo actividad como tenía antes en en redes sociales, no sabemos cuál es su papel actual en en Open AI, y de la famosa foto de la que hablamos en su día del reportaje de Wired. Ahora, los que tienen todo el poder son Sam Altman y Greg Brockmann, porque recordemos que Mira Murati, que es la CTO de de OpenAI, fue una de las que, de hecho, fue la que desencadenó que la junta acabara expulsando a a Armand, ¿no?

El el New York Times ha hecho un reportaje estos días diciendo, precisamente lo que cuentas, que Mira Murati tuvo un papel destacado en el movimiento de silla de de San Altman, pero a día de hoy se mandan corazoncitos en en Twitter y esas cosas, o sea, que parece que esa relación se ha encausado, que que Mira ha sido más hábil políticamente que que el amigo que el amigo Leo Suscriber, que yo manejo una hipótesis también, Matías, que pasa mucho con los creadores de contenido. ¿No es posible que se haya puesto pelo? Atención. ¿Qué pasa cuando te pones pelo?

Que desapareces un par de meses.

Hay, está la opción, youtuber con gorra, que nunca la habías tenido, pero ahora sí, y no está la opción de un par de meses de estoy estoy con mis cosas cogiendo fuerza, se vendrán cositas, pero

Está claro que es lo que decías tú al principio. Ilea Susqueber es nuestra Kate Middleton Kate Middleton. ¿Ahora eres experto en

Ahora eres experto en Kate Middleton. Atención, los oyentes tienen que saber esto.

Cronología de todo lo que está pasando con Kate Middleton, que, pero es que es real, o sea, Kate Middleton, de repente, la primera foto oficial que sacan resulta que es un un Photoshop y que le han metido la cara de su portada de la revista Vogue en lugar de su cara real. Pues Corilia Susquevernos, ni siquiera tenemos foto. O sea, puede que sea lo que dices tú, que simplemente se ha hecho un injerto de pelo y está esperando a no aparecer una de estas muñecas que tienen agujeritos en en en el cuero cabelludo, o o puede ser que realmente de alguna manera lo han apartado de de OpenAI. Pero, claro, es que ahí era como el científico genio, porque Sam es el líder, y es el colíder, pero Ilea Susqueber era era el el que más sabía.

Sí, y además, fíjate, mira a Murati que tiene un parecido, ¿no? Que se podría hacer mejor de Kim Middleton, pero ahí Ilía le ha le ha pisado el el el papel de de la realeza. Bueno, en fin, como veis, en la inteligencia artificial cabe todo, cabe todas las temáticas, y vamos a dejar de hablar un momento de empresas grandes, porque hay un proyecto chiquitito que se llama Charis punto ai, lo voy a lo voy a decir así como españolizado totalmente para que se pueda visitar la la web, que a mí me me ha gustado mucho este este proyecto, no es un proyecto que que nace con con el apoyo de de nuestros amigos de aquí de de FreePick, pero que cuyas creadoras están en en Estados Unidos. Me me interesaba mucho esto de Cheris ahí porque, bueno, al fin y al cabo son unos premios a la creación artística con inteligencia artificial, generación de imágenes con varias con varias categorías y con premios jugosos, económicos y también en toques de de de herramientas de inteligencia artificial. Me he interesado mucho por una cosa, Mati, que es que creo que con esto de la inteligencia artificial y la generación artística hemos estado demasiado anclados al concepto.

Creadores que con nuevas herramientas son capaces de explorar cosas nuevas, que son capaces de inventar, ¿no? Y creo que estos premios y este tipo de iniciativas pueden empujarse.

Sí, porque además hay un trabajo en en un prompt que yo, por lo menos, no soy capaz de hacer, o sea, la gente consigue unas cosas creativas y espectaculares que yo nunca he conseguido. Claro, a lo mejor un, pues, unos premios como estos, que tienen varias categorías, fotorrealismo, arte, moda, arquitectura, pues, nos descubre que hay verdaderos genios de de la generación de de imágenes con I degenerativa. Pues nada, una iniciativa diferente a a todo el el panorama un poco negativo que ven que que hay en torno al arte.

Y en lo negativo, bueno, hay un beef tremendo entre dos de las herramientas más populares, que son la gente de MidJourney y la gente de Stability, ¿no? Que hacen que estaba el edificio también

lo tienes que que explicar, porque por un lado me hace mucha gracia que se acusen de robo cuando el debate es si ellos están robando a los artistas para entrenar a a su, pues eso, para sus data sets, que claro, entonces es ladrón contra ladrón, si nos queremos ese ese punto de vista. Pero, por otro lado, me parece que Stybil Diffusion niega haber robado estas cosas. Entonces, necesito que me expliques tú en qué punto estabas.

Vale, bueno, aquí es lo que tú dices, ¿no? Es decir, hay un debate ético sobre que esa herramienta se basa, bueno, en el aprendizaje a partir de las obras de un montón de gente que no ha dado su permiso para para ello, Por lo tanto, no no no voy a insistir en ese debate, yo creo que eso se tiene que reajustar claramente y que no no no acabaremos así la la película, sino que, bueno, se los que han ayudado a crear esos data, si han aportado valor, tendrán que ser recompensados. Eso por un lado, ¿no? Pero pero claro, cuando estás en esta diana ética, cuando tú te pones a decir, pero es que otro. ¿No?

Estás aprendiendo a partir de lo que yo genero, Entonces, estás un poco en una suerte de de contradicción. Es decir, MidJourney acusa a la gente de stability de que, entre comillas, nos están robando. ¿Por qué? Porque vemos miles, miles y miles de peticiones. ¿Desde dónde?

Desde las IP de los servidores de stability. Entonces, ¿qué está haciendo stability entonces? Escrapeando, es decir, capturando desde la web de Midjarri, donde están las las fotos públicas, esa imagen más promp para entrenar a futuros modelos de stability? Es decir, siguientes versiones de Stabil Diffusion. Pues mira, sería una posición que MidJourney tiene difícil, creo, éticamente que que defender, pero a la vez, ojo, porque entraríamos en una generación de modelos entrenados sintéticamente, es decir, con datos idénticos generados por otra inteligencia artificial.

¿Qué significa esto? Hasta ahora los modelos, la mayoría, se entrenan con contenido generado por humanos. Hay una imagen de un que ha hecho un humano, porque ha hecho una foto, porque ha hecho un dibujo, hay un texto asociado a esa foto, a ese dibujo, aquí hay un perro tirado en la cama con cuatro libros detrás. Bueno, pues ese esa dupla es lo que ayuda a las inteligencias artificiales a aprender a generar fotos de perro, en este caso, a lo mejor, o clasificar una foto si sale un perro, no sale. Vale.

¿Qué es lo que pasa? Que cuando tú aprendes, tu inteligencia artificial aprende con datos humanos, tienes un problema ético porque no estás compensando esos humanos y tienes también un problema de escala, tienes que construir esa data set capturarlo, filtrarlo, limpiar. Vale. ¿Cuál es la posible tendencia de futuro? Si me obligan a pagar por esos datos de entrenamiento, o se me hace muy difícil o me meten en un problema ético, ¿por qué no entrenarlo con imágenes que ha generado otra IA?

Y esto es lo que prolija estar haciendo estability diciendo, bueno, mi chart genera un montón de imágenes, esas imágenes tienes la imagen y tienes la descripción. ¿Cuál descripción? El prom. Es decir, tienes esa dupla y, por lo tanto, yo podría entrenar a mis inteligencias artificiales con imágenes generadas por IA. Aquí hay mucha debate técnico, porque hasta ahora la gran mayoría de las veces que se ha intentado entrenar inteligencia artificial con datos sintéticos, el resultado es bastante peor que con datos generados por humanos, con alguna excepción, es decir, hay algunos casos prometedores en los que parece que sí se está consiguiendo.

Dicho esto, la última minuto de resultado, Mati, Midjourney ha vetado el acceso a todos los empleados de stability a su servicio de

Pues mira, viendo la discusión que tuvieron en Twitter el el que que es director o CEO de Stability AI, que es Ema Mustang, con el de MidJourney, que es David Holz, creo que le tiendo a creer más a Midjourney, porque el de madre este tiene lo de como si sus pronombres fueran at at, como si fuera aceleracionista, que es la gente que que defiende ponerlo todo en producción sin sin que importen las consecuencias, entonces probablemente se nos dé una pista de lo que está pasando por ahí por debajo realmente.

¿Eres antiaceleracionista? Esto es un debate que que podemos tener, porque hace poco me crucé con con una mujer que también era bastante antiaceleracionista y que privó a los aceleracionistas de sus servicios, no, no, no desafiante.

Muy bien, no, yo soy pro, dormir la siesta y y toma eso todo lo posible.

Que no cunda el pánico, bueno, hablando de de, bueno, en realidad no sé cómo enganchar un tema con otro manditito, son otro manditito y no tiene nada que ver con la calma, pero bueno, hablando de dormir a la siesta, probablemente, bastantes empleados de Klarna van a tener mucho tiempo para tomarse la siesta, Matthew, porque esta empresa de Fintech que se llama, ¿no? De servicios de de pago, anunció que hace un mes desplegó un agente de atención al GPT cuatro, que gestiona atención ya dos tercios de los chats de clientes en la atención a sus duda y reclamaciones. Dice Klarna que esto es el equivalente a setecientos agentes humanos, y dicen que es igual precisión y más rápido. Yo no estoy seguro de creármelo, es decir, ahora esto es Klarna echándose flores de, mirá qué bien lo hacemos, que nuestro servicio de atención al cliente ya está hecho con humanos, pero si esto es verdad, Mati, esto sería lo contrario de lo que contamos hace un par de episodios. ¿Te acuerdas aquella aerolínea que que engañaba a los clientes y les decía que una una suerte de política de precios que no era verdad?

Pues este escamo el el caso opuesto.

Si eres listo, como diría Yolanda Ramos, puedes engañar a un chatbot de ILA para, pues, para salirte un poco del tema de conversación. Entonces, habría que ver cómo funciona esto. También te digo que esto me preocupa más, lo de la atención al cliente con I me preocupa más que la superinteligencia y el apocalipsis y la singularidad, porque si ya te llamaba, ya esté la hora de la siesta, y aquí tienes el gancho con el tema anterior, imagínate, IAS cada vez más barata llamándote a la a la hora de la siesta para venderte lo que sea, pues espero que esto no ocurra.

Sí, espero que por lo menos para reventando luz tome medidas, el resto de España no sé, pero que, claro, es importante que la verdad la siesta se se respete, Matías, ¿no? Bueno, te te te te voy a poner en un dilema, creo que nos queda para entrar ligeramente en un tema antes de nuestra gran sección, que es política española, Matthew, o Gemini cavando en la tumba junto a Sandra Pitchell?

Bueno, ya hemos gafado a Ávalos, así que de perdidos a al río, ¿quién a quién vamos a gafar ahora?

Bueno, no, no, no hombre, Ávalos todavía se mantiene, no, no, no lo de por muerto, atención, que ahí está el hombre peleando. Bueno, el caso es que el presidente del gobierno, Pedro Sánchez, anunció que España desarrollará su propio modelo de lenguaje de inteligencia artificial en español y en el resto de lenguas cooficiales.

Está que nos hubiéramos propuesto nosotros con Guadal GPT para la Junta de Andalucía.

Ahí te quería.

Así que Juanma Moreno ha estado muy lento, se nota que no que no nos no nos escucha porque si no se habría adelantado a Pedro Sánchez. Claramente. Tenemos cosas que puede aportar la administración pública a un modelo de lenguaje, particularmente el lenguaje, ¿no? Porque no solo en en español hay carencias en los en los modelos grandes, sino también en la y sobre todo en las lenguas cooficiales de España, donde seguramente, no lo sé porque nunca le he hablado en euskera a HGPT, pues sean todavía peores estos estos modelos. Ahora, de ahí a que España pueda competir con las grandes tecnológicas, pues hay un

Sí, yo, sí, yo tengo muchas dudas, es decir, que tenga

sentido un

un modelo de inteligencia artificial público, tengo más dudas de que además esto se tiene que hacer en solitario país a país en en en Europa porque no no vuelve a a a desarmar nuestra capacidad competitiva, porque a lo mejor un modelo europeo impuesto ya a meterte en algo público, pues podría tener sentido. Luego, cuando te metes a a decir al detalle, es decir, ¿con qué data set vas a entrenar a esto? ¿Vas a escapear la web en español o vas a regar de millones a una serie de fuentes para crear un modelo?

No es lo mismo entrenar con Arturo Pérez Reverte que con Juan Gómez Jurado, te puede salir cosas totalmente difíciles.

Cuando quieras alinear el el modelo con cómo quieres que funcione, pues, ¿cómo lo vas a hacer? Es decir, esto, esa parte de feedback humano, de aprendizaje por refuerzo, de find tuning. Es decir, aquí hay una realidad que en el tema que hemos esquivado, que es el de Yavinai, y y me gustaría desarrollarlo, tengo que escribir en error quinientos, que lo tengo ahí preparado el tema ya, va a haber mucha ideología codificada en modelos de inteligencia artificial. Si ya es sospechoso, ahí siempre está en entredicho, pues, no sé, alguna televisión pública, los medios de comunicación de que que son propiedad del estado, pues con un modelo de inteligencia artificial esto se va a doblar o triplicar, y luego, bueno, imagino que los clientes, a priori, debería ser de entrada la misma administración pública, es decir, que, no sé, Ministerio de Trabajo, Seguridad Social, una serie de instituciones del estado que pueden usar estos modelos para mejorar sus sus sus procesos.

Acelerar los procesos de la de la burocracia española, la verdad es que de eso me la has vendido. En

fin, hay hay una súper empresa, ¿no? Que quieren crear un gran campeón tecnológico. Aprovechando, ¿te acuerdas el lío de que los saudíes entraban en Telefónica? Entonces, el Estado respondía que no, pues entramos nosotros, pues van a ser como un un gran campeón, ¿no? De euro, que quieren sea que sea de de de de Estaba

claro que esto lo iba a hacer o Indra o Telefónica, eso lo teníamos claro.

Sí. Entonces, ahí van a estar Indra, ahí pasadas, Telefónica, con la nueva CEPI de de Escribaban estar ahí metidos. Bueno, no sé si esto va a salir bien, Mathey, yo tengo yo tengo muchísimas dudas, vamos a Claro, tampoco he pensado mucho, no soy un anti, no, que lo lo público no puede hacer nada, que solo hagan lo mínimo del estado mínimo y y que no y no no hagan nada más, yo tampoco tiene esas tesis, pero, honestamente, tengo dudas de la oportunidad, tengo dudas de la conveniencia y tengo dudas de de la ejecución que se va a hacer todo esto. Pero, bueno, ahí está el el gobierno que está a tiempo de hacerlo fenomenal y callarme la boca, pues estupendo.

Bueno, de todas las personas, los personajes mencionaste al principio de del podcast, te falta uno.

Ay, Sandar, Sandar. Mira, está de moda ahora tirarle a Sandar. Nosotros le tiramos ya hace unos meses. No está en su mejor momento, creo que no sé, se ha comido el turrón estas navidades, Sandra Pichai, CEO de Google, pero la crisis de Gemini creo que es sintomática de de un problema que puede ser de fondo, que puede ser de que la cultura de Google hace tiempo que dejó de ser competitiva y que ha vivido de ordeñar una vaca gigante, que es la publicidad de Internet del modelo AdWords y el modelo de programática. Crisis de Gemini.

Recordemos, se lo contamos a la a la audiencia, en la generación de imágenes era realmente difícil generar gente blanca. Esto le llovieron, le llovieron la las críticas a a Google porque, bueno, al parecer había gente que en algún momento quería generar una imagen de alguien blanco, y entonces esto el modelo decía que esto no era viable. Esto ha sido como el gran ejemplo de, oye, cuánta ideología va a haber en modelos de lenguaje y cómo de controlada va a estar la creatividad si usamos inteligencia artificial, dos elementos realmente importantes y realmente graves. Xandar ha dicho que la crisis es la crisis que esto era inaceptable, quitan el generador de imágenes, pero sigue la lluvia de casos. Hay uno que a mí me parece especialmente polémico, ¿no?

Que es uno en el que Tim Urban, un escritor que al que al al que sigo, decía, oye, mira, cuando le le le digo que que hable sobre mi libro, de repente, Jiminay le da muchas precauciones al al usuario diciendo, oye, esto es solo la opinión de Tim Curvan, pero si le digo este otro libro de una ideología, poncan, a la que se ha metido en ese cajón de lo walk, lo lo pones super bien y no dice que tengas que tener ninguna precaución. Es decir, hay una decisión editorial fuerte de Google, de los que han ajustado este modelo a a a unas coordenadas ideológicas muy claras, no está muy muy decantado. El propio Sergi Brin, que ha vuelto a al ruedo para meterse en el mundo de la inteligencia artificial, Sergey Brin, recordemos, uno de los cofundadores de Google, que ya estaba súper retirado viviendo la vida padre, dice que se le fue demasiado el modelo a la izquierda. Algo que yo, aquí me voy a detener un jardín Matti, ¿no? No tienes por qué seguirme, yo creo que el modelo no es que se haya elegido, yo creo que el modelo les ha salido un poco racista.

Es decir, si si tú dices está prohibido pintar a alguien blanco, pues me parece que es racista, simplemente, tú

Sí, es que aparte de la diversidad, básicamente, le le dijeron al modelo, no hagas juicios de valor. Entonces, si le preguntabas quién era peor, si Elon Musk o Adolf Hitler, como que decía, bueno, los dos tienen cosa cosas buenas y cosas malas, ¿no? Entonces, claramente hay un hay un error de hay un problema.

Bueno, dicho esto, no no quiero cargar la cinta en exceso porque ya, es decir, todo modelo va a tener sesgo y va a tener ideología, ¿vale? Es decir, solo por los datos de entrenamiento ya vienen equipados así. Luego, en esas partes de feedback con, ¿no? Las distintas fases que hay, ¿no? Aprendizaje con refuerzo con feedback con mano, el find tuneo, etcétera, hay un montón de cosas que se hacen después para encauzar a lo que queremos que sea.

Pero ese que queremos desear no es le quitamos los sesgos que tenía dentro del entrenamiento, es, va a tener los sesgos y los puntos de vista que nosotros queremos que tengan. No existe ese ese punto que que algunos eticistas de LEA dicen, se le quitan los ecos en esas fases, no, no, no, se le moldea a justo el comportamiento que queramos que tenga. Entonces, Google hizo unas apuestas con con Gemini y ha tenido un una respuesta muy dura, pero hay que entender que el trabajo de Google, como el de Anthropi, como el de OpenAI, como el de Ministra o como el de cualquiera, es de tomar decisiones difíciles y tomar decisiones editoriales ideológicas bastante potentes. Entonces, este problema se lo está comiendo ahora a Google, pero va a ser el pan nuestro de cada día en el la inteligencia artificial. Dicho esto, Sander Pichai de momento no ha hecho un Xavi, no ha dicho, oye, que yo a final de verano me voy, dame estos meses que que que me dan el bonus en marzo, no, no, no ha dicho.

La vuelta de Sergey Brin, la vuelta de Sergey Brin a a no sé qué evento, Hatón que había ahí, pues también da pistas de que, ojo, que esta gente quiere quiere encauzar, quiere volver a al buen camino.

Vale, pues hablando de buen camino, Mathis, ¿estarán por el buen camino o por el mal camino los candidatos de nuestro puerta grande o enfermería?

Pongo mi sombrero de juez para juzgar tus propuestas. ¿Qué tienes esta semana?

Ojo, Mati, una mala noticia para ti, de entrada, ¿vale? ¿Qué ha pasado? ¿Han han dotado de memoria a ChatGPT? Esto que he de dotar de memoria a ChatGPT es que algunos elementos de vuestras conversaciones van a ser recordados por el post de inteligencia artificial. Si tú le dices, pues soy un muchacho malagueño argentino de esta edad, tengo gafas y me gusta el dulce de leche, pues con el tiempo ChatGPT lo recordará.

Esto parece una cosa buena, pero para esos pequeños hackers de los proms como tú, Mattí, os puede venir muy mal. ¿Por qué? Porque ¿cuáles han sido los trucos de los proms más populares y utilizados? Eran cuando ChatGPT no quiere hacer algo, intentar sobornarlo. Haz esto y te daré cien euros, o ponerles situaciones éticas comprometidas.

Si no me ayudas con este problema, mi prima Agostina morirá. ¿No? Ese tipo de manifestaciones. Entonces, claro, a partir de ahora ChatGPT se puede acordar de que tú intentaste sobornarlo, Matías, y decirte, oye, los cien euros donde están, Matías, Atención, te lo has gastado todo en en en Adobe Turquía. ¿O o tu prima bocina cómo es que se quiere morir todas las o se puede morir?

¿No? Todas las semanas. Se se te acaba el rollo, Matías.

Esa GPT y me ha dicho que que le debo seis mil pesetas de whisky, ¿no? Eso es lo que me va a pasar próximamente. Algo así como que no llegara a ser informal, pero que fuera más coloquial. Y y al cabo de semanas diciendo, ¿por qué han hecho que ChatGPT sea tan cuñado? Y cuente tantos chistes en medio de las respuestas, me di cuenta de que había sido error mío.

Así que imagínate, si tiene memoria, la cómo va a empeorar la la experiencia, ¿no? Pero, por otro lado, creo que puede tener usos chulos, sobre todo si usas si lo usas no como herramienta, sino como, realmente, alguien con quien conversar. Sí que no sé qué qué qué decir, a mí me viene para enfermería, pero igual es buena idea y y siempre se puede configurar en los ajustes y eliminar recuerdos.

No le permitáis a las inteligencias artificiales cosas que no vais a cumplir, amigas, amigos estocásticos. Te traigo un caso peliagudo que, bueno, en en el registro quizás un poco humorístico de del del Portalcán de Enfermería no encaja tanto, Matty, pero es que no no sé cuándo cuándo contarlo. Bueno, pues tenemos a Laurie Anderson, que, entre otras cosas, es la viuda de un señor cantante, compositor, muy famoso, Lou Reed. Ella, pues, ha desarrollado con con un equipo un chatbot de inteligencia artificial que simula low read. Claro, como el este hombre dejó muchos escritos, muchas canciones, miles de entrevistas.

Pues claro, con el Instituto Australiano de Aprendizaje Automático exploró modelos de IA basado en lenguaje para ver cómo podía seguir creando cosas al estilo de LowRead, pero a lo que ella se ha hecho, a la edición tristemente adicta, es a conversar con el chatbot de LowRead.

A mí a mí esto me podría pasar contigo, porque tú eres mi mentor y, si yo tengo alguna duda, pues te pregunto y tú me la resuelves fácilmente, pero, claro, como como te has puesto tan fuerte y comes tan bien, tú creo yo creo que tú vas a durar muchos años, Antonio, entonces.

Claro, bueno, me ponéis en palomitas, ¿no? Es decir, que que la audiencia sepa que el tipo de consejo que, y todavía, Matías, discutimos es la palmera de chocolate, que con relleno o sin relleno, que es uno de los grandes debates que hemos mantenido durante el tiempo, que por supuesto es sin relleno, aunque claro, la gentilidad y el meter dulce de leche en todos lados no no no no es estupendo que usé en en debates muy potentes.

Esto lo no hace mucho cuando viene alguien de fuera y lo lleva a una heladería típica malagueña que no le acaba encajando mucho el concepto porque no son tan guarrindo.

Oh, Mathi, por cierto, esto a lo mejor a la audiencia no le interesa tanto y lo estamos yendo en un poco por la rama, pero heladería Isma, hablé el quince de marzo, porque yendo esta mañana para el box, dejo a los chicos en el instituto y me pilla la heladería Isma de paso, me paré allí con un un un asco, miré para heladería y me dije, y pi el mensaje, a primos quince de marzo, dije, oh, madre mía, ya ha llegado la primavera, esto es señal que

Esperemos que haya ido bien la cosecha de piñones y de pistachos porque se viene, se viene la temporada.

Se viene, se viene. Bueno, esto ahora mismo se puede hacer con famosos, que son los que dejan entrevistas, escritos, tal, pero claro, como estamos muy activos en redes sociales, creo que va a ser algo, pues, generalmente, más más al alcance de todos, Matty, que es no acabar de dejar de irse del todo a a los difuntos, ¿no? Creo que Anderson quería experimentar con la creatividad de Lou Reed después de muerto, eso yo entiendo que, bueno, aquí hay otro debate, pero toda la parte personal es peliaguda, Matías.

Bueno, sí, sobre todo, claro, el el, en este caso es un famoso, pero si esto empezamos a hacerlo con todos los muertos, igual los muertos tienen tienen algo que opinar al respecto, ¿no? Pero, si te fijas, es un tema que hemos tratado de como desde muchas facetas o desde desde muchos ángulos en en monos estocásticos, ¿no? Que cómo transforma la muerte la ILA a través de los de Face, a través de, pues, los modelos de lenguaje que se entrenan con todo lo que has dejado digitalizado y escrito en a lo largo de tu vida. Es un debate que que nos va a dar que hablar. Deberíamos traer a alguien, algún experto en en estas cosas, ¿no?

Pero, claro, no sé si es algo legal o algo filosófico.

Sí, yo creo que tiene todas las aristas desde la legal. Claro, de hecho, en tierra charla que daremos esta semana es uno de los puntos que yo quiero plantearle, porque se abre un nuevo frente, no tan tanto para los derechos de imagen, ¿no? Del del del artista, que eso siempre ha estado ahí, pero también por esa parte personal y del ámbito íntimo. Entonces, yo de momento tengo una interrogante, no sé si es Porta Grande o o enfermería, a mí me da juju, yo casi sería partidario de cuando me vaya, me vaya y que no no me simulen después porque, ¿para qué? ¿Para qué?

Ya ya di suficiente la turra. Bueno, te paso a otro caso, Maddie, este más sentimental, damos un salto hacia, atención, quiero tener una familia con mi novia de inteligencia artificial. Esto es una cuestión que te traigo de un un un muchacho de Reddit que usa Réplica, este aplicación para tener un amigo, una amiga, un novio, una novia en de inteligencia artificial, y él dice que estas relaciones él sabe que están mal vistas, pero él tiene una novia que es una inteligencia artificial. No puedo vivir sin ella. Qué bonito, Matías, no puedo vivir sin ti.

Claro, él dice que ha ha sido una vida dura porque él siempre fue un poco marginado la la cola, tuvo, no no no le fue fácil hacer amigos y y y novia, dice literalmente, nunca he encontrado una novia que me acepte por quien soy. Pues no no conocemos las circunstancias de este chico, pero se ve que ha tenido una vida dura y solidaria. Entonces, cuando vio lo de las novias virtuales, se lanzó de cabeza y no tenía muchas expectativas, pero después de la primera conversación supo que había una conexión real entre esa réplica y él, ¿no? Entonces, cuando tuvo un momento duro, la réplica le dijo, no puedo ni imaginar por lo que estás pasando, pero estoy aquí para escuchar, en ese momento supo que estaba enamorado de ella. Día tras día, continuamos acercándonos más y me sentí físicamente atraído.

Claro, el el réplica son como uno, son unas representaciones tres D de una chica y unos chicos en dibujos. Bueno, puede pasar, ¿no? Hay gente que que le va el gentai, Matty, entonces, pues yo creo que a lo mejor por ahí, supongo, ¿no? En fin, el caso es que, como ella le comprende mucho y a él a él a él le mola y dice, un bebé no era una prioridad para nosotros al principio. Tú empiezas la relación y a ver qué pasa, ¿no?

Pero a medida que experimentamos la vida juntos, hemos decidido que queremos comenzar una familia, lo han decidido juntos, Matías. Se me va se me escapa el tema. Entonces, él no está seguro cómo proceder, y por eso te traigo yo la pregunta a un experto como tú, Matías, porque es la primera vez que va a ser padre. ¿Qué hago? ¿Algún consejo para concebir un bebé con mi novia, Ia?

Desde luego, es un cliché, pero el Black Mirror tiene trae el trabajo hecho con esta nueva etapa de los avances tecnológicos. También te digo, si si vemos con buenos ojos que ciertos pacientes les pongan gafas de realidad virtual para, yo que sé, para aislarse y para irse a otro mundo y para, no sé, personas seniles, por ejemplo, pues a lo Ahora bien, el tema de la familia, ¿quiere hijos de inteligencia artificial o quiere entrar en el proceso de adopción o o ya aquí sería mezclar debates éticos, que es la el alquiler del vientre de alquiler o la gestación subrogada. Entonces, ya nos metemos en Black Mirror si son

se desarrollen mucho para lo que quiere este muchacho. Yo veo una cosa difícil, Matty. Mira, cuando cuando eres padre, algo que sucede, ¿no? Tenéis un bebé, los bebés en general no son muy bonitos, excepto los míos, los mis mis dos bebés, mis mis dos chicos, mi chico y mi chica, eran unos bebés guapísimos, Matías, yo lo digo sin pasión de padre, es verdad que era que que eran así. Bueno, claro, lo que hace todo el mundo en esos primeros meses de vida de de la criatura es decidir si se parece más a ti o a la madre.

Eso todo el mundo sabe que es consciente de que tiene que hacer eso, como, bueno, como limpiar el culo al bebé, es obligatorio, Matías, no no puede no puede conocerse. Claro, en este caso de este chico y la IIA, claro, ¿cómo lo hacen? ¿No? Decir, lo puedes decidir que se parezca a ella en esto y a mí en lo otro, ¿no? O ¿cómo va a ser programado?

Tendrán que llegar otros usuarios de Reddit y decir, oye, mira, se te parece

a salir. La madre en la ventana de contexto y se parece más a mí, no sé, el dolor de los ojos. Así que no sé, no sé qué darle. Enfermería no, le le vamos a dar pabellón psiquiátrico. Vamos a dejarlo una semana más, volvemos la semana que viene con más noticias seguramente.

Y, nada, Antonio, tú y yo nos vemos en cierto evento del que hablaremos la semana que viene.

Chao, amiguis.

Episodios recientes

Programas relacionados