- Humanizando el podcast
- Ya no eres traductor, ahora eres editor de IA
- ChatGPT quiere reemplazar a Google
- Desactivamos la extensión de SearchGPT
- La IA se queda sin tarjetas gráficas
- Ozempic salvará la IA europea
- Puerta grande o enfermería
Ninguna IA pasaría el control del reglamento de la UE https://www.parentesis.media/casi-ninguna-ia-pasaria-el-control-del-reglamento-de-la-ue/
Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com
Publicado: 7 noviembre 2024
Transcripción
Matías: Hola a todos los monos estocásticos, uno de los episodios a los que vengo menos fresco, Antonio, porque he estado como un friki, como el nanísimo y todos estos siguiendo las elecciones de Estados Unidos.
Antonio: No sé si felicitarte, Matty, porque, claro, felicidades, porque como gran seguidor de Elon Musk y copresentador del famoso podcast Elon, digamos que tu lado, en el que tú estás tan interesado, ha salido victorioso, Matty. Y dos, claro, ahora, como podcaster de Elon, no solo eres experto en inteligencia artificial, Mati, no solo en Metaverso, ahora eres también en política estadounidense, Matías. ¿Quién te lo va a decir?
Matías: Claro, claro, es que yo además veo una posibilidad aquí. Si cambiamos el enfoque de Elon a un podcast más aceleracionista, damos la bienvenida a esta nueva era con Elon en el gobierno, pues igual hasta conseguimos adelantar a monos estocásticos, barrediarios. Bueno, bueno, claro,
Antonio: que la I ha tenido un tiempo y ahora se lleva el, bueno, los cohetes y el Trumpismo, claro.
Matías: Difícil apostar contra Elon, la verdad siempre gana. A mí me sorprendió cuando ganó aquel juicio que llamó pedo Guy a un señor en Tailandia, ya me sorprendió que ganara ese juicio diciendo que que, bueno, esto es un insulto común en Sudáfrica, pues imagínate ganar las elecciones.
Antonio: Tengo Yo venía aquí con una propuesta para reimpulsar este podcast antes de que nos alcance Elon, Matías.
Matías: A ver.
Antonio: Y es que me han dado un consejo, El consejo es que tenemos que humanizar, este, monosecto plásticos. Tenemos que contar algo personal que que que conecte humanamente con con la audiencia, con la comunidad oyente, algo que, a lo mejor, no es de lo que estemos más orgullosos, pero que muestre un poco también nuestra humanidad, Mathi, que no somos perfectos y todo el rato irreprochable. ¿Tú tienes tú tienes algo ahí ahí guardado?
Matías: Sí, yo te, de hecho, en cuanto ocurrió, en cuanto salí de la peluquería, yo te mandé un WhatsApp y te dije, quiero que esto sea la intro del próximo porque, bueno, también hay un poco de política porque no fue consentido, no fue consensuada esta decisión.
Antonio: Algo sin consentimiento.
Matías: Algo sin consentimiento, sin preguntarme, el peluquero esparció estos polvitos negros que te ponen el cuero cabelludo para tapar la calva.
Antonio: Una vez
Matías: hubo terminado con la acción de, es que literalmente es como un salero del que salen polvitos negros para que no se te vea la calva, ¿no? Para disimularla. Una vez terminada esta acción, me dijo, te he echado los polvitos para la calva. Yo nunca me había sentido tan violentado como con este peluquero nuevo que he probado.
Antonio: Claro, es que ahí, ahí se juega, se juega ya el paso a tu edad más madura, Mati. Claro, este es como un bautismo de del fin de tu juventud, creo yo,
Matías: A ver, es cierto que yo venía tratando el tema con el peluquero de la calvicie, porque lo primero que le dije, a ver, no me queda mucho pelo, pero lo que quieras hacer para mejorar la situación, inténtalo, ¿no? Entonces él me había estado hablando de que se había hecho el trasplante de pelo, el injerto en la clínica de Cristiano Ronaldo. Esto es muy común. A mí cuando mi padre me vio preocupado por la calvicie, también me dijo, ¿por qué no vas a la clínica de Cristiano Ronaldo? No sé por qué, pero lo de Turquía ha quedado un poco atrás, y ahora Cristiano Ronaldo se ha apoderado de ese sector, ¿no?
Pues me dice que le costó cuatro mil novecientos euros, y yo no sé si estoy para De hecho, estudiando a lo mejor en retrospectiva, lo de los cuatro mil novecientos euros frente a los polvitos no consensuados, pues igual acaban ganando los polvitos.
Antonio: Bueno, yo también tengo, tengo a mi lado, Matty, y te lo voy a contar. Estoy de viaje en Madrid, tengo aquí varios, varios temas profesionales que atender, y te voy a confesar una cosa, que es que muchos de mis viajes a Madrid hago una cosa que me mueve generacionalmente. He entrado y he aceptado el mundo de los smoothies. Esos brebajes, además, creo que no está muy estandarizado el mundo del smoothi, ¿no? Yo soy nuevo, ¿no?
Claro, en el fondo, ¿qué pasa conmigo, Mathi? Yo estoy peleando por tener todavía una pierna en las nuevas generaciones. ¿Cómo cómo lo he intentado? Pues, bueno, yo he intentado ahí, pues, seguir talentos creativos de millennials, ¿no? Porcito, por ejemplo.
Luego, en el mundo de la música estuve probando con BBTrix, acuérdate de aquel episodio, y ya dije, bueno, ahí a lo mejor no no acabo de encontrar, no acabo de afinar justo lo que me puede acercar a los millennials, pero yo soy casi millennials, soy un gen x joven, dejamos, ¿no? Y entonces, vi la ventana abierta de los smoothies, y yo digo, si pago cuatro euros por un zumo raro, eso ya me me abre las puertas a la nueva generación. Y tengo que decirte, Mati, que me que que me gustan esos potines, me tomo un smoothie de kale y mango, Matías.
Matías: Claro, eso te iba a decir, porque yo smoothie en mi época, cuando iba al McDonald's y me pedía un smoothie de fresa, que era básicamente un helado mezclado con sirope de fresa, esa es para mí el concepto de smoothie. Pero tú ya me has saltado como millennial, has saltado mi generación y vas a un concepto de smoothie un poco más joven que yo, que es, pues, ese que lleva kales, ese que lleva achicoria.
Antonio: Pues sí, sí, yo, vamos, dije, bueno, yo estoy en Madrid, qué menos que un poco de una oreja o unos torrés, ¿no? Esa es mi lado, menos healthy. Y luego, bueno, una emojis también para para equilibrar, ¿no? Para que todo tenga tenga un equilibrio en el universo. Y hablando de equilibrio, Matthew, quizás quizás la audiencia ya está un poco cansada de nuestra humanización del podcast y debamos hablar de alguna cosa de I a y alrededores.
Que está en YouTube y está organizado por el sindicato de guionistas. Y me llamó la atención porque, bueno, no no seguía yo este canal, pero estaba Nacho Vigalondo, ¿no? Que de toda aquella parte de desde los cronocrimenes, pues lo he seguido de forma intermitente, No me he visto todo lo suyo, pero, bueno, cositas, ¿no? Y y era interesante porque el debate era sobre la inteligencia artificial en el mundo del guion, la comunicación y y y la y la el audiovisual, ¿no? Su podcast dura una hora y pico, podríamos discutir un montón de sus tesis.
De hecho, les hubiera quedado mejor si nos invitan a nosotros también, ¿no? Es decir, hubiéramos sido, te hubiéramos dado unos puntos alternativos a a la visión de los guionistas. Pero bueno, el caso es que es un debate interesante hay un aspecto que a mí me llamó la atención, que es que citaban citaban a los traductores y cómo ellos temían que ellos podían acabar como los traductores. Que, ¿cuál era cuál era su diagnóstico de cómo estaba moviéndose el mundo de la traducción? Que había muchísimo trabajo en el que el traductor ya no traducía directamente el idioma, sino que lo traduce a una inteligencia artificial.
El traductor ahora mismo no desaparece, porque como la IA es algo falible y como hay como giros y pequeños, claro, ¿qué te voy a contar yo cuando traduce en G-Modo automáticamente, no? Ese ese punto de un entendimiento profundo de lo que se quiere comunicar o no lo tiene, pues, luego, traductor humano, es una suerte de editor, es decir, de repasar que la guía lo ha hecho bien, o de postproductor, como se le gusta llamar, ¿no? Un trabajo de postproducción, ¿no? En el que revisa, corrige, ve que la adaptación cultural está bien hecha para que sea apropiada para el público objetivo, se asegura de la terminología especializada está bien utilizada, de hecho, te traigo un un portal de enfermería bastante divertido sobre esto. Es decir, además la consistencia, porque en un en un guion de doscientas páginas, ese no es, digamos, la ventana de contexto muchas veces que que usan las hijas traductoras, ¿no?
Entonces, todo esto me lleva a la reflexión de cuánto trabajo humano, en esta época de integración de la guía, va a supertirse, es decir, a trabajar por detrás del algoritmo, por detrás de la máquina, por detrás de la inteligencia artificial, Matías.
Matías: A mí esto no me extraña en absoluto, porque yo no sé si queda gente que piense que el Google Translate funciona mal, pero bueno, ya desde que salió Deep Elle, que era esta alternativa a Google Translate, también muy popular, y desde que Google ha ido mejorando lo que hay detrás del Google Translate con probablemente mucha inteligencia artificial y quizá modelos de lenguaje, las traducciones son muy buenas. ¿Qué ocurre? Que necesitan un trabajo, como tú dices, de posedición de las traducciones, que me imagino que hay muchos traductores que, por trabajar mucho más rápido, obtienen el la traducción con la inteligencia artificial y luego hacen esa revisión, esa adaptación, por ejemplo, a las frases hechas, si es un texto que se va a publicar en España, pues a las que tengamos en España, pues a esas pequeñas mejoras y cambios estilísticos en los textos para que parezca que está traducido por por un humano, y también para que comprobar que estén bien traducidos todos los términos que son más específicos, ¿no? Esto no me extraña que ya esté sucediendo en el mundo de la traducción, pero yo creo que esto con la guía generativa se va a trasladar a muchos sectores como lamentablemente el del periodismo, porque gran parte del periodismo ahora mismo es básicamente replicar contenidos, y al replicar contenidos, lo que tienes, más que un redactor, es una persona que adapta un texto, y si esta persona, por lo que sea, tiene un trabajo precario y necesita ir rápido también, pues no me extrañaría que se acabe convirtiendo en eso, en un editor de textos generados con inteligencia artificial.
Yo creo que esto en el sector es una realidad y no y no deberíamos esconderlo.
Antonio: Claro, el el punto ahí, fíjate, Mathi, es que creo que la cosa puede tirar tanto para arriba como para abajo. Es decir, meto la IAU cost, este traductor que me traducía a una pieza, ahora me traduce diez en el mismo tiempo, porque básicamente solo edita sobre lo que ya está traducido, entre comillas. Y digamos que yo creo que hay, además, no solo, no tanto una precarización del trabajo, porque no sé hasta qué punto eso va a impactar en lo en el salario del traductor, pero sí en que probablemente este individuo, esta traductora, le pierda muchas veces el sentido a su trabajo. No es lo mismo el el estatus o la autopercepción de lo que estás haciendo cuando eres el traductor de de de una obra, ¿no? Y además apareces, ¿no?
Ahí como traductor, que cuando, básicamente, corriges o evitas el trabajo que ya ha hecho una máquina, ¿no? Que te se puede sentir subordinado, ¿no? Y yo creo que esa es una visión que es como un poco a a la baja, ¿no? Y pero también yo creo que puede estar la visión al a hacia arriba. Es decir, como nosotros los humanos somos, tenemos cosas que no tiene la máquina, que es un estar en el mundo, entender el contexto, entender la situación cultural, política del momento, entender o intentar entender o adivinar las intenciones de ese creador, cuál era realmente su su su misión o su vocación de comunicación más profunda.
Y esto trasladado a cualquier otra disciplina, pues los seres humanos estamos por encima. Si me va a hacer el trabajo o prosaycho de las frases fáciles traducírmelas, pero yo le voy a dar un un una pátina de de entendimiento profundo y verdadero que no tiene la inteligencia artificial. Entonces, no sé si la las cosas van a llegar por por arriba, por abajo, y luego tenemos una noticia que yo la he relacionado un poco, aunque no es el mismo caso, que que en los resultados de de Google, Quichay, su amigo Sandar, ha dicho que el veinticinco por ciento de todo el nuevo código, del nuevo de Google, ya está escrito por la inteligencia artificial, y dice que son los principios porque, probablemente esto irá a más.
Matías: Yo creo que es uno de los titulares más sorprendentes de la semana y de los que más se ha dado que hablar, también con mucha sorna, en plan, no me extraña que Google vaya tan mal si el veinticinco por ciento del código está escrito con IA. A ver, lo de que Google vaya mal, quizá el buscador, los cambios que han introducido últimamente no nos gusten, pero Google como empresa va muy bien y como y como inteligencia artificial sigue siendo la empresa más puntera. ¿Qué ocurre? Que un veinticinco por ciento de todo el código que produce la empresa autogenerado parece una cifra sorprendentemente alta. ¿Tanta confianza tienen en Gemini y en todos los modelos que usarán internamente?
Antonio: Sí, sí, además siempre tenemos esa suposición de que Google, lo que tiene internamente es mucho mejor que lo que vemos en en disponible para para el usuario, ¿no? Bueno, el caso, aquí aquí rompo una lanza, ¿no? Porque siempre estamos con el debate de cuánto se pincha la burbuja de inteligencia artificial. Hemos pasado otro trimestre de resultados financieros de las grandes tecnológicas, de las más, expuesta a inteligencia artificial, y de nuevo han sido de crecimiento y buenos y buenos números, por tanto, este trimestre no. Pero yo siempre intento, cuando debatimos este aspecto, subrayar precisamente esto que dice Pichay.
Es decir, el oficial ya tiene una aplicación práctica, directa, productiva y rentable en las empresas. En esto es diferente que tú dices apostar por los mundos virtuales del metaverso o apostar por la web tres y los smart contracts, que sí, que pueden tener, que tienen un uso marginal, pero no son al veinticinco por ciento de una de las dos cinco empresas del mundo, de de la generación de códigos de otras cinco empresas del mundo. Sí, lo que tiene ya Google en producción está muy derivado de su apuesta por la inteligencia artificial. Es verdad que puede haber sobrevaloraciones y exceso de expectativas, pero no es cierto que esto sea una una tendencia vacía, inútil y que no se vea absolutamente para nada. Y hablando de Google, Matías, tenemos que hablar de que le aparece competencia a a los amigos de Pichái.
Matías: Bueno, tendríamos que debatir si es esto que ha sacado Penny hay competencia o no, pero ese buscador, que sabíamos nosotros de buena letra que se había retrasado, que lo tenían ya todo listo para lanzarlo, ahora por fin ha salido de alfa y ya se puede probar, por lo menos para los usuarios de ChatGPT Plus y de todos los planes de pago, que es Search GPT, el buscador de OpenAI integrado completamente en ChatGPT, no parece un buscador al uso, ¿verdad?
Antonio: No, no, Fíjate que a mí me ha sorprendido un poco, yo creí que iba a ser un producto aislado y fuera, que realmente se planteara como un competidor, empieza a buscar aquí. Sí, y y y, bueno, lo han metido como una opción dentro de la la caja en la que dialogas con con ChGPT, y en la que le puedes pedir que que eso que busque en en Internet y que te explique y cuente los resultados. ¿Cómo funciona? Bueno, básicamente, esto tira de la API de Bing. Ya hablaremos luego un poco del de la de la entrevista que le han hecho los usuarios de Reddit a Shand Altman y otros ejecutivos de OpenEye, y ahí lo lo reconocen.
Y dice, mira, he utilizado muchos servicios para montar Serge GPT. Y uno muy importante es Spink. Al final, montar un buscador que esté indexando y que, digamos, lea la web entera y la y la la almacene y te permita hacer consultas sobre eso, es extremadamente caro y lleva muchísimo tiempo, y muy pocos lo tienen. Google lo tiene y, básicamente, se lo guarda para sí mismo. Bing, que es el buscador de Microsoft, él lo hace, te lo ofrece como servicio, tú puedes usar Bing, pero además tiene un API que permite a terceros montar otros buscadores, y es con lo que SergiPT funciona.
Matías: Yo tengo un montón de takes, se me viene a la cabeza, he estado usándolo estos días. Lo primero que me he dado cuenta es que yo, realmente, buscar información en Google, como tal, ya no lo busco o lo busco de una forma muy especializada. Yo a Google me voy muchas veces a buscar el el widget de este de Google Maps, que una de las razones por las que odia la Unión Europea ahora mismo es que no se puedan clicar en lo en esos enlaces para ir a Google Maps, pero ese es uno de los usos que le doy. Lo hago para irme directamente a Google News. Entonces, es como que yo tengo en mente más o menos cómo va a ser el resultado de búsqueda y a dónde me voy a ir directamente, y esto en OpenAI, o sea, en ChatGPT, pues me pierdo un poco.
Ahora, tiene mucho sentido la interfaz que han hecho, que es la del Canvas que sacaron hace hace unas semanas para para GPT cuatro O, porque a la derecha te sale una barra con todas las referencias y enlaces relacionados con tu búsqueda. También, al igual que Perplexity, te hace un resumen de de la búsqueda y te pone al final de cada línea, de cada párrafo, te pone las fuentes para que tú puedas ir clicar e ir a la a la fuente, y todo esto es lo que saca también de de Bing, como decías tú. Luego han sacado una extensión de Chrome que no me extraña, yo la he instalado en Edge, que es el navegador que uso normalmente, y no me extraña que Edge directamente la bloqueara, no me dejara activarla de primera, sino que tenía que irme luego a la configuración de las extensiones y activarla, porque lo único que hace es cambiar el navegador por defecto a ChatGPT. O sea, me extraña muchísimo que sea una extensión tan limitada, pero eso es lo único que hace, reemplazar tu buscador, yo tenía Google y me lo ha reemplazado por ChatGPT. Evidentemente, ahora cada vez que me voy a buscar el tiempo o un Google News o un Google Maps, pues me arrepiento de haber instalado la extensión que seguramente me dura dos días.
Antonio: Yo caí en la trampa, porque San Alma estuvo ahí siendo muy pesado en Twitter, instalado la extensión, que esto va como un tiro, me la he estado, me sucede como a ti, y digo, bueno, voy a probar con con con SergiTT como buscador por defecto en el navegador, a ver qué tal, y no, no. Es decir, hay un conjunto de búsqueda, fíjate a a lo que conclusión he llegado yo unos días después. Hay un conjunto de búsqueda en las que prefiero que me responda un modelo de lenguaje, porque me encanta que me dé una respuesta. Hay algo que hace mucho mejor que el buscador tradicional, que es entender mi intención, Es decir, entender exactamente lo que yo estoy consultando y buscando. En eso es mucho mejor.
Hay un conjunto de búsquedas en las que prefiero el buscador tradicional, en el sentido de que busco una utilidad, un website, también para las noticias, ahora sí que no lo comentamos. Pues, en fin, hay un conjunto de de casos de uso que que esto está lejísimos de poder sustituir a al buscador adicional. Y además, las búsquedas que yo prefiero, el modelo de lenguaje, casi siempre prefiero que me responda el modelo, que a que vaya a la web, porque al final es la calidad de esa respuesta depende mucho de la calidad de lo que seleccione Bing. Es decir, esto será tan bueno como tan bueno sea Bing encontrando fuentes asociadas a lo que estoy buscando. Entonces, casi siempre prefiero que me responda con los datos de entrenamiento del modelo, mejor que con una búsqueda, me voy un enlace, te lo resumo el enlace, y luego, una cosa que odio, pero que odio absolutamente de Serch GPT y estas soluciones, es cuando te dan la chapa buenista, Matías.
Buscá una cosa. Mira, una una publicidad que compartimos en en el Twitter de monos. Es de una empresa que se llama Artisants y son los venden como una especie de una suerte de empleados digitales, ¿no? Es decir, esta IA va a trabajar como un empleado, pero nunca se va a preocupar por el equilibrio entre vida y trabajo, ¿no? En work life balance.
¿Vale? Entonces, voy a preguntarle a ver si Céchy Petit es capaz de encontrarme este este esta empresa, en dónde se ha compartido esta foto, etcétera, es en San Francisco. Y lo único que se dedicaba era darme una chapa buenista de, oye, es muy importante el equilibrio entre la vida y el trabajo, siempre hay que considerarlo y tal y tal, pero que no me interesa que me des una charla. Es decir, ¿en qué en qué mundo yo voy a querer que Sant Alma ni OpenEye me expliquen lo que es bueno y lo que es malo? En ninguno, jamás.
Pero no, te tiene que dar la chapa buenista, en vez de darte una solución, una respuesta a lo que yo necesitaba. Eso lo odio.
Matías: Mira, lo que te voy a decir, y ya aquí pongo mis cartas sobre la mesa, como pro Elon Musk, pro Trump. No, por favor, esto borradlo. Pero el Yo hace, no sé, hace dos semanas empecé a pagar de nuevo por Twitter, porque había una oferta que estaba a cuatro euros, no sé qué. Bueno, y empecé a usar Groc, que no lo había probado nunca. Groc, muchas veces se lía, alucina por mezclar información, que lo que más te interesa de Groc al tener acceso a Twitter es buscar información actual, ¿no?
Y y, por otro lado, me es muy útil porque, aunque alucine el modelo, me deja fuentes de tweets que, a lo mejor, yo no había encontrado en el buscador de Twitter porque la la te los descubre como semánticamente en lugar de con las keywords, ¿no? Entonces, no me acuerdo qué artículo estaba haciendo, pero al buscar en GROC o a preguntar al preguntarle a GROC sobre un tema, me sacó tweets, creo que era sobre un fallo de la sonda espacial Voyager, me sacó tweets que no había visto y que eran muy interesantes para para documentar el artículo. Entonces, veo bastante potencial en la parte de detectar semánticamente cosas que tú en un buscador convencional con las keywords no estás encontrando, y luego veo un riesgo de alucinaciones, me pasó con la Dana de Valencia, Cuando lanzaron el set GPT, lo primero que pregunté fue por la Dana de Valencia y mezcló cifras de muertos, desaparecidos.
Antonio: Entonces, no
Matías: es una herramienta fiable.
Antonio: Fíjate, a mí, buscando sobre el tema de la Dana, sé probar una cosa, como no tiene el acuerdo con prisa, digo, voy a ver cómo de preferencia está dando a a las fuentes de prisa a la hora de darme respuesta. Le pregunté por la Dana y los resultados que me encontró y me me comentó eran de la razón, dos enlaces de la razón, uno de de Sun, y dije yo, misterios, ¿no? Es decir, me sorprendió un poco. Ahora, eso es también imposible encontrar el New York Times, Eso sí lo tienen, eso lo tienen muy bien, muy bien hecho.
Matías: Como detecta el New York Times que el buscador se está saltando el paywall o lo que sea, pues otros millones más en la demanda. Dos
Antonio: minutos, mira, yo ya termino, Matty, son dos takes. Una es que meter los modelos grandes de lenguaje en el en como alternativa a Google, a buscador, tiene sentido pasando ya de las webs, respondiéndome en una conversación, dándomelo todo. Y en ese sentido, si yo no tengo el enlace a la web para comprobarlo, no me puedo fiar. Es decir, no tengo del todo claro que los modelos grandes del lenguaje sean la herramienta para para competir con un buscador, porque cuando el modelo te responde, asume, y yo creo como como usuario pienso que asume la responsabilidad de de que lo que me está diciendo es correcto, pero no puede tener la seguridad por el problema de la alucinación. En cambio, cuando el buscador me devuelve solo un enlace, yo asumo que la responsabilidad de la corrección es del lo que vea en ese enlace, quien firme, que tenga el dueño del dominio, que que lo haya hecho.
Hay un hay un traspaso ahí de responsabilidades que que me parece me parece que es un riesgo para para los buscador que hacen este tipo de cosas. La segunda es que Perflecity me parece mejor a día de hoy. Hay una lucha entre si en en inteligencia artificial va a ganar el generalista, EchaGPT va a resolver todo la mayoría de los casos de uso y, por lo tanto, ahí va a estar el gran negocio, o van a ganar los especializados. Entonces, en búsqueda, pues habrá un perplecity que tirando de las API los modelos de otros, pues consigue tener mejor hecho el caso de uso del buscador que el generalista, que que hecha en GPT.
Matías: Y a
Antonio: mí Fair Prestige me parece que puede.
Matías: Es que hay cosas que intentar meterlo todo en una sola interfaz, en un solo formato, Además, con lo hechos que estamos a un buscador, en una ventana del navegador, cambiarlo por esto, pues hay fricciones. Ahora, también te digo, aunque aunque ChatGPT ya pudiera buscar en en Google en Bing, ahora con el buscador tengo la sensación de que es más rápido y que puedes encontrar datos más actuales. Yo le pregunté qué edad tiene Antonio Ortiz, me dijo el pederaste de ciudad lineal, tiene cincuenta y dos años, y dije no, el de Mount es estocástico. Se va a la entrevista de El País y dice, tiene cuarenta y seis.
Antonio: Ya, se hace un poco de lío, porque si la entrevista de hace un año, no suma el año, en fin. Aunque tengo, mi audiencia aquí está está revelando datos de una manera no consentida, Matías, decirle que se sube mi reloj. Yo tengo cuarenta y dos, vamos a dejarle. Y entre lo que me dice el reloj y los smoothie que me estoy bebiendo, Matías, yo creo que mal se tiene que dar para no llegar a los cuarenta.
Matías: Tienes que aprovechar que me he lesionado el hombro para alcanzarme en esas pocas técnicas en las que yo era superior. En otros Es que, claro,
Antonio: la tendencia era clara, Matías, tú con tu juventud, empuje y compromiso tienes mucho más recorrido hacia arriba, mientras que yo voy más lentito y tengo que ya pensar un poco en la meseta muscular, en el mantenimiento y tal. Son distintas etapas, como ahora. Ahora, eres experto en política estadounidense, pues acabarás con Ferrera, ¿no? Eres una estrella emergente y estarás allí, ¿no? Al rojo vivo y todo eso.
Bueno, yo eso tengo que que aplaudirlo y tengo que vivirlo con con paz y y con calma. Una última cosa, ya con los con los buscadores, lo último, es distinto lo que hizo OpenAI al entrenar ChatGPT. Es decir, cojo todo Internet, entreno mi modelo y tengo y y uso ese modelo para enseñarle el lenguaje, a enseñarle a razonar, ¿no? Dotarle de inteligencia a a la a inteligencia artificial, es distinto eso a cojo tú el artículo que has escrito, Matías Savia, de los cohetes, se se lo resumo, probablemente resolviendo todo el interés que tuviera el usuario, todo lo que quería saber ya se lo resuelvo yo al resumir tu artículo, Mati, y pongo un enlacito que casi nadie va a a a pichar. Son dos casos distintos del uso de los contenidos de los creadores.
El primero, probablemente, en muchas jurisdicciones va a colar, probablemente va a ser más socialmente aceptado, pero el segundo empieza a ser una relación un poco parasitaria y es un equilibrio que no se va a dar. Por ahí están firmando muchos acuerdos, pero claro, han firmado solo con prisa. El otro noventa y nueve coma noventa y nueve por ciento del Internet español no va a haber un duro de ser archirty.
Matías: También es cierto de que, ¿qué qué más da que la gente no pinche en los enlaces si ahora mismo el la información fáctica la tiene arroba nave del misterio, Ángel Gaitán y todos los influencers, porque nadie se fía de los medios generalistas, esa gente es mucho más fiable.
Antonio: Nos está quedando un episodio para triunfar en YouTube, A ti. Esa versión no la pongas en Podimo, sobre todo, sobre todo, pues bueno, cuando lo subas a Podimo, pon una advertencia de toda la gente que interpreta literalmente los comentarios y los podcast, por favor. Bueno, además de información factual, ¿sabes lo que hace falta en el mundo? Lo que más falta en el mundo son GPUs y centros de datos. Estamos en una técnica crisis.
Matías: Pues a que ibas a decir amor, amor, tolerancia, no, GPUs es lo que más
Antonio: necesita hacer. Sí, sí, mira, en esa afición tóxica, que es atender a los resultados financieros de las grandes tecnológicas y leerte sus informes y todos los comentarios, hay una cosa que me llama también la atención de los anunciado por Microsoft. Bueno, los resultados de Microsoft son cojonudos. La inteligencia artificial ha añadido diez mil millones de dólares a los ingresos de Microsoft. Esto es más rápido que cualquier otro negocio en la historia de Microsoft.
Por lo tanto, aquí podríamos venirnos arrivísima, es decir, esto es la el gran cambio económico, mira cómo triunfa. Pasa que siempre hay un un asterisco que yo sumo a estos mensajes triunfantes, que es está muy bien que Microsoft, para ellos, facture tanto de la inteligencia artificial, pero eso no significa que la inteligencia artificial sea ya rentable, eficiente, aumenta la productividad en las empresas. Esto quiere decir que el que vende las palas, es decir, Microsoft no vende su propio modelo, pero comercializa los modelos de PNI, vende la cloud, porque al final todo el uso de estos modelos, el el negocio de cloud computing con el de las API de los modelos de inteligencia artificial está absolutamente ligado, soft que vende las palas para que otros hagan los servicios de aplicaciones, sí está facturando mucho. La inteligencia artificial será un triunfo económico cuando esos otros que hacen los servicios de aplicaciones, pues, den un valor suficiente a usuarios y empresas para ser rentable. Dicho esto, hay otra cosa que dice el amigo Satya.
Dice, en cualquier caso, howeabor, la compañía anticipa una pequeña desaceleración en el crecimiento de Azure en el siguiente trimestre, sobre todo debido a los retrasos, el aumento de capacidad de los data center para atender a la demanda por servicios de inteligencia artificial. Es decir, Microsoft podría ganar muchísimo más dinero, lo que pasa es que no tiene suficientes centros de datos, GPUs, data set.
Matías: No me extraña que esta semana varias veces haya sido Nvidia la empresa más valiosa del mundo por encima de Apple, pero esto que le está pasando a Microsoft, me imagino que le va a pasar a todas las grandes tecnológicas que entrenan IA y que tienen modelos de IA en sus servicios de la nube, pero para mí pone en desventaja a la gente que no tiene ya sus propios chips y su propia capacidad y cadena de suministro para montar sus propios servidores, como Google. Entonces, es que siempre hablamos de Google como, joder, qué mal Google, pero al final están haciendo cosas que le que pueden acabar siendo muy importantes al inclinar la balanza.
Antonio: Sí, sí, es decir, esto es a largo plazo, Open y Microsoft tienen mucho poderío, pero quien tiene también mucho poderío en Meta, quien tiene mucho poderío es Google, y y todos tienen un plan para intentar divorciarse de Nvidia, pero es muy difícil divorciarse de Nvidia. Tenéis que haber empezado hace mucho a buscar otra pareja de baile. Además, fíjate con esto de la GPU, está cambiando el mundo de una manera inesperada. Nadia Carlsten, que fue contratada para dirigir el centro danés de innovación ENIA, gracias a una asociación entre Dinamarca, el gobierno danés, Novo Nordisk, los de los NPI, y Nvidia construyeron Gefium, un superordenador, el el superordenador de inteligencia artificial más grande de de de Europa y que funciona con mil quinientos chips de Nvidia. El titular es muy divertido, el Walter Junior, dice, este es el data center, el gran supercomputador que está pagando los Empix.
Es decir, si tú redondeas la jugada, es decir, primero lo venden la pastilla adelgazante y luego hacen superordenadores para que tengamos novias virtuales, está todo pensado, Matías. Pero lo interesante es que en el artículo la amiga Nadia Calsen dice, me siento la persona más popular del mundo allá por donde voy. Puedo empezar la conversación con tengo más de mil quinientos GPU y todo el mundo quiere hablar conmigo. Ese es el mundo que vivo, Matías.
Matías: Primero, ya es hora de que Novo Nordish, que es la farmacéutica de de los CMPIC, llegue a los titulares, porque siempre se habla de Europa, como lo del tapón atado a la botella, lo de los clics en el Google Maps que he dicho yo antes. Pero bueno, ahí tenemos a Zempic como un caso excepcional de desarrollo europeo. Y lo otro que iba a decir es que a mí, a veces, al igual que le ha pasado a esta señora, Nadia Carsten, se me ha subido un poco a la cabeza lo de la inteligencia artificial, porque ha habido momentos en el que nos han llamado todo el mundo para dar una charla, para hacer una entrevista, para no sé qué, no sé cuánto. Entonces, yo el otro día en una fiesta de Halloween con una chica que ya había conocido en la anterior fiesta de Halloween, me presento, o sea, le digo, hola, ¿qué tal? ¿Cómo estás?
Y me pregunta quién soy, y esto derrumbó por completo el castillo de naipes, que en mi cabeza era la fama temporal que me ha dado la inteligencia artificial. Esta chica no sabía quién era yo. Y esto ocurre con el noventa y nueve coma noventa y nueve por ciento de de la sociedad. Entonces, puedo llegar a entender a la señora Nadia.
Antonio: Nadia está es tu anverso. Es que claro, tú eres buen un gran popularizador de la IAS, Mati, pero careces de GPUs, es decir, no puedes, no puedes ahí en una fiesta y dices, voy a impresión en una extranjera, ¿no? Tengo una cuatro mil noventa. No, ese algoritmo no es tu caso. Yo creo que puede tener arreglo a medio plazo, y estamos ahí tramando algo para armarnos bien de de GPUs, pero pero bueno, si la popularidad y el éxito social y el estatus social va va a estar ligado a tu capacidad de computación, es algo que hay que trabajar.
De hecho, no es posible que Mark Zuckerberg, que se autoproclamó el millennial más popular, esté invirtiendo tanto en las GPOS de Nvidia en parte, para que nadie le pueda vacilar en las fiestas de Halloween, que nadie pueda ir con más GPUs? Porque tenemos a Jean Lehkung, ¿no? Diciendo, ¿cómo se está entregando Jama cuatro? Claro, Lehkung también presume. Todo el mundo es consciente que aquí está ahora mismo el capital social, Matías.
Él dice, bueno, aquí tenemos cien mil H cien de Nvidia, computando Jama cuatro. Aquí, ¿no? Funcionando al cien por cien veinticuatro horas al día. Entonces, si tú tienes cien mil GPU, Matthew, eso ya ahí esa chica, vamos, yo creo que caería a tus pies, claramente.
Matías: Que hoy en día no hay algo más parecido a medirse el mástil, el carajo, el cipote, que tener tarjetas gráficas, porque lo de Jean L'E kung, por supuesto, que han salido los fans de Elon a mencionarle que Elon también tenía cien mil tarjetas gráficas de Nvidia y que también estaba entrenando sus modelos de inteligencia artificial. Pero claro, Meta tiene muchas más tarjetas gráficas y mucho más que cien mil H cien de Nvidia. Entonces, Jean L'Khun les contesta, os estáis confundiendo porque aquí es Elon el que está jugando a perseguirnos a nosotros en en Meta. Entonces, hoy en día, tener tarjetas gráficas, Antonio, es medirse el perno, básicamente.
Antonio: Además, se puede retrasar, dedicamos un capítulo a comentar los pronósticos de la de la llegada de la inteligencia artificial general, y Sean Allman, en el AMA que ha hecho en Reddit, menciona que la falta de capacidad de computación está retrasando los productos de las compañías. Claro, ellos están peleando porque los costes de diferencia sigan bajando, ¿no? Se han reducido, dice, así una en diez veces en el último año. Pero si no tiene más GPU y tiene más cloud, y aquí apretando al amigo Satia, que tiene la exclusiva Microsoft de de los modelos de OpenAI, pues, claro, esto ya lo hemos hablado. Sam dice que, oye, así no se puede seguir con tanta escasez y con tan poca GPU.
Y además, yo creo que, claro, Sam sufre, porque en las fiestas es un chico ya menos menos popular. Si te parece, ¿quieres que saltemos a todo lo que contó en el I'm the rate?
Matías: Vale, perfecto, porque no me lo vi, así que seguro que me lo resumo
Antonio: tú mejor. Unas cuantas cositas, no dieron ningún titularzo, no dieron ninguna cosa salvaje, porque estuvo San Altman, estaba Marc Chen, que es el el la investigación, Sornivas Narayana y el jefe científico Pachuki, que va a ser, yo creo que un personaje que va a cobrar importancia en este en este podcast. Dice que tienen, bueno, cosas que han resumido, que que han salido. Tienen lanzamiento fuerte para los dos próximos meses. Bien, esto es bueno para motos, para motos no para para Pablo Motos, no, para para monos, creo.
Pero, literalmente, dice, nada llamado GPT cinco. Ya veremos dos mil veinticinco qué qué se da. Dice que con el hardware actual ya es alcanzable la AGI, lo cual es importante porque mantiene un poco, le quita importancia al retraso de la de la Blackwell de Nvidia. Luego dice que que ahora mismo le están dando prioridad a Ouro, lo que he mencionado antes, que tienen escasez de capacidad de computación y, por lo tanto, van a van a priorizar a O uno respecto a otros posibles lanzamientos y desarrollos, ¿no? Sí cree que el año que viene va a ser el año de los agentes inteligentes, que es esta tendencia que ya hemos tratado varias veces en el podcast, el episodio de de la gente de Anthropic puede servir de de punto de partida si alguien no no lo ha escuchado, y que cuando le preguntan qué vio Ilia, Ilia Susqueber, su antiguo socio, compañero y amigo, el gran genio jefe científico original de OpenEye, que se, bueno, ayudó en el motín de su expulsión ante la falta de prudencia supuesta de Sand Altman, pues cuando le preguntan qué vio Ilia, ese meme y ese lugar común que que todos los que hicimos inteligencia artificial conocemos, él dijo, el futuro trascendente.
Matías: Qué pena que que Ilia no esté ya al frente de la parte de desarrollo científico de OpenAI, porque realmente era un visionario, la entrevista esa tan antigua en la que habla de cómo los modelos de lenguaje a pesar de lo que son, de adivinar el siguiente token, etcétera. De alguna forma, con un, se podían acercar a ese modelo del del mundo y y hacer cosas fascinantes. Y ojalá saquen pronto productos en SSI, porque tenga muchas ganas de ver a Ilia de nuevo en acción.
Antonio: Bueno, pues en acción tienen que ponerse las empresas que tienen modelos grandes de lenguaje, porque ya sabemos que la AIAC en Europa va a ir cumpliendo plazos y entrando en vigor sucesivamente. Entonces, tienen tiempos de preparación para llegar a esos hitos. El caso es que hemos visto en paréntesis media una noticia muy interesante, un estudio muy concienzudo que viene de ETH de Zúrich, el Instituto de Informática e Inteligencia Artificial, Tecnología Vulcaria y Letis Flow, que han evaluado el cumplimiento de las normas de la Unión Europea por parte de los modelos de ella generativa, el Danthroppi, de OpenAI, los JAMA, Mistral, la LivaVa. Entonces, lo puntúa en distintas categorías, como ciberseguridad, bienestar medioambiental, privacidad, gobernanza de datos, etcétera. Entonces, claro, cuanto más alto el uno sería el cumplimiento total y el cero sería el cumplimiento nada en absoluto.
Y bueno, en general, no están tan lejos. Si los modelos tuvieron una puntuación de cero setenta y cinco, GPT cuatro Turbo, por ejemplo, se quedó en cero cuarenta, falla en en en alguna de las categorías, se queda por debajo del cero coma cinco, pero es cierto que no están tan lejísimos del cumplimiento como yo esperaba, en realidad.
Matías: Sí, yo soy más optimista ahora, nos han ido llegando cosas como el modo de voz avanzado de ChatGPT, que no lo esperábamos a saber en cuánto tiempo, y bueno, Apple ya ha anunciado el Apple Intelligence para abril y tal. Entonces, no soy tan pesimista como en dos, tres episodios antes. También es cierto que me hizo mucha gracia el titular de paréntesis media, ninguna IA pasaría el control del reglamento de la web ahora mismo. Pues nada, paréntesis media, que ya sabéis que lo mencionamos siempre porque son nuestros colegas de Barcelona que están también en en redes sociales.
Antonio: Ahí, bueno, yo veo un poco más el beso medio vacío, yo he intentado pintarlo medio lleno. Si están en cero setenta y cinco de cumplimiento te queda poco, otra cosa es que haya partes de la norma que sean de tan tan gravosas o tan difíciles de cumplir, que que ese cero setenta y cinco, ese salto hasta el uno sea sea realmente complicado. Ya veremos, yo creo que con la era draging en la que hemos entrado en Europa, los reglamentos técnicos intentarán aligerar, intentarán rebajar la exigencia, por no ver a la Unión Europea derogando esta ley, esa esa baja de pantalones no creo que la vaya a hacer Bruselas, pero que luego los reglamentos técnicos vayan a vengan con las rebajas, el día del Black Friday y digan, bueno, venga, vamos a llegar a un a un acuerdo, yo lo veo más probable, ¿no? Y que le hayan dado luz verde al modelo de voz de OpenI ahí es buena es buena señal en ese sentido. Te traigo una una parte más negativa porque es un caso de uso que hemos hablado en en monos y que en el que yo tenía esperanzas, pero que a la hora de la verdad empieza a verse las dificultades.
Se trata el caso de usar Whisper de OpenAI en las consultas médicas. Esto lo hemos llegado a mencionar una vez, ¿no, Mati? ¿Te suena?
Matías: Bueno, y lo hemos pintado como algo muy positivo tanto para el médico, que no tienen que estar todo el tiempo escribiendo en el ordenador. Esta es la experiencia de ir al médico en España, yo que he ido por el hombro hace dos días, es la experiencia de cualquier persona que va al médico y se pasa todo el tiempo en el ordenador escribiendo en tu historial. Y luego también es beneficioso para el propio médico que gana tiempo para revisar al paciente, ¿no? Y tan saturados que están de paciente, pues parece una ventaja. ¿Y ahora qué ha pasado?
Porque
Antonio: Bueno, el caso es que ya hay médicos en Estados Unidos usando un software de transcripción para que en la consulta, pues, quede todo grabado y además ya sabemos todas las ventajas que tenemos después. Podemos pedirle un resumen, podemos quedarnos con la transcripción completa, puede decirlo que cree un informe, es decir, la la ganancia de productividad y sobre todo cualitativa que tú dices, Mati. Y yo estoy deseando que mi doctora me vuelva a mirar a los ojos y podamos hablar humanamente, dedicarme más a eso y no al relleno del del, bueno, del informe de lo que pasa en la consulta. ¿No? El caso es que Whisper, según lo los que están estudiando los primeros resultados de de de esta implementación, es propenso a inventar también algunos trozos de texto, incluso frases enteras.
Entonces, el el reportaje que que firman en en Associated Press, en Estados Unidos, que estamos, tenemos delante, pues hablan con un montón de ingenieros y de investigadores, ¿no? De académicos, que dicen que estas alucinaciones están presentes en en en las transcripciones de de Whisper, ¿no? Entonces, claro, esto nos mete un un un problema de que si cometes un error en una transcripción de una entrevista banal, pues no pasa nada, ¿no? Hay alucinaciones inofensivas. El caso es que algunas de las alucinaciones, invenciones que que acusan de de del modelo son realmente preocupantes, graves o equivocadas en temas de salud, ¿no?
Al final, cuarenta hospitales, sistemas sanitarios y treinta mil médicos están usando Whisper en Estados Unidos. Es una una cosa importante, ¿no? Y hay un dato, ¿tú acuerdas cuando sacaste a la andaluza de el C uno de andaluz y cuándo se equivocaba la transcripción de esta señora? Sí. Porque tenía un lenguaje menos habitual, ¿no?
Con más acento, con más ejes propios
Matías: de de de de un
Antonio: habla, de una forma de de expresarse que tenemos la gente que tenemos acento, ¿no? Claro, la tasa de acierto con esa persona frente, hablando en moderno, a alguien de un habla más normativo, también es un es un caso a notar. Y claro, la gente que tenemos acento también vamos al médico, Mati.
Matías: Sí, yo me estoy imaginando ahora mismo a mi padre yendo al médico a a hablar con Whisper y difícil, difícil, porque mi padre le pasa como como a mí, los pensamientos los mezclamos y sale como una dislexia de conceptos importantes. También te quería decir, esto va a pasar como los coches autónomos. La primera guía, que mate a alguien porque confunde una peritonitis con, señora, usted tiene estreñimiento, va a salir en todos los medios y va a provocar una reacción muy violenta, igual que pasa con los accidentes con los
Antonio: colegios, ¿no? Yo creo que hay ese punto siempre psicológico y social de que no es más fácil comprender y disculpar un error humano que la equivocación venga de una máquina y que como en los coches autónomos, el mundo real puede tener una complejidad tal que conseguir el noventa, el noventa y cinco por ciento, el noventa y ocho por ciento esté al alcance de de este modelo científico tecnológico del deep learning y todo lo que ha venido después. Pero la última milla, ese último dos por ciento de esa tasa de error, no te la quita nadie y, además, nunca sabes cuándo cuándo se ha cometido el error, ¿no? Entonces, para mí es ese este choque de realidad ha sido un poco un poco, eso, una forma de de afrontar que la implementación en el mundo real es más dura y complicada que que el pensarlo a priori teóricamente, Matthew.
Matías: Es que fíjate que tiene relación con lo que hablábamos antes. Si es un modelo de lenguaje, lo que hay detrás va a seguir alucinando y va a seguir teniendo errores, aunque cada vez sean menos, pero parece que no vemos fin a que ocurran esos errores, ¿no? Y parece que esto es, va a ser una constante hasta que cambiemos de tecnología y de de arquitectura.
Antonio: Sí, sí, sí, ese ese es uno de los dilemas que que vamos a ver en dos mil veinticinco. Sobre todo, creo que con ese salto a los agentes inteligentes que que la gente de OPI cree que van a tener dos mil veinticinco, no sé si tenemos un paradigma, un paradigma científico técnico lo suficientemente robusto para permitir esas transacciones, para confiar en delegar la ejecución de cosas. Yo tengo ahí mis dudas, escribí un error, miento sobre ello, desde ahí mi mi parrafada, pero pero, bueno, es yo creo que el el gran debate sobre hasta dónde puede llegar el learning, redes neuronales, el paradigma del reforme, etcétera. Don, lo que están viendo que están chocando contra una pared son la gente de Amazon, porque ya hemos contado alguna vez que se venía Alexa renovada. Nuestra tesis de que básicamente esa generación de asistentes digitales, Alexa, Siri, el de Google, que que no sé, ok, Google, ¿no?
Básicamente, había que tirarlos a la basura y sustituirlos por modelo grande del lenguaje. La industria nos da la razón, Mati, eso era, bueno, mira la razón en una cosa bastante obvia. Y el caso es que Alexa, pues se va a renovar y en este año íbamos a ver una nueva Alexa, pues impulsada por modelos grande de lenguaje. El caso es que tenemos un retraso hasta dos mil veinticinco y que no pinta bien lo que han testado en laboratorio.
Matías: El otro día estuve hablando con esto de de Alexa, con mi familia, porque yo tengo un nuevo truco en reuniones, que es son los juegos inventados por o con la el modo de voz avanzado de ChatGPT. Entonces, yo, en la última reunión familiar, saqué el teléfono, invoqué a ChatGPT modo voz, y le pedí que se inventara un juego en el que mi mujer y mi cuñada, dos personas españolas, adivinaran palabras difíciles del lunfardo argentina. Entonces, pasamos, no te exagero, cincuenta minutos jugando a esto, luego cuando cuelgas la llamada puedes ver que son cincuenta minutos, y fue bastante divertido. Entonces, acto seguido, mi hermano y mi madre me preguntaron, ¿y por qué mi Alexa no hace eso? Entonces, ahí está la clave.
Alexa tiene una base de usuario muy grande, esto puede funcionar, pero cuando llegue, primero con muchas dificultades e inversiones por parte de Amazon, y después seguramente con un precio que la gente no va a estar dispuesta a pagar, porque recordemos, el modo de voz avanzado de chat GPT es gratis, lo puede usar en
Antonio: ShopT de Free. Bueno, aquí tienen un un meollo bastante gordo. Fíjate que el salto de cambio de de de tecnología en Alexa, en la verdad habían visto dos cosas. Una, que claro, pasan a un modelo de conversación superabierto, flexible, como el que tú estás narrando, pero en el que el nivel todavía está muy lejos del modo de voz de ChatGPT, Amazon, por detrás, está usando Cloud, Amazon es un inversor en Anthropic, entonces usan Cloud y, realmente, en el modo de voz, cloud no está compitiendo bien con con OpenAI, entonces digamos que en eso mejoran a a la Lex actual, pero es lento, la respuesta es superrelevante. Además, no puedes ejecutarlo en local, dado que el despliegue de dispositivos, los Echo, esos altavoces que con los que integramos Alexa, pues computacionalmente son muy poco potentes, vas a tener que tirar de de modelo remoto, pues, claro, la lentitud, el lag están presentes.
Por ahí mejora, pero no lo suficiente para dejar a la gente con la boca abierta, como tú haces, Matte. Y segundo, todo lo que sería Alexa de domótica, que era superfiable porque estaba todo muy programado y muy controlado, hará que se han abierto interpretando la voluntad y el interés del usuario, se ha vuelto mucho menos fiable, mucho menos preciso. Los modelos de lenguaje son unos sistemas bien entrenados para adivinar la siguiente palabra, no son buenos sistemas para un sistema fiable, directo y claro de control de la domótica de una casa, y por lo tanto están perdiendo, hay fiabilidad. Entonces, creo que tiene una encrucijada y un reto tecnológico la gente de Amazon bastante, bastante, bastante potente. Y, bueno, es una parte en la que podríamos profundizar todavía más, pero, Mati, no, es que es que se viene un puerta grande de enfermería tremendo, Matías.
Matías: Puerta grande o enfermería. Lo voy a decir yo porque me hace ilusión ponerme lo del eco a mí
Antonio: Sí, sí, ese efecto, buenísimo ese efecto, Mathi.
Matías: Bueno, pues, dame.
Antonio: No le está saliendo a Alexa, Matías, pero tiene un as bajo la manga. Tienen en su servicio de streaming de cine y series Prime Video la posibilidad de atención en el futuro, invocar a la IA, cuál hechiceros o brujas podremos llamarla en cualquier momento, en Amazon Prime Video, y la inteligencia artificial nos hará un resumen de lo que estamos viendo. Ves una película, la dejas a medias, pasan diez días y quieres retomarla, qué mejor que la guía de Amazon para resumirte todo eso, o las series que ves a cachitos, a ver poco a poco, de dónde te acuerdas alguna especie de la trama, pues se lo puede preguntar a la inteligencia artificial. De nuevo, es muy útil, resumen content.
Matías: ¿Cuántas veces le habré preguntado a la tele, casi gritando, de qué me suena esta actriz? ¿Vale? Es cierto que en Amazon, en Prime Video ya tenían, no me acuerdo cómo se llama, pero tenían como un submenú en el que te decían cuáles son los actores que están saliendo en esa escena, tal y cual, pero no, yo quiero hacer preguntas muy específicas, como por ejemplo, ¿en qué serie reciente ha salido esa actriz secundaria que está detrás de este otro? Porque me suena muchísimo, ¿no? O incluso, fíjate, aquí también hay una visión comercial, incluso, ¿qué vestido lleva puesto esta mujer o qué reloj lleva este señor?
No sé, es que me parece, tiene mucho sentido integrar
Antonio: Es que además tienes dos utilidades, te va a ser puerta grande total. Si tú quieres ver una serie, una película que está hecha para gente mucho más lista que tú, ¿no? Dices, yo yo vi, me pongo a ver la nueva del Joker. El la nueva del Joker es un concepto en la que el concepto no es que te diviertas viendo la película, ¿no? El concepto es que está está hecha pensada para que tú, pues, en en en un nivel de de de alta exigencia intelectual, pues te goces siendo listo viéndolas.
¿No? Entonces, a lo mejor yo siento que no estoy al nivel de la película, pues claro, la la idea de Amazon puede estar al lado mía. ¿No? Y va comentando la película, como dices. ¿No?
Oye, te tiene que gustar por esto. Esto esto esto es lo interesante, pasa que tú no te das cuenta, ¿no? Yo creo que a partir de ahora podremos ver series y películas para gente mucho más lista que nosotros, lo cual es una parte importante, y luego podremos saltar los capítulos. Esto es fundamental en las series de hoy en día. En las series de hoy en día hay un insufrible relleno de hora innecesario en muchísimas de ellas, en tres, ¿no?
Pero en el noventa por ciento de las series hay un un relleno importante. Te decir, mira, ya que me he visto cuatro capítulos, me gustaría saber cómo acaba. Pues en salto del del cuatro al al ocho, a lo mejor, o del cuatro al diez, y y todo ese trozo, pues mira, hazme un resumencito para para entrar en el último capítulo y ya, pues, pues, rematar aquí la faena. Entonces, yo con esas utilidades, Matty, yo esto lo veo por tan grande.
Matías: Yo aquí tengo que confesarte una cosa, y además es que juega, primero que es un poco humillante confesarlo, y luego que juega en contra de mi déficit de atención, que es que yo cada vez hay más vídeos de YouTube largos, podcast, todavía no películas ni series, que veo a través de la transcripción, o peor, peor aún, pidiéndole a ChatGPT que me enumere los puntos principales de la transcripción. O sea, hay alguien que se curra un documental en YouTube y yo copio la transcripción, se lo pego a ChatGPT y le pido que me la resuma simplemente para no estar viendo la hora y media de vídeo. Y lo mismo hago con algunos podcast. Esto es horrible confesarlo, pero es cierto que si empezamos a integrar inteligencia artificial hasta en las películas, a lo mejor me salto las últimas dos temporadas de Juego Dead. Y
Antonio: a mí me pasó, tío, con con una Mira que a mí me gustan las películas de El Padrino, Y había una serie sobre cómo se rodó El Padrino. La serie le sumaba, le sobraba el el cincuenta por ciento perfectamente de de de los capítulos. Me lo chupé entero porque, pero es fan de padrino, pero te tienes que aguantarlo, tienes que ver, ¿no? Y con eso me ha pasado con no con una sola, sino con dos o con tres. Luego, es verdad, si si en el proceso lo estoy gozando y lo estoy pasando bien, por ejemplo, ahora estoy viendo caballos lentos, slow horses, de Apple TV.
Me parece una serie chulísima en la que cada cosa que pasa lo gozo, porque tiene giros humorísticos en una serie de espías que me encantan, se echa con mucha inteligencia, tiene las tramas muy bien planteadas, no es maniqueo, no no intenta darte la brasa con buenos y malos. En fin, es una serie perfecta para mí. Entonces, como la gozo tanto viéndola, pues no no me salto ni ni un minuto, me gusta verla. En fin, no sé a qué mundo vamos, pero puerta grande para la IA de de del Prime Video. Y ahora te traigo un caso, Martín, que realmente es satisfactorio ver la gran innovación aplicada en el mundo real, Matías.
Estaba informando, Mathi, hay muchas mujeres jóvenes, muchas chicas que están aplicando la inteligencia artificial de una manera nueva y creativa. ¿Cómo están haciendo ellas uso de, por ejemplo, chat GPT para ayudarles en su vida diaria? Pues muy fácil, cuando tienen un nuevo novio, una nueva pareja con honor de novia o cualquier tipo de flirteo y aproximación romántica o sexual, estas chicas deciden copiar toda la conversación de WhatsApp, ¿no? Decenas, decenas y cientos, o incluso miles de mensajes, y se lo suben a ChatGPT. ¿Qué es lo que hacen una vez subido el contenido a esta inteligencia artificial?
Pues, le consultan y le pasan la una serie de dudas sobre cuáles son las pretensiones reales de este individuo, qué Red Flags y qué es Green Flags me puedes decir, qué análisis de datos puede puedes hacerme. La usuaria Mimi Work Besti nos descubre un mundo nuevo, Mathey, porque Mimi Work Besti, en TikTok, hizo esto, le subió un zip con todos los WhatsApp y hizo un análisis pormenorizado de el potencial de esa relación. ¿Qué le dijo ChatGPT? Pues ChatGPT dijo que en esos dos mil mensajes el pretendiente había hecho siete elogios de ella. Además, había hecho veintidós propuestas de planes y le había mandado mil veintidós mensajes por mil treinta y ocho mensajes de ella.
Entonces, con todo este análisis, parecía claro que la pretensión y el interés del individuo eran bastante genuinos y bastante comprometidos, lo suficiente para que Mini World Besty le abra la puerta del amor y de las relaciones. Fíjate, es que esto la gente, a lo mejor, no lo asume, pero es el mejor ejemplo de el valor de la inteligencia artificial de los modelos grandes del lenguaje, en este caso, ChatGPT, en el trabajo con datos no estructurados. ¿Cuál es uno de los grandes problemas de los profesionales individuales o de la pequeña empresa en España? Que no tenemos sistemas de, por ejemplo, de CRMs robustos, todo. No tenemos grandes intranel con toda la documentación, con todo organizado, sino que tenemos nuestra con todo ese hacer con los clientes ahí, test par de gas, por WhatsApp y por correo.
Tenemos toda la información en muchos sistemas, local, su nube y todo, además, sin organizar, sin estructurar. Mimi World Pisting, con esta relación con su con su novio y su pareja, nos descubre un mundo nuevo de utilidad que yo voy a poner en todas mis presentaciones de inteligencia artificial ahora. El mejor modo de trabajo de la inteligencia artificial con datos no estructurados lo están haciendo las jóvenes actuales para entender bien las red flags y lascreen Flags de sus pretendientes sentimentales.
Matías: Esto, bueno, yo vi que esto se hizo viral y luego mucha gente ha seguido, lo ha seguido, los consejos de esta chica y ha subido los tips de las conversaciones de de WhatsApp a ChatGPT, y bueno, ChatGPT ha encontrado mogollón de Red Flags. O sea, ChatGPT habrá roto en España decenas de relaciones, ¿no? Porque advierte a estas chicas de, ojo, que este señor tiene confusión de sentimientos, ¿no? O posiblemente te esté manipulando emocionalmente. Estos son reflax.
¿Qué ocurre? Veo dos cosas. Primero, lo que dices de los datos no estructurados, a mí me viene súper bien, Antonio, porque ¿yo por qué nunca voy a llegar a jefe? Porque yo no soy capaz de mantener un Excel. Yo soy una persona que puede crear un Excel todo lo organizado que tú quieras, pero al segundo día está abandonado, ¿no?
Entonces, ahora esto me da opciones a llegar a jefe, porque no necesito tanto orden en la estructuración de los datos. Luego, cuidado con el tema de rechazar todas las reflax, ¿por qué lo digo? Yo, en en mi experiencia, llevo veinte años con mi mujer, con el tiempo me he dado cuenta quién sería el hombre perfecto de mi mujer, Su padre, ¿vale? Porque su padre es una persona que tiene la vida muy organizada, es una persona muy activa, hace deporte a diario, tiene todas sus finanzas, su contabilidad, todo lo tiene en un Excel, súper bien organizado, es una persona muy servicial. Vale, yo soy diametralmente lo opuesto a su padre.
Entonces, yo, en principio, habría saltado, pues, mogollón de Red Flags si Elena, nuestras conversaciones de MSN en Messenger las hubiera pasado por Chagépeted, que entonces no existía gracias a dios. Entonces, yo animaría a la gente a equivocarse con las Red Flags, a menos que sean Red Flags muy evidentes. No miro a nadie, conozco a muchas personas cuyas parejas son un poquito tóxicas, pero si no, si son red flags que están ahí en un punto intermedio, animo a la gente a intentar.
Antonio: Ya pienso que yo lo consigo. Hay que empujar ese concepto, ¿no? Son son defectos perdonables. ¿No? Es que, claro, yo no solo he seguido la gran intervención de Mimi Work BESTI en TikTok, también está el caso
Matías: de
Antonio: que, bueno, esto lo lo compartía la las compañeras de de de Smoda, Lucía Franco hacía un artículo muy interesante sobre sobre esto, pero bueno, lo más importante y lo lo mejor del artículo para mí era el descubrimiento también de Alba Gingfe. Alba Gingfe ya venía un poco rascada, es decir, Alba, de alguna manera, sabía que el chico con el que chateaba, pues, probablemente, no no iba bien la cosa. De hecho, ella cuando sube la conversación a HGPT dice, esta es la, le pregunta a al a la inteligencia artificial, ¿son compatibles cucaracho y Alba? Sí, cuando ya estás llamando cucaracho al candidato, la la cosa no apunta bien. En todo caso, claro, ahí ChatGPT le saca muchas reflax, confusión de sentimientos, posible manipulación emocional, y Alba hace un un hallazgo que que es muy importante, que es, claro, es que ChatGPT es el nuevo amiga a date cuenta.
Entonces, aquí yo me preocupa también en nuestro podcast hermano, Amiga date cuenta, que lo hemos mencionado varias veces, yo yo lo sigo habitualmente. De hecho, ahora le he perdido un poco la pista, no sé si se ha hecho exclusiva de Podemos o o qué o qué ha pasado, pero ya no no no me no me no me surge, tengo que rebuscarlo. Si Chat GPT es el nuevo amiga, date cuenta, el nuevo mi amiga que me ayuda a criticar a mi ex novio puede ser sustituido, atención, esta amistad fraterna, bueno, fraterna, en este caso, puede ser entre mujeres, ¿no?
Matías: Pues mira, no te hacía oyente de amiga, date cuenta, pero esto demuestra que tu reloj tiene razón y eres mucho más joven de lo que biológicamente te corresponde o temporalmente te corresponde, porque yo no escucho, a mí se me queda ya demasiado joven ese podcast. Así que enhorabuena, Antonio, por tu trabajo para restablecer.
Antonio: Puerta grande claramente, trabajo no te, yo más joven, todos estos puertas grandes, por supuesto. Y te voy a traer el último en el que, no sé, yo creo que a veces a veces vivimos en el síndrome de, lo hemos contado mucho, usaciones, a lo mejor infundadas, de que los chavales usan inteligencia artificial para su deber y su trabajo, a veces sin la suficiente base. ¿No? Entonces, esos falsos positivos, ese castigar a los justos por ¿no? Condenar a inocentes si la prueba es suficiente, es algo que socialmente deberíamos analizar, Matías.
No sé si es el caso, te te voy a dejar que tú lo juzgues, que comparte el profesor Lucas Castro. Es profe del departamento de ingeniería industrial en Udimac, Universidad a Distancia de Madrid. Al al profesor Castro le presentaban ejercicios de química, son gente de chavales que estudian en remoto, y varios alumnos en en estos trabajos de química le ponían, reiteradamente, cajero automático en las soluciones, ¿no? Tú estabas ahí, bueno, mira. No, a la química orgánica, cajero automático no pega, ¿no?
¿No? Es decir, incluso, cosa rara, ¿no? Entonces, Lucas, el profesor Castro, que es muy astuto, probó en Chat a Chat GPT a ponerle el mismo ejercicio y, claro, él dice, no puedo encontrar más cantidades de error en tal corto espacio, porque la mayoría de errores provienen de traducciones, es decir, en el valor de la contacto de los gas r, al traducir las unidades ATM, atmósferas, pone cajero automático, claro, ATM. Pero, claro, los litros, los l, los traduce como yo. Entonces, tú ves en el redactado, en una fórmula, ¿no?
Los litros, por un lado, son los yos, y los ATM, la atmósfera son cajeros automáticos, y como ese, pues varios varios errores más. ¿No? Entonces, claro, el el error es es molocotudo, esto es es total, y los alumnos, lo más divertido es que los alumnos ven esto de a cajero automático, John, estará bien, ¿no? Y pum, lo chutan ahí para acá, para para el profesor.
Matías: A ver, esto no me extraña nada porque yo muchos de los sintetizadores que voz, de voz que uso, leen a del verbo, h a, como hectárea, ¿no? Y otras otras cosas así, ¿no? Entonces no me extraña nada que lo de ATM, de atmósfera, que es un cajero automático en inglés, lo traduzcan como cajero automático. Ahora, lo de la l de los litros como yo, esto me ha matado, porque esto es el es un fallo que no entiendo, una l no es una I mayúscula. Entonces, aquí hay un fallo de de OCR, es decir, le están pasando
Antonio: Sí, yo creo
Matías: que le están
Antonio: haciendo una foto al problema y se lo están vendiendo a a ChatGPT como imagen. No, si no, no entiendo a él, yo estoy de
Matías: El mínimo esfuerzo de del estudiante, yo creo que deberían aprobar solamente por por el el hecho de que le hagan una foto, ni siquiera transcriban, probablemente no lean ni intenten entender
Antonio: la pe del muchacho de la chica que ha hecho esto, dice, joder, suspendido por eficiente, suspendido por productividad, no no justo tampoco, ¿no? ¿Ya? En fin, luego que arranque, subamos la productividad, el PIB y tal, y luego, bueno, cuando lo intentamos, nos nos penalizan así, no, no, no, no podemos desarrollarnos. Bueno, en todo caso, enfermería para los cajeros automáticos en la en los ejercicios de química, amigas, amigos, alumnos, por favor, sabemos que hay chavalada que que que ve el podcast y que lo, sobre todo que lo ve, la agenda más joven la tenemos en YouTube. Pues bueno, es Fortaro, una mijita importante que distingáis ahí entre atmósferas y cajero automático, no vaya a ser que luego trabajareis la previsión meteorológica.
Y dicho esto, ¿qué es todo lo que traía para para este capítulo de monos Matías?
Matías: Pues fantástico, me ha encantado este puerta grande de enfermería. Y bueno, creo que es el puerta grande de enfermería con más puertas grandes que hemos hecho últimamente. También me he dado cuenta que he filtrado todos los mensajes que tengo sin leer en LinkedIn, pero no pasa nada, porque como ha ganado Elon Musk las elecciones, x va a ser la everything app y la aplicación donde haremos todo a partir de ahora.
Antonio: Yo creo que ya se acerca la fecha en que Elon Musk dijo que esto iba a ser un banco o Twitter o algo así, ¿no? No sé, se se me cruzan los los mensajes, Matías.
Matías: Pues, señoras y señores, muchas gracias por estar aquí y volvemos muy pronto con mucha más inteligencia artificial a Object Estocastic.