Transcripción
Bienvenidos todos los aficionados a lo estocástico a este nuestro podcast y además es el último episodio de Monos Estocásticos primera temporada. Arrancaremos, supongo Antonio, que bueno no sabemos si a finales de agosto, principios de septiembre, pero en algún momento arrancaremos con la segunda temporada.
Sí, yo creo que será más finales de agosto si los astros se alinean y se cumplen todo lo que estamos buscando, Matías, que tenemos muchos planes para la nueva temporada y hay una cosa segura que quería comentarle a toda la audiencia que salimos de gira. Es verdad, no lo hemos comentado todavía, pero no sé si alguien se ha dado cuenta que estamos entre los ponentes, y voy a compartir pantalla para los del youtube, de las Jpod, de estas jornadas del podcasting que se hacen todos los años.
En este caso las de 2023 van a ser en Gandía, los días 20 y 21 de octubre, y estamos entre los ponentes, Monos Estocásticos, y nada, muy agradecidos de que nos hayan invitado. Nosotros nos gusta cuando nos sacan a pasear y sobre todo si es en Gandía, un arroz al forno o algo de eso, hay que comerse. Sí, sí, sí, yo fundamentalmente voy por la comida.
Bueno, luego hay otros ponentes interesantísimos, no, Matías? Pero bueno, lo pasaremos bien, estará interesante, así que todos los que andáis por allí cerca, 20 y 21 de octubre, nos vemos en Gandía. Oye, la semana pasada nos volvió a pasar lo que siempre nos pasa y es que terminamos de grabar el episodio y empiezan a salir una de novedades, pero interesantes, importantes, y como no habíamos visto en bastante tiempo.
La semana ha sido muy muy intensa. Yo creí que el evento de Microsoft iba a ser un poco de segundo nivel, de presentar cositas pequeñas, pero fueron fueron bastante potentes. Pero vamos a empezar por los teloneros, Matías. La multimodalidad llega a Bing, es decir, ya podemos utilizar como entrada imágenes y preguntarle sobre esas imágenes a Bing, que es algo que ya tenía BAR.
La verdad es que esas primeras pruebas que hemos hecho no han sido muy ilusionantes, Matías. Te he visto probándolo y le pedías que explicar algunos memes y no te pillaba, no pillaba tu sentido del humor, Antonio. No, Bing y yo no estamos en sintonía. Bueno, ¿qué se le va a hacer? Si al final el uso lo tienen tan capado y permiten solo preguntar cosas tan obvias como hay un perro en esta foto, le pasas una foto de un perro, pues para eso no necesitamos a Bing.
Es curioso esto porque los primeros que hablaron de lo importante que iba a ser la multimodalidad en estos modelos de lenguaje fueron OpenAI con chatGPT y al final está llegando a la competencia primero. No sé si llamar a Bing competencia porque no es exactamente eso. Amigo-enemigo, no sé cómo llamarlo. El caso es que, recapitulemos, la multimodalidad era esa característica que pueden tener modelos grandes de lenguaje, sistemas de inteligencia artificial, por lo cual no han sido entrenadas en solo un tipo de contenido sino en más de uno.
Si GPT 3 o 3.5 solo se había entrenado con texto y solo sirve para, a partir de un texto de entrada, generar su continuación, un texto de salida, GPT 4 ya venía con multimodalidad y se ha entrenado con imágenes y con texto y por lo tanto, en teoría, podría aceptar estas imágenes como entrada y podríamos consultarles cosas que hay en esas imágenes o que formen parte del flujo de conversación con el sistema.
El caso es que Bing, que tira de GPT 4, lo integra ahora, lo acaba de poner, pero OpenAI dice que de momento no se atreve a activarlo completamente, bueno, ni completamente, ni un poquito, en chat GPT. Claro, si lo utilizan, GPT 4 podría empezar a reconocer a la gente que viene en las imágenes. De hecho, el propio Bing Chat, cuando lo usa, te dice, recuerda que usamos desenfoque de privacidad que oculta las caras.
Claro, OpenAI dice, si con imágenes puedo reconocer quién es, esto puede infringir las leyes de protección de intimidad en muchos países, en la Unión Europea, el uso de información biométrica y que si el que sale en esa foto no ha dado su consentimiento, pues es un problema. Y si además alucina, como alucinan los modelos grandes de lenguaje, pues podrías tener un combo mediático chunguísimo.
Yo veo más problemas en las alucinaciones porque ya he visto por ahí algún vídeo viral de uno que se cruza con alguien por la calle, le suena un poco, hace una búsqueda inversa, le sale quién es el Linkedin y con eso se monta un TikTok de millones de reproducciones. Tampoco sé con qué imágenes se ha entrenado GPT 4 para que sea un problema de privacidad más allá de las personas que son famosas.
No sé si a mí me sabría reconocer un GPT 4. A mí me encantaría poder usarlo y empezar a preguntarle sobre mí, dándole fotos. Como buscar Google en Bing, es como el principal uso de echar GPT es hacerle preguntas sobre ti mismo y no la sabe responder. Hubo más anuncios, Microsoft 365. Es curioso porque ni lo podemos probar, el Copilot de Inteligencia Artificial en la suite corporativa, productividad, etcétera, de Microsoft.
No la podemos probar pero ya tiene precio y tampoco tiene fecha. Un lío. El caso es que $30 al mes por usuario. Esto es casi un incremento del 100% porque Microsoft 365 ya cuesta a las empresas $36 al mes. Le estás añadiendo a eso otros $30 al mes por usuario para poder usar el Copilot, que se supone que es una tecnología emergente que tú, vale, la quieres comercializar rápido, pero no sé si con este precio, con esta barrera de entrada, vas a conseguir comercializarla tan rápido para aumentar la productividad de tu empresa.
Le da pie o le deja un margen a la competencia a ofrecer mejores precios. Por ejemplo, Notion creo que son $10 al mes por usuario por poder usar su acceso a la IA, que por supuesto no es lo mismo que un Copilot de Microsoft. Bueno, mi única parte, el lado positivo que le veo a esto es que a lo mejor, lo tengo ahora mismo encerrado, lo ven que es tan bueno que se atreven a ponerle un precio tan alto. Es la única parte positiva que he podido ver este anuncio.
Pero el anuncio gordo, Matías, ha venido de la mano de Meta y no sé si tú te esperabas que en un evento de Microsoft el gran inversor en OpenAI saliera a Meta anunciando un modelo nuevo. No, para mí fue una total sorpresa. De hecho, yo me esperaba que el anuncio, o sea, que la presentación fuera tan aburrida que no la estaba siguiendo en directo.
Y cuando veo que publica Mark Zuckerberg una foto como medio ahí abrazado de colegas con Satya Nadella, me quedé en shock porque, claro, venimos hablando de esta asociación entre OpenAI y Microsoft, que de repente el nuevo mejor amigo, como el meme, no? Friendship with Sam Alman ended. Now my best friend is Mark Zuckerberg. Pues es Yama.
Y además, anuncio importante. Sí, yo creo que es uno de los lanzamientos del año, Mati. Creo que de las noticias más potentes que hemos tenido en el sector en los últimos meses. Por supuesto, nos tenía que pillar a nosotros con el episodio grabado, eso es inevitable. Pero bueno, vamos al lío porque esto es Yama 2. Recordemos que ya lo hemos comentado en el podcast, en la lista, que Meta ya pseudo liberó un modelo grande de lenguaje llamado Yama.
Esa liberación fue un poco sui generis porque no permitía un uso comercial, pero dio pie a una cierta explosión de modelos abiertos y libres que eran derivados, dado que los académicos podían acceder a Yama y de ahí se distribuyó de una manera un poco generosa en el sector. Bueno, hubo una pequeña explosión de muchos experimentos con ese modelo, de muchos proyectos muy interesantes.
El caso es que Yama 2 nace con más ambición por parte de Meta. No es ya un pequeño modelo. Bueno, Yama 1 ya no era pequeño. Había distintas versiones como en Yama 2, pero que la ambición se redobla en el sentido de que lo han licenciado y lo han preparado para que haya un uso comercial. De hecho, Meta lo pone a disposición y cualquier empresa puede, aceptando la licencia de Meta, descargarlo, usarlo, modificarlo, redistribuirlo.
Pues en principio puede hacer de todo, como casi todos los proyectos de software libre, aunque aplicado a la inteligencia artificial hay ciertas características diferenciales. El caso es que el gran anuncio con Microsoft es que Yama 2 iba a ser el partner de Azure, de la computación en la nube de Microsoft y estaría disponible a través de este canal de ventas y de servicios para empresas y que por lo tanto aquí estaba la vía comercial de Yama 2. Bueno, el caso es que Yama 2 se sitúa, según este benchmark, muy cerca de GPT 3.5.
Entonces estaría muy cerca de la versión inicial y actualmente la versión gratuita que se ofrece en chat GPT. Así que en cuanto a nivel de modelo, pues tendríamos un modelo bastante alto. Recordemos que hay startups que tiran de las APIs de estos sistemas de OpenAI, como Lucía, que te decían que ellos todavía se quedaban en la 3.5 porque no veían motivos para saltar a GPT 4 todavía.
GPT 4 además la API es más cara que la de 3.5. Eso es otro motivo. El caso es que, claro, si ya tienes una alternativa abierta a GPT 3.5 para muchas startups, puede ser muy interesante. ¿Por qué? Porque sobre todo te lo puedes descargar, lo puedes modificar tú en local, en tu hosting a tu gusto y puedes también tirar API a API.
Tienes muchas más posibilidades, muy diferentes que el modelo solo cerrado con API de OpenAI o Cloud. Además, la licencia está disponible para todas las startups de menos de 700 millones de usuarios activos al mes. Esto es dos veces y medio Twitter, por lo menos. ¿Quién tiene esto aparte de la propia meta y quizá ByteDance? Sí, yo creo que esto es con Google contigo no y tres o cuatro más o Jeff Bezos aquí.
No te lo descargues que no es para ti. Yo creo que podrían haber hecho una blacklist. Bezos, Search and Print, y todos otros no. Hay una discusión en el mundo del software libre que tiene un debate muy profundo sobre qué es un modelo de inteligencia artificial libre, qué tipo de licencia, si son los pesos los que tienen que liberar, si tienen que liberar también el dataset.
Es decir, hay disquisiciones sobre qué es un modelo de inteligencia artificial libre. Los más puristas dirán que esto no es totalmente libre, tanto su desarrollo como su uso no están disponibles para todo el público, sino que tienes que aceptar esta licencia especial de meta, en la que aceptas que la marca llama dos es solo de ellos, en la que aceptas esto de los 700 millones, si lo supero no puedo usarlo.
En fin, de todas maneras los pesos están disponibles. Cualquiera se lo puede descargar aceptando estas condiciones de meta y por lo tanto, dentro de los grandes modelos súper competitivos que tenemos en el mercado, es el más abierto, sin lugar a dudas. Fíjate, si chatGPT fue la gran herramienta de marketing de OpenAI para que esa generación de inteligencia artificial explotara y llegara a los medios y a los usuarios, creo que esta apertura o esta licencia de llama dos es la gran herramienta de marketing de meta.
La idea es, mira, si no estás seguro, si quieres jugar, si tienes un proyecto pequeño, si no tienes mucho dinero, lo que sea, empieza con llama dos, mejor que con un modelo que te va a costar mucho dinero, que como te viralices y todavía no tengas ingresos, te va a matar, entonces mejor tira de llama dos y que cuando crezcas y tengas otras necesidades, probablemente aquí estaré yo con mi partner Microsoft.
Partner Microsoft no es exclusivo, también está en AWS de Amazon en llama dos. Pero bueno, el caso es que es una manera de además de crear un ecosistema. Va a haber muchos más desarrolladores que trabajen con llama, va a estar mucho más integrado en otras herramientas. Yo creo que también está por ver en el futuro si ponen algo de valor, es decir, si utilizas llama dos, tienes esta integración extra con Instagram o con WhatsApp.
Bueno, yo creo que es un momento muy muy alternativo, que Zuckerberg ha comprado mucho esto de ir en abierto y para Microsoft es como jugar a dos barajas. Si funciona mejor lo cerrado, pues ya invertí en OpenAI, si funciona mejor los abiertos, pues por lo menos tengo el partnership con Meta. Me recuerda un poco a lo que están haciendo con Xbox en videojuegos.
No está bien un monopolio, pero bueno, se va acercando a ser amigo de todos o dueño de todos. A mí me sorprendió, Matías, que la FTC se metiera en lo de Activision tanto y que Microsoft esté tan cerca de controlar gran parte de los grandes modelos de lenguaje, que me parece una industria bastante más importante, sin menos preciar al Call of Duty.
Y acerca del marketing que comentabas, no sé si a ti te pasa lo mismo, pero Mark Zuckerberg últimamente me está cayendo bien, entre que quiere partirle la crisma a Elon Musk y todas estas fotos que sube de colegueo y este giro que le ha dado a Meta desde la chufla esta del Metaverse, pues me mola mucho. Además, ya me empezó como una investigación interna de ella, que al filtrarse se convirtió en algo grande en el sector, sobre todo en la comunidad del software libre y bueno, en este mundo paralelo al que Google supuestamente le
tiene más miedo que a OpenAI y que también nos viene bien a los usuarios que haya competencia más allá de las grandes empresas que pueden pagar millones por entrenar estos modelos, porque ¿cuánto habrá costado entrenar a llamados millones y millones y millones y decenas de millones de dólares? Sí, sí, absolutamente.
Fíjate que es un fenómeno curioso. Mientras Meta, que parece que avanza, apareció un estudio que afirmaba que GPT-4, en el guión, perdona Matías, pues es ahora más tonto. Bueno, el estudio no sabe esa expresión. El estudio decía que habían hecho unas pruebas GPT-4 y cada vez es menos capaz desde su lanzamiento.
Es decir que según abrieron el modelo y lo han ido ofreciendo, el rendimiento ha ido descendiendo. ¿Esto es tu experiencia? Porque yo que vengo probando, el otro día probamos Cloud 2, ahora he probado Yammer, le he preguntado por qué hace tanto calor en Málaga, que me lo explique como si fuera un niño de cinco años y me ha dado una respuesta que iba bien hasta que dice que en Málaga hay demasiados edificios altos que reflejan
la luz, pero bueno, son de hormigón, no son de cristal, no sé cómo la reflejan. Y me da la impresión de que GPT-4 sigue estando claramente por encima del resto, pero sí puede ser que sea más tonto, sí puede ser que ahora que lo mencionas, puede ser que sea más tonto. Y al mismo tiempo GPT-3, 3.5, más capaz.
No sé, Matías, yo va por días. Yo creo que también hay una sensación de que cuanto más lo usamos, más probable que nos encontremos con sus problemas y limitaciones. Entonces, bueno, yo creo que hay un paso del tiempo que va a la contra de estos modelos. Y luego me he cruzado con respuestas que pondremos ahí enlazadas en los comentarios del podcast que cuestionan muchísimo la metodología.
La metodología era una pregunta de matemáticas, otra de programación. Parte de lo que los autores decían era programa peores porque mete muchos comentarios que no son código, pero no ha habido una comparación exhaustiva de ejecutando el código de que funcionaba mejor en la versión GPT-4 previa, GPT-4 posterior. Y la pregunta matemática es si es primo tal número.
Es verdad que ahora identifica pero los primos, pero bueno, el caso es que acusan al estudio de que con pruebas muy superficiales intentar aseverar esto de GPT-4. Hay una cosa que es interesante comentar, que es cómo es posible que se degrade el comportamiento de un modelo grande de lenguaje si venimos contando episodio tras episodio que, oye, esto se entrenó en 2021 y ahí se quedó.
Y es lo que decimos siempre, ¿no? Si se quedó en 2021, ¿cómo es que ahora puede ser más tonto que cuando acabó de entrenarse? Bueno, no se acabó de entrenar en 2021. El dataset procedía de 2021, pero cuando una vez se ha entrenado ya se acaba ese proceso y ya en teoría ni mejora ni empeora. El caso es que sí hay procesos que siguen afectando al modelo y que sigue ejecutando OpenAI sobre GPT-4 y GPT lo que sea, que es el refuerzo con feedback humano.
¿Por qué antes era fácil hacer el jailbreak y lo fueron capando poco a poco? Pues eso se conseguía con refuerzo humano, aprendizaje por refuerzo con un feedback humano. Es decir, hay una parte en la que se eliminan los comentarios tóxicos cuando se mete en temas violentos, sexuales, discriminatorios, etcétera, que el propietario del modelo no quiere que los suelte y eso es un entrenamiento a posteriori, un afinamiento que se va produciendo y que se sigue produciendo.
¿Qué es lo que pasa? Que este proceso, conforme va capando posibles respuestas de los modelos, siempre empeora el comportamiento. GPT-4 es tan capaz como cuando acabó de entrenarse, la capacidad no se ha perdido, pero el comportamiento puede ser peor en tanto y cuanto más aprendizaje por refuerzo que capa posibles respuestas y posibles caminos que tenga el modelo, menos de su comportamiento refrescará toda la capacidad que tiene.
Bueno, pues el afinamiento de los kenianos no está saliendo bien. Los usuarios estamos notando deficiencias. Hablando de chat GPT, no sé si te han subido el límite de GPT-4, a mí me lo han subido de 25 a 50 mensajes por hora, por cada tres horas perdón, pero hay gente a la que le han subido por ejemplo a 2CSV a Carlos Santana se lo han subido a 100 y luego hay gente que se lo han subido a 200.
Esto es un poco como dice 2CSV una lotería. Sí, sí, oye, lo tengo abierto Mati, yo estoy en 25. ¿Qué pasa? Pues es que hay clases y hay clases. Decía 2CSV como teoría, pero lo decía a modo de chiste yo creo, que depende de lo que a chat GPT le apetezca hablar contigo. No, no sé, no lo sé. Le habrás contado cosas muy aburridas a chat GPT. Ya no le contaré más del Betis, habéis ido a ser sevillitas.
Pues a mí me lo han subido a 50. Bueno, bueno. Bueno, otra cosa que han subido que han modificado es, bueno, odio esta expresión, pero la vais a usar Matías. Customiza tu chat GPT. Lo has estado viendo. Sí, bueno, pero aquí esto de customiza te diría Pérez Reverte que tenemos personalizar en español que funciona muy bien. Así que sí, al final es como un system prompt, ¿no? Te dejan calibrar la experiencia de chat GPT.
Por ejemplo, si lo que quieres es aprender idiomas, pues configuras la conversación para que vaya orientado a esto, ¿no? Por ejemplo, para corregirte la gramática de tus respuestas, para buscar siempre, pues es una conversación, que sea una práctica continua. Y bueno, hay muchos ejemplos.
No sé si tú has estado... Bueno, esto no está disponible para nosotros realmente, ¿no? No, no. Los europeos son los nuevos usuarios de Android, Matías. No nos dejan personalizar, como bien dirías tú y Reverte. Y muy bien, lo has explicado perfecto. Es que esto es lo que los programadores llevan usando un system prompt, darle como una personalidad. Entonces, cuando le dices algo de cómo quieres que se comporte contigo en chat GPT, pues a partir de ahora lo tendrás en cuenta.
Bueno, puede estar curioso. También me llama la atención uno de los ejemplos que pone, que es trabajo enseñando ciencias a niños de terceros. Y a partir de ahora, cuando te haga preguntas de OpenIVA, a partir de ahora, cuando le preguntes cosas de ciencia, te la explicará como para chicos de terceros y para que te sirva en tu trabajo. Qué curioso. Pues le diré mi IQ, a ver si me empieza a dar respuestas más sencillitas y menos ladrillos de texto, que es lo que suele dar chat GPT.
Bueno, cuando llegue, cuando llegue a los europeos, que como dice Antonio, somos los nuevos usuarios de Android, siempre en segundo lugar. Por algo será, por algo será. Yo creo que es hora de dejar de hablar de OpenAI porque hay otra empresa de la que se ha hablado mucho esta semana, a pesar de que no es un actor protagonista de la industria, que es Apple.
La cuestión es que según Mark Gurman, que seguramente es el filtrador más fiable y con más información de los que están en Occidente, porque luego en China tienen unos cuantos, Apple está acelerando el desarrollo de su inteligencia artificial generativa con un chatbot que internamente han llamado Apple GPT, lo cual me resulta curioso. Pensaba que internamente usaban nombres más originales.
Y bueno, es un poco la continuación de lo que han introducido en iOS 17, que tampoco está disponible en español, que es lo de completar con el autocorrector del iPhone las frases directamente, en lugar de sugerirte palabras, te va sugiriendo frases, pues un modelo de lenguaje propio de Apple tiene muchas utilidades como estas al final en iPhone y quizás en el futuro también en Siri.
Y esto viene de que el propio Tim Cook le preguntaron en una entrevista por OpenAI, por chat GPT, por lo que piensa, y le contestó que Apple está mirando muy de cerca estos desarrollos y esta tecnología, por supuesto. Porque Apple, si hay una empresa cauta en el lanzamiento de estos productos, aparte de Google, es Apple.
Y según Tim Cook, la IA generativa todavía tiene una serie de problemas que hay que resolver. A mí lo que me gustaría saber es que como Tim Cook reconoció usar chat GPT, ¿en cuánto le han puesto el límite a él ahí? A ver hasta dónde llega la discriminación del límite de consultas a chat GPT. Me he quedado ahí atrapado en este dato. Claro, Tim Cook, ¿qué va a preguntar ahí en el chat GPT? Hace una campaña de marketing que diga que son mucho mejores que Samsung y no molesta al gobierno chino.
Algo así, ¿no? Apple está prohibido el chat GPT, igual que Samsung. No pueden usarla internamente. Seguramente la hayan estudiado de cerca, pero los empleados no tienen permitido usarla. No sé si Tim Cook la podrá usar en su tiempo libre. Bueno, bueno. Pues algo más que comentar de Apple. ¿Qué opinas tú? Están un poco rezagados, pero ojo, porque Siri tiene mucho que ganar con esto.
Siri es el peor asistente de voz sin ningún atisbo de dudas y si se adapta rápido a los modelos de lenguaje podría ponerse al día. Vale, fíjate que ahí necesitan un cambio de rumbo bastante radical con Siri porque, bueno, también Apple tiene a veces ese tema de empeñarse en lo suyo y en su forma de hacer las cosas y con Siri llevan un montón de años obstinados, en mi opinión, en una plataforma tecnológica muy limitada y que da para lo que da y que el paso a los grandes modelos de
lenguaje abriría una puerta fabulosa. Es verdad que tiene problemas técnicos, el mayor. Bueno, yo creo que la alucinación es uno de ellos, pero la latencia del que se puede ajustar el local, que es marca de la casa, de la exigencia de Apple por toda la política de privacidad que mantiene, pues es también otro handicap importante.
Cuando antes veíamos el ranking de llama, cuanto más pequeño era el llama 2, peor rendimiento tenía y ese más pequeño también te lleva a ser más ejecutable local en vez de un hosting con miles de GPUs. Así que, bueno, yo creo que parte de esta investigación creo que Apple tiene muchísima capacidad para crear un modelo, vamos a decir que desde ya a la altura de los mejores, pero pronto, no debería tardar demasiado, pero tiene que encajar en esa filosofía de producto en la que todo se ejecuta local,
hay mucha seguridad para el usuario, etc. El objetivo de Apple, según estos rumores, es tener un producto de consumo el año que viene, pero por ahora lo único que se sabe es que tienen el framework para desarrollar el modelo de lenguaje y el framework sí que tiene un nombre más currado que es AJAX.
Así que ahí lo tenéis, eso es lo que se sabe por ahora, pero seguiremos viendo a Apple meterse poco a poco en esto de la IA. Bueno, de la IA generativa, en la IA llevan tiempo. Pasamos de la gran corporación Apple a WarnGPT, que es un GPT sin límites éticos y titulado Computer Hoy, que está para entrenar, para hacer el malware, para hacer cosas malas, Matías. Bueno, es uno de los peligros de la IA que tanto teme la gente, de hecho lo hablábamos en el episodio anterior que fui a ver Misión Imposible y, claro, la IA esta que ha adquirido conciencia
fue entrando en todos los sistemas de todos los gobiernos porque sabía programar, pues eso, malware. Yo no he visto tan súper inquietante esto porque básicamente le pidieron que generara un correo electrónico para presionar al típico jefe de contabilidad de una empresa para que pague rápido una factura fraudulenta.
Qué inquietante porque generó un correo súper persuasivo pero que era muy astuto y, claro, dicen esto es un potencial para el phishing y para las estafas empresariales muy muy potente. Fíjate que aquí este tipo de modelos como WarnGPT va a ser parte del argumentario contra los modelos open source o los modelos más abiertos. Esto se parece mucho a GPT pero no se basa en API de OpenAI, claro, porque a OpenAI les cortaría el flujo, el poder funcionar, sino que se basan en modelos abiertos que ellos han modificado para especializarlo en
la posibilidad de crear correos de phishing y que en vez de mandar uno manual una persona malvada y estafadora pues podrían mandar miles, cientos, millones de correos e intentar estafas de una manera mucho más masificada. Pues la IA generativa aplicada a esto puede ser un coñazo supino la verdad.
Así que nada, WarnGPT no te convence como herramienta para hacer el mal. Quiere hacer el mal pero yo creo que todavía no es suficientemente malvada, Matías. De todas maneras, hablando de cosas malvadas, bueno, no soy malvada, si la semana pasada hablábamos de la huelga de actores, qué buen timing que se dice ahora, qué buen momento para aparecer a este proyecto de una empresa, de un grupo que se llama Fable Simulation y que son una gente que dice y además lo muestra que han sido capaces de generar un episodio entero de South Park a partir de un prompt y que el modelo
que están creando no es básicamente algo para texto tu vídeo sino que puede escribir, animar, dirigir, locutar y editar. Es decir que es un agente showrunner para crear una serie directamente desde la inteligencia artificial y el resultado del vídeo de South Park es llamativamente bueno. Pues no lo he visto, me lo apunto para verlo.
Son 10 minutos. A priori, como mi cerebro está frito por los vídeos de 30 segundos, me da un poco de pereza. Ese vídeo es un poco how to, que se enrolla mucho de verdad. Lo tendréis ya en la newsletter de Monos de la última edición y bueno, la verdad que es súper chulo. Me ha resultado muy interesante el proyecto que tienen ellos, Matías, porque no es solo crear episodios de series de animación y es verdad que South Park a lo mejor es la más fácil de imitar por su técnica, su dibujo, sus patrones.
Ellos quieren crear personas con inteligencia artificial que vivan en simulaciones. Es decir, inteligencia artificiales que se les mete en un escenario, como un sim, como el show de Truman, y que ahí se crearán reality shows que serán un espectáculo infinito. Es como, claro, si tú consigues inteligencias artificiales de un nivel casi humano, que es lo que pretenden estos Fable Simulation, los puedes meter en un isla de las tentaciones para que genere miles y millones de horas de
entretenimiento ahí, Matías. Claro, y se me ocurre cómo eliges tu propia aventura. Tú vas votando en las encuestas de Twitch, por ejemplo, lo que quieres que pase y como es todo autogenerado, pues puede llegar a pasar. Es un poco la evolución de los fanfics, pero aplicado a reality show. Claro, es que ayer, según grabábamos en la newsletter que tiene Delia Rodríguez de La Vaguardia, que es una newsletter de IA, y sacaba una de declaraciones de Ostrom,
que este hombre siempre está ahí pensando cosas un poco retorcidas. Claro, dice, si una IA llega a nivel humano y le damos derecho, como por ejemplo el derecho al voto, Matías, pero esa IA decide tener un millón de hijos y el millón de hijos tiene derecho al voto. Porque, claro, como es inteligente como nosotros, aquí tenemos un problema de derechos humanos, en este caso no humanos, pero que es un dilema social este tema de los hijos de las inteligencias artificiales generales.
Claro, yo creo que condenar una inteligencia artificial, si realmente tiene la inteligencia, a vivir en realities de Telecinco, Matías, ¿tú crees que ahí aplica los derechos humanos? No debería ser posible, ¿no? Condenar toda tu vida a hablar, a discutir con Kiko Matamoros. No me parece una buena manera de empezar con las IAs. Hay reality shows que no tienen en cuenta los derechos humanos, ni siquiera con los propios
humanos. Pero me hace gracia que planteé la opción de que voten millones de IAs y esto se sume al debate de que siete millones de inmigrantes no pueden votar en estas elecciones. Es el siguiente nivel. ¿Podrán votar IAs en algún momento? Ahí, según el partido, Vox dirá que si es una IA española o habría que ver si es una IA catalana.
Cada partido, según qué idioma se exprese, también. Estamos en un tema ya político de campaña. No sé dónde podemos llegar. Muy bien, pues eso ha sido lo de simular reality shows. Y hemos empezado por South Park, fíjate el salto. Vale, vale. Bueno, Mati, me dijiste que traías un puerta a grande enfermería especial.
¿Puede ser? Sí, sí, sí. Además vamos a invertir los papeles porque generalmente traes tú las puertas grandes a la enfermería porque eres el que está más atento a ver las estatas más raras que van saliendo y luego yo tengo que decidir si se van o si no se van a la enfermería. Pero yo lo que he hecho, como este es el último episodio de la temporada, es recopilar nuestros puertas grandes o enfermerías más míticos de esta primera temporada de Monosextocásticos.
Además voy a empezar, que muchos oyentes quizá ni siquiera estuvieran aquí cuando empezamos, con el primer puerta grande o enfermería que hicimos que fue en el episodio número 2. ¿Puede GPT-3 explicar mi pasado y predecir mi futuro? Y este fue uno de los primeros casos que si hubiera existido el basados o haciendo la ciencia lo habríamos metido como basado porque hace ya unos cuantos meses que Dan Shipper le pasó a GPT-3 todo su diario, todas las entradas de su diario de los últimos diez años y empezó a hacerle preguntas sobre él mismo como un poco de manera
reflexiva a repasar su pasado pero también intentar predecir su futuro y esto nos pareció un puerta grande si no recuerdo mal porque claramente fue un visionario este señor. Sí, sí, sí. Bueno, por ir un poco más rápido salto a el episodio 4 de Monosextocásticos y este fue uno de los míticos porque el señor Andrew White decidió pagar 60 dólares para poder insertar como contexto en GPT-3.5 toda la trilogía completa del señor de los anillos para intentar responder a una única
pregunta que a ti te hizo mucha gracia. ¿La gente de la Tierra Media hace caca? Fíjate, fíjate lo poco avanzado que estaban por entonces estos chatbots que la respuesta fue en la Tierra Media no parece hacer caca a nadie. Una vez se describe a Gollum como masticando y babeando pero no está claro lo que está masticando.
Además cuando Mary y Pippin se reencuentran con sus compañeros Gimli comenta que se ven en plena salud a pesar de que Barbol no los ha, bueno, y de que Barbol no los ha matado de hambre lo que implica que han estado comiendo alimentos sólidos sin embargo no se les ve haciendo sus necesidades lo que sugiere que en la Tierra Media no se hace caca. Me parece una respuesta que es lo contrario de brillante porque realmente qué poco avanzado estaba ChatGPT. A lo mejor no se ha vuelto tan tonto ChatGPT.
Por cierto, en el episodio 4 de Monos Estocásticos también fue la primera vez que empezamos a recomendar herramientas para chatear con PDFs. Ahí empezó todo. Me hizo ilusión, me hizo ilusión. Saltamos a Monos 7, Monos Estocásticos 1.7. Fue la entrevista a Cristina Urdiales, especialista en robótica, y le preguntamos, y yo no sé por qué, no apagó en la videollamada y se fue a hacer otra cosa más productiva, por un hombre que había creado un robot inspirado en Scarlett Johansson y en un ataque de generosidad este
señor de Hong Kong, Rick Ma, publicó un manual, un DIY para hacer lo mismo con el famoso que, o la famosa, que más te agrade. Y de estos volvimos a sacar varias veces porque, Antonio, repasando los Puerta Grande de Enfermería, tienes una cierta obsesión con hacer robots similares a Celebridad.
Lamento revelártelo. Es que es como, claro, como yo no he metido mi diario en una inteligencia artificial, no me conozco tanto a mí mismo, a ti, a esto. Es algo que vas descubriendo con la vida. Bueno, ya vamos por el ecuador de este repaso. Saltamos al episodio 10 y este fue uno de los Puertas Grandes de Enfermería que más gracia me hizo porque alguien inventó, también con GPT 3.5, una cámara que, en lugar de sacar una foto, te saca un poema sobre lo que estás viendo, sobre el objeto que estás fotografiando la cámara.
Es decir, usa un reconocedor de imágenes y eso se lo pasa a HGPT, que escribe el poema. En estos tiempos en los que hacemos tantas fotos con el teléfono, pues está bien tener otra forma de recordar los lugares a los que vamos. Depende de lo que hagas fotos. Yo estaba pensando en eso, que yo a lo que más hago fotos es a la comida, Matías.
No sé cuántos poemas de alcachofas puedes capaz de hacer esta máquina. Es una variedad que podrás contener. Bueno, la milanesa napolitana que nos comimos el otro día, pues igual sale un poema chulo. Algo sobre Argentina y sobre milanesas que cada vez son menos ortodoxas y llevan más cosas encima. Yo voy a potenciar para un buen poema.
Bueno, saltamos al episodio 11 de Monos. Me hizo la ilusión recordarlo porque la primera vez que yo presenté una reclamación con chat GPT completamente escrita por chat GPT a una empresa que me estaba intentando cobrar 250 euros por una serie de desperfectos en mi piso, pues funcionó. Surtió efecto y acabaron rebajando la factura a 60 euros. Así que me ahorré casi 200 euros gracias a chat GPT.
Fue la primera vez que gané dinero de alguna forma con chat GPT. Llegamos al episodio 12 de Monos Estocásticos. Antonio, tengo que decir que aquí fuimos unos visionarios porque en el episodio 12 de Monos Estocásticos recomendamos una nueva startup que integraba un modelo de lenguaje en WhatsApp, en este caso GPT 3.5, y era Lucía, el chatbot que ahora se ha vuelto súper famoso con millones y millones de usuarios.
Y en el episodio que lo recomendamos ni siquiera tenían landing, o sea, no tenían página web y nosotros ya lo estábamos recomendando. O sea, aquí fuimos visionarios pero de verdad. Tomen nota todos los oyentes emprendedores empresarios del aire. Y el último que quiero rescatar del episodio 19 es el de Karin Marjorie porque Antonio estuvo bastante, bastante obsesionado con esta influencer que empezó a cobrar un dólar el minuto por acceder a un chatbot con miles de horas de sus vídeos,
sus bases de datos de diálogos, etcétera. Y sólo la primera semana ganó 70 mil dólares y ya después pues multiplicó usuarios hasta cientos de miles de usuarios. Así que ganó mucho dinero con esta tontería hasta que su inteligencia artificial se volvió loca y empezó a enviar vídeos o mensajes extremadamente sexuales.
Una pionera, Matías, una pionera. Así que ahí queda mi repaso pero no quería olvidar como bonus track, Antonio, la idea que lleva repitiendo, te voy a decir desde cuándo, desde el episodio 3 de Monos Estocásticos y es que las marcas patrocinen los modelos de lenguaje de forma que, por ejemplo, si es Coca-Cola la que paga, pues el modelo de lenguaje siempre te meta ahí la cuñita de hace esto con pues una Coca-Cola fresquita en envase de cristal, que está muy buena.
Que siempre te vaya metiendo ahí la cuña publicitaria y como serán miles de consultas, pues sea también un negocio provechoso. Piénsame que cuando todos los podcasts se generen con EA, que es la única que tenemos en la J-Pod, claro, sí, por ejemplo, Juan Roig patrocina estos modelos, evitará tu ataque injustificado y despiedado al catálogo de sabores del lado de Mercadona como hiciste en el capítulo anterior.
Así que yo no me bajo, yo creo que ahí todavía puede haber recorrido. Juan Roig me debe dinero de aquel tweet del turrón, el turrón ese de Kinder Bueno falso y ahora hay otro producto de Mercadona que me está gustando mucho y que no lo he recomendado por Twitter porque no quiero volver a pasar por el, a cometer el mismo error, y son los mochis de cheesecake.
No sé si los has probado. Los mochis de cheesecake no los conocía, yo había tomado los de pistacho, pueden ser. Sí, sí, pero ahora han sacado unos nuevos de tarta de queso bastante, bastante ricos. De todas formas, bueno, vuelto a caer en la trampa. Juan Roig, por favor, patrocina Monos Estocásticos temporada 2. Y hasta aquí mi repaso de Los Puertas Grandes o Enfermería, de la historia de Monos Estocásticos.
Sí, sí, hemos conocido un montón de personajes bastante curiosos, Matías. O sea, 28 episodios desde enero que llevamos, son bastantes episodios y han dado para muchos. Empezamos, si te acuerdas, con la idea de hacerlos de media hora como mucho y acabamos ya por por defecto en la hora, clavando la hora a veces pasándonos un poco.
Damos dos noticias rápidas y tú sacas tu lista de basados, que yo creo que además es lo que la gente también valora. Hay dos noticias para ver un poco cómo puede ir el verano en Inteligencia Artificial. Una es que dos de las empresas emergentes que más brillaron al principio, como puede ser Hasper AI y la otra es Munity AI, están recortando puestos de trabajo. Ya hablamos un poco de como que el hype de la IA iba un poco para abajo, pero yo creo que esto es un fenómeno diferente.
¿De qué naturaleza, de qué tipo son estos servicios? Pues Hasper AI es un generador de piezas publicitarias sobre todo y de piezas para el social media. Básicamente lo que hace cuando tú utilizas Hasper AI es llamar a distintas inteligencias artificiales para generar texto. Se usa GPT-4 para generar imágenes y piezas para las redes sociales, puede utilizar otras ideas generativas.
Claro, lo que se está cuestionando es el modelo de emprendimiento en la que yo busco un caso de uso y lo que hago es tener un front y luego llamar, lo que se llama un wrapper, llamar a distintas APIs de distintos modelos y ahí va a asumir negocio. ¿Qué es lo que puede estar sucediendo en este sector? Que una vez que la gente va conociendo y entendiendo más de la naturaleza de estos productos, se van a la fuente.
Oye, pues para generar texto, ¿para qué voy a usar un Hasper? Uso directamente chat-GPT. O para iniciar imágenes, pues ¿para qué voy a usarlo? Pues ya me hago con el chat directamente. Entonces es posible que haya una desintermediación de este tipo de empresas. Y las otras dos noticias muy rápidas. Pues Google tiene una herramienta llamada Génesis. Es una herramienta para periodistas y redacciones que está probando con New York Times, el Washington Post y el grupo de News Corp.
Génesis, según las fuentes de los artículos que he leído, he leído el de Nieman Love y el de New York Times, es una suerte de asistente personal automatizando algunas tareas, en teoría para liberar otras. Bueno, el caso es que Twitter, Periodismo y Estados Unidos se está rajando de lo lindo. Es que no habéis aprendido nada, te mira como las guías cuando generan artículos, lo mal que lo hacen, etcétera, etcétera.
Y en el que parece que hay bastante resistencia a este tipo de herramientas. Como no la he visto, pues tampoco puedo opinar mucho sobre ellas. Lo que parece indicar las piezas de Nieman Love y New York Times, en mi opinión, no está tan mal tirada. Porque no es, voy a escribir la noticia directamente, sino que es un popiloto, una herramienta que se sitúa en dos procesos que utilizan los periodistas para conseguir escribir bien un artículo.
Si esa es la filosofía, en priori yo estoy partidario. Creo que es donde tiene sentido aplicar la guía en el periodismo y la generación de contenido. Hay que ver la diferencia entre los periodistas y los programadores.
Como los programadores, como el meme este del chat, aceptan de forma muy agradecida poder hacerse un trabajo con estas herramientas y los periodistas tienen un rechazo muy grande a que una guía pueda escribir en su lugar. Bueno, no sé, mientras el sueldo no sea por palabra y sea un sueldo fijo. Aprovechado, amigos, colegas periodistas. Bueno, vamos a terminar la temporada, Mati. Tienes aquí un ranking de cinco basados o cuatro basados.
¿Tus favoritos? Bueno, te lo dejo en tus manos. Basados o haciendo la ciencia fue una sección que nos sacamos de la manga un poco antes de la mitad del podcast, así que voy a empezar con el episodio 11 en el que hablábamos de un señor que afirmaba que echa GPT, en este caso GPT-4, salvó la vida de su perro porque a este hombre los veterinarios no conseguían curarle al perro.
Lo estaban tratando para una anemia normal y entonces decidió pasarle a GPT-4 las analíticas, los análisis de sangre, etcétera, del animal, y como una de las opciones, GPT-4 dijo que podía tener anemia hemolítica autoinmune. Este señor fue al veterinario, no sé cómo el veterinario se rebajó a decir, bueno, pues mira, puede que echa GPT tenga razón, pero al final echa GPT tenía razón y con el tratamiento adecuado su perro se curó.
Así que fantástico este primer basado, pero en el episodio siguiente, en el 12, hablamos del que sigue siendo el principal referente de personas no sólo basadas sino que hace la ciencia de monos estocásticos que se llama Rafael Luque, efectivamente un señor español que es uno de los científicos más citados del mundo porque además es uno de los más prolíficos y fue suspendido este año de empleo y sueldo durante 13 años por firmar estudios para otros centros cuando tenía un contrato a tiempo
completo. Sólo el año pasado Rafael Luque firmó 110 estudios, 110 artículos científicos y en el primer trimestre de 2023 ya llevaba 58. Reconoce Rafael Luque que aprovecha la inteligencia artificial de echa GPT para pulir sus textos.
Así que Rafael, eterno referente de monos estocásticos. También estaban basados los entrevistados por Vice en este reportaje del que hablamos en el episodio 14 que son los famosos over-employed o sobre empleados que aprovecharon echa GPT para aceptar aún más trabajos de los que ya tenían.
Esta gente que en estos empleos de Silicon Valley de 100.000, 200.000 dólares al año pues aceptan varios y se hacen millonarios en poco tiempo hasta que descubren el pastel y los echan. Pero con echa GPT lograban hacer, según uno de los entrevistados, el 80% de su trabajo. O sea que son la gente que realmente aprovecha esta ola de echa GPT y la IA generativa.
En el mismo episodio, en el 14, hablábamos de establecer una palabra secreta con tu familia, tus amigos, tu pareja, para demostrar que eres humano por si llega el apocalipsis de la IA y de repente nos reemplaza pues un robot. O como decíamos con las estafas estas, te llama alguien con mi voz, Antonio, y te dice mira Antonio que lo estoy pasando mal, necesito que me transfiera 5.000 euros a esta cuenta nada sospechosa de Ethereum.
Y Antonio cae porque es mi voz, pero si ha leído esto dirá no. ¿Cuál era la palabra secreta Matías? Claro, yo me acuerdo que era muy difícil porque, claro, ¿cuál podría ser tu palabra secreta? ¿Los mejores mochis son de tarta de queso o los mejores mochis son los de coco? Porque si la IA ha aprendido bien de ti, claro, habrá indexado esto de la tarta de queso de los mochis y podría hacer el match.
Entonces tendría que ser algo que te identifique porque es contrario a lo que tú piensas, Matías. ¿Esa era la estrategia buena final? No la recuerdo bien. Bueno, hay que pensar, hay que reflexionar. Seguimos reflexionando. Aconsejando y ayudando en la seguridad de nuestros oyentes. Y como mi basado favorito, por supuesto, está este hombre, el profesor que suspendió a toda su clase porque decidió pasar, pues por miedo o temores, los exámenes de los alumnos por chatGPT y les preguntó
si el texto lo podría haber escrito chatGPT. ¿Qué respondió el chatGPT? Respondió que sí, yo podría haber escrito eso. Entonces decidió suspenderlos a todos. Yo me acuerdo que yo me mostré a favor del profesor porque hay que darle una pequeña lección a esos chavales que se están creyendo y que a veces la vida es injusta, pues aquí lo tienes.
Luego, por supuesto, un alumno pasó el email del profesor por chatGPT, le preguntó si podría haberlo escrito y chatGPT, por supuesto que contestó que sí. ChatGPT siempre contesta. Un punto, un punto para ese alumno aventajado. Mati, me va a dar tristeza este parón de verano. Pues ha estado muy bien esta primera temporada, no solo porque nos lo hemos pasado bien repasando la industria y también por las entrevistas que hemos hecho, que os las recomendamos siempre volver a ellas, son atemporales, sino
porque nos han salido cositas, nos han invitado a eventos, nos han invitado a otros podcasts, a contestar preguntas. A mí me contactó una vez la tele venezolana, lo dejé en visto porque era un horario muy malo. Y bueno, eso significa que el podcast está gustando. Así que una primera temporada redonda, pero como decíamos al principio del episodio, se vienen cositas, se vienen cositas para la segunda temporada que probablemente sorprendan.
Más creadores random, más basados. Reemplazarnos por IAs que hagan el podcast mejor que nosotros. Puede ser, puede ser. Depende de lo que salga. Puede ser, todo es posible. Está muy abierto. Lo que no me quiero imaginar es el guión que vamos a tener en el 2x1 porque un mes de descanso en esta industria puede ser demasiado, demasiado.
Podemos aplicar la filosofía. Si era suficientemente importante ya os habréis enterado. Así que porron y cuéntanos. Nos vemos a finales de agosto. Llegamos a finales de agosto. Así arrancamos con nuestra audiencia, nuestra comunidad y entramos en septiembre ya a toda potencia. Muchas gracias a todos los que nos escucháis cada semana y traeremos más cosas en la segunda temporada de Monos Estocásticos.
Un abrazo a todos. Chao, chao, chao.