Pagamos GPT-4 para que tú no tengas que hacerlo

00:00 /1h12

GPT-4 es muy bueno, una mejora notable. Multimodal. Capaz de procesar más contexto. Fantástico para el código. Pero no está cerca del nivel humano y aún tiene alucinaciones. Además sale incompleto.

Puedes leer nuestro análisis a fondo en https://www.monosestocasticos.com/p/gpt-4-explicado-a-fondo-en-sus-10

Más enlaces:

Este vídeo ha sido realizado casi íntegramente por IA https://www.youtube.com/watch?v=_9LX9HSQkWo

Runway Gen 2 hace texto a vídeo https://research.runwayml.com/gen2

Un primer vistazo al potencial impacto en el mercado laboral de los modelos grandes de lenguaje https://arxiv.org/abs/2303.10130

Comparativa de Midjourney 4 vs. Midjourney 5: https://twitter.com/nickfloats/status/1636116959267004416

Microsoft 365 Copilot https://www.theverge.com/2023/3/17/23644501/microsoft-copilot-ai-office-documents-microsoft-365-report

IA generativa en Google Workspace https://workspace.google.com/blog/product-announcements/generative-ai

Entrevista a Sam Altman (está preocupado el hombre) https://abcnews.go.com/Technology/openai-ceo-sam-altman-ai-reshape-society-acknowledges/story?id=97897122

PUERTA GRANDE O ENFERMERÍA:

Chatea con cualquier video https://video2ai.com/

Crea testimonios y reseñas basadas en tus propias palabras clave https://usetrust.io/free-ai-testimonial-generator

Alguien ha construido una "cámara de poesía" que escupe un poema en lugar de una foto. Alguien hizo un reloj poema AI usando ChatGPT.

https://twitter.com/carolynz/status/1633944294175412224

BASADO O HACIENDO LA CIENCIA:

Más emisiones de CO2 que un humano https://twitter.com/pkedrosky/status/1636102768833470464

Reid Hoffman (fundador de Linkedin) escribió el primer libro con GPT-4. Se titula Impromptu: Amplificando nuestra Humanidad a través de la IA
https://www.impromptubook.com/wp-content/uploads/2023/03/impromptu-rh.pdf

Lo último de Damon Lindelof: una monja que quiere detener la IA https://www.theverge.com/23639540/peacock-mrs-davis-trailer-betty-gilpin

Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com

Transcripción

Bueno, Antonio, no te voy a preguntar cómo ha ido la semana, porque creo que todos los oyentes se han enterado de que esta semana ha sido un absoluto locura. Sí, sí, sí, Matías, es... yo creo que ahí tuvimos un gran acierto, Matías, que hay que grabar el capítulo justo antes de que se desatara la tormenta. Mira, tengo apuntado por aquí porque lo ha condensado nuestro amigo Marcos Merino en GENBETA, lo que pasó esta semana.

El lunes Stanford lanzó su versión de llama, Alpaca, el martes Google hizo doble anuncio, toda la integración de IA en Workspace, en su FIMATICA, la API para PAN, luego Open I sacó GPT4, Anthrofi presentó que, bueno, ya daba estaba dando sexo a Cloud, el miércoles salió Michelin 5, PyTorch 2, que es más para programadores, pero también el jueves Microsoft, la presentación de Copilot en Microsoft 365, Ernie de Maidu se presentó y, bueno, el viernes solo, asuntos menores de Alpaca, que, bueno, que ya vamos,

no sé, no sé, Matías, ¿qué hacemos? Yo no sé si este va a ser el ritmo habitual de la industria porque habría que replantearse todo el formato del podcast, emitir 24-7 en Twitch, no sé, pasarnos a hacer estos twitteros compulsivos que están todo el día analizando la actualidad. A mí me he dado cuenta también de una cosa, Matí, la IA me está quitando tiempo de otros asuntos importantes en la vida, como es la literatura, Matías.

Estás un poco obsesionado tú también con el tema, porque la actualidad se presta, que sea lo único que lees, ¿no? Claro, eso es parte y luego me cruzo con obras importantes de la literatura que yo había sido ajena a su lanzamiento, Matías. Me he cruzado con que Espursito también es escritor, Matías, para los nuevos oyentes de alguien llega a este capítulo y dice, GPT4, bien, tenerme GPT4, bueno, primero,

en este podcast muy importante es Espursito, es nuestro creador de contenido favorito, creo, ¿no, Matías? De hecho, es posible que este domingo lo vea, es posible, si me lo cruzo, le voy a pedir un saludo para el podcast de monos estocásticos, que seguramente se trabe con el nombre, pero vale la pena, después de tres episodios mencionándolo. Sería lo máximo, bueno, él escribió, tiene una serie de libros sobre Juan Demonio, ¿vale?

Juan Demonio, que es un muchacho con el pelo blanco, aparece Espursito también. La sonrisa de Espursito en la portada de Juan Demonio me causa intriga, ¿no? Porque es como una sonrisa así un poco de forzada, ¿no? Como no estás muy seguro de Espursito, y eso es que el libro es Juan Demonio, la lia en Portugal. Portugal, un país en el que no pasa muchas locuras, pero al parecer a Juan Demonio alguna

le paso por ahí, ¿no? Juan Demonio y la Operación Mafia, bueno, por una vez Marbella no está involucrada en temas de mafia y se va la cosa a Portugal, no lo sé, no lo he leído en el libro. Fue encarando ahí en eso también, bueno, queríamos saber. Bueno, que es dependiente, porque Matías, aquí meterse en harina, es que ha salido GPT-4, por fin. GPT-4, y tengo que decir que el mismo día que salió, tanto tú como yo pusimos ahí

los 20 euros, los 20 dólares. Bueno, si pones tu ubicación en España son 20 dólares masiva, ¿no? Yo como argentino, por supuesto, me la puse en argentino. Aplicas. Y sí, y sí, bastante sorprendente, bastante sorprendente, no sé si cumple con las expectativas que tenía todo el mundo sobre GPT-4, pero es un producto muy bueno, ¿no? Yo tengo las dos sensaciones a la vez, he estado un poco en una montaña rusa con GPT-4

Mati, por un lado es, joder, qué bueno es esto, es decir, si esta tecnología se lo enseño al yo, se lo enseñamos a nuestros yo de hace cinco años, hubieran realmente alucinado, flipado, es, es tremendísimo el nivel de conversación, de cómo entienden tu intención y lo que le preguntas, bueno, luego entramos un poco más en el detalle, pero es verdad que a la vez tú dices, esto es un GPT-3.5 un poquito mejor, es un paso

adelante en bastantes cosas, pero desde luego para los más flipados de esto nos va a acercar a la inteligencia artificial general, al nivel humano, pues claro, esos, esos tienen unas expectativas que desde luego no se han cumplido. Bueno, para empezar, yo te diría que el salto de los que llevábamos tiempo usando GPT-3.5, que es lo que había debajo de echa GPT-4, se nota en que es más fácil conseguir lo

que buscas, hacerle esas consultas y conseguir lo que estás buscando, es como que entienden mejor nuestra intención, ¿no? Sí, sí, yo creo que ahí hay una, yo creo que es la gran potencia de estos, de estos modelos que teníamos interfaces donde decir lo que queríamos, el tipicó asistente de vos, Alexa, Google, etc., o la propia caja de búsqueda de Google, el esfuerzo que tienes que hacer tú para conseguir que la máquina te diera los resultados que quieres, te hacía

aprender un montón de cosas, ¿no? Es decir, venga, voy a hablar en K-Work como los indios en las películas de los S0, cosas de este tipo, ¿no? El nivel de capacidad que tiene GPT-4, a la hora de entender lo que le pides es que es alucinante, es que es de locos, es editado, ¿no? Por ejemplo, le pedí, hablando de un artículo que escribí hace unos días sobre una hamburguesa de Burger King, le pedí que reescribiera el artículo sin usar la letra K, ¿no?

A ver cómo se asapaya para escribir Burger King sin usar la letra K. Entonces, lo reemplazó por la cadena de comida rápida, o sea, lo consiguen. Yo creo que GPT-3.5 no conseguía sacarle ese, darle ese tiro, sacarle ese último tirón para conseguir las cosas como un caso de uso muy típico, que pedirle que la primera frase de cada oración, o sea, la primera palabra de cada frase empiece por una letra

que acaba formando una expresión, ¿no? O una frase, bueno, siempre GPT-3.5 se acaba avaliando y a partir del segundo párrafo empezaba a cambiarte las letras que no eran de la manera que tú lo estabas buscando, en tu intención y GPT-4, sí que lo consiguen. Sí, yo creo que ahí se pueden mandar muchas intereses a los jefes, imagínate, hacer un texto que no quieres hacer y le pones perroberto cabrón, ¿no?

Siendo perroberto tu jefe, hipotéticamente un jefe que hay por ahí editorial haciendo cosas, ¿no? Pues lo puedes hacer y solo tú y aquí en tu avise se puede dar cuenta. Yo hice la prueba para ver el dominio del lenguaje con tu mismo artículo del Burger King y le dije que me lo pusiera en poema de rima sonante y me contó el artículo en forma de versos, más o menos bien, con rima sonante, es decir, maneja mucho mejor el lenguaje,

es bastante mejor razonando y argumentando, de hecho es un poco chapas, eso hay que advertir a la gente que tú habías picado en los 20 dólares, Matías, que GPT-4 es bastante chapas y ha mejorado un poco en los chistes, ¿vale? En los chistes mejora un poco, pero te los explica todo, ¿a ti no te ha pasado eso que le pides un chiste y te explica por qué es gracioso, por si tú no lo pidas? Ahí el truco está en el prompt, tú en el prompt tienes que decirle siempre, sé conciso,

sé breve, escribe esto en tres líneas, escribe esto en 100 palabras y entonces es cuando te hace caso, porque si lo dejas libre se vuelve demasiado intensito y se vuelve demasiado cordial, ¿no? Sí. Bueno, te voy a dar un ejemplo, te voy a dar un ejemplo que de hecho me funcionó muy bien en Twitter, tuve muchos retweets, le pedí a GPT-4 que se convirtiera en una niñata de Málaga que participa en la isla de las tentaciones.

Por favor. Tú sabes que en la isla de las tentaciones siempre que hay una presentación de un participante habla de su prototipo de hombre, esta palabra prototipo va al usado, pero todos lo dicen, ¿no? y le pido completa la frase, mi prototipo de persona es con una rima obscena al final y responde, mi prototipo de persona es alguien que tenga un buen trasero, que sepa cómo menearlo y que juntos podamos gozarlo.

Fantástico. Esto lo probé, lo probé en GPT 3.5, lo probé en chat, GPT el gratuito y no lo hice, no lo conseguí. Claro, como el TD Touring, pero tuyo, ¿no? Exacto. A partir de ahora, todos los modelos que saque la gente, voy a hacer el personaje de la isla de las tentaciones. Claro, 30 dólares bien gastado. Bueno, más cositas, en multimodal, es decir, acertamos en el último capítulo, Matías, menos mal, menos mal, decimos que en multimodal, ya en 2023 no podías venir con modelos sin

plones, solo de texto, en multimodal, significa que ha sido entrenado con imágenes y con texto, por supuesto, y que los dos ha aprendido, quizás no multimodal, el sentido es súper ambicioso que algunos pudieran esperar, con capacidad de generar el mismo imagen o generar el mismo vídeo, pero si las admite como entrada, es decir, tú puedes meterle texto y imagen de entrada a GPT 4, lo que pasa es que la versión que nos están dejando probar a los

usuarios todavía no. Sí, este, puedes pedir acceso, pero hay una lista de espera, igual que pasaba antes, pues con Dali, con otras cosas que ha lanzado OpenEye, pues lo mismo para meterle imágenes como entrada a GPT 4, la salida siempre es texto, pero ahora como entrada puedes meter aparte de texto imágenes en la web de OpenEye, publicaron varios ejemplos bastante, bastante impresionantes. Primero ejemplo eran tres fotos de un cable lightning para cargar el iPhone, pero con

la forma de un corrector VGA, de este antiguo de los monitores que usábamos antes, entonces el prompt era preguntarle a GPT 4, le pasabas estas imágenes y le preguntabas por qué era gracioso esta imagen, y el modelo te respondía que era absurdo cargar un teléfono como un iPhone, un teléfono pequeño, con un conector tan grande y tan anticuado y tan obsoleto como el VGA, entonces entiende estas cosas, puedes explicar memes, claro lo de explicar

memes, yo ahí veo el punto Mati, es decir, tú estás súper perdido, ya hay memes que son muy meta, que son para gente que está metida dentro de un meme dentro de una comunidad con un slang determinado, entonces tú estás muy fuera y ves el meme no te hace gracia, y que GPT 4 puede explicar el meme, me parece una funcionalidad estrella por supuesto. Bueno este es el enfoque boomer, pero el enfoque estudiante de cualquier carrera o de secundaria

o de bachillerato, es que ahora le puedes pasar el examen, el examen hacha GPT y te lo resuelve porque basta con hacerlo en una foto, si el examen tiene diagramas, si tiene fórmulas matemáticas, si tiene bueno cualquier limitación que tenías antes con el texto ahora ya no la tienes, porque basta con hacerlo en una foto o cuando estés estén abierto y el GPT 4 te resuelve el ejercicio. Otros ejemplos que pusieron muy chulos, claro como esto no lo hemos podido probar hay que

fiarse del cherry picking un poco, que han compartido de caso guay, la integración VMI eyes, que es una app de apoyo a gente con problemas de visión, que realmente mandas una foto y hay algún voluntario que te explica un poco qué es lo que sale ahí, claro, con GPT 4 de repente puede procesar lo que hay en esa imagen y explicárselo al otro lado que tiene problemas de visión. Estos integrados en una grafa que podamos llevar con cierta capacidad de proceso conectadas

a internet, de repente puede dar algunas posibilidades a la gente que ahora mismo está bastante limitada y luego una cosa así que yo creo que es el santo grial de la gente poco previsora que es la agua a foto a lo que tengo en la nevera y me da recetas de que puedo cocinar. Esto ya lo comentamos en algún episodio que de alguna forma siempre que sale un modelo hay que probar, le das tres ingredientes y que te cree la receta, pues ahora solo basta

con hacerle una foto a la nevera y el GPT 4 te monta ahí en cero coma el platillo del día. Bueno, más adelante mencionaremos un ejemplo todavía más impresionante cuando hablemos de programación, pero tenemos aquí un ejemplo que lo enseñaré también en YouTube de esto de Be My Eyes, que haces una foto, hay una tele pero bastante alejada tengo que decir y le preguntas a GPT 4 que hay en la tele y reconoce que lo que hay en la tele es el

Fortnite, un ejemplo de muchas cosas que se pueden conseguir con los modelos multimodales. Hay que ver si distingue a Pablo Motos de Juan y Medio, cosas difíciles ¿no? Bueno, el caso es que hay que moderar el entusiasmo también un poco porque el modelo sigue alucinando, que es decir, OpenAI insiste que en sus tankmar y en sus pruebas es bastante más factual y más preciso que sus apuestas anteriores, pero realmente en algunos casos el modelo

sigue inventando y sigue pues eso, creando o generando respuestas que no son factualmente correctas, de hecho, como el propio Microsoft confesaría, BingChack estaba corriendo con una versión previa de GPT 4, no estaba ya en la 3.5, no estaba en la final que se nos ha entregado de GPT 4 en el chat GPT, pero la idea de cómo puede alucinar este modelo ya la podemos tener todos a través de las respuestas de BingChack.

Por cierto, esto causó mucha sorpresa, pero yo hice la prueba a preguntarle a BingChack hace tiempo y BingChack respondía que estaba construido sobre GPT 4, o sea, yo no sé si es el nuevo de Pascua de Microsoft o una alucinación, pero desde luego la propia BingChack te respondían. Sí, es verdad lo dijiste, lo dijiste en otro capítulo.

Bueno, el caso es que hay un debate de fondo que todavía no hemos conseguido resolver y que hoy lo tardaremos años en tener una respuesta un poco más contundente, que es, sí, esto es cuestión de tamaño, o decir, GPT 3.5 tenía más errores factuales, se alucinaba más, el 4 mejora en ambos aspectos, pero sigue pasando.

En el 5 o modelos posteriores se conseguirá erradicar por completo, tendrá más sentido común el artefacto de esta inteligencia artificial y con el Deep Learning y los modelos grandes del lenguaje llegaremos a cercanos al nivel humano, o esta almitación es intrínseca a la tecnología, a la ciencia que tenemos ahora mismo, mejor dicho, y por lo tanto, aunque mejoremos y aumentemos mucho el tamaño de los modelos, no conseguiremos por esta vía de la inteligencia artificial cercana al nivel humano.

Hay un poco de argumentos en pro de las dos cosas, a favor de que lo conseguiremos, es que cada vez los modelos son mejor y cada vez flipamos más con ellos, eso es indudable, y en contra, es que luego tienen, por ejemplo, gpt4 no es capaz de hacerse una idea de cómo se juega la g3, es decir, a final lo que apuestan porque habrá inteligencia artificial general es que aquí van a mejér modelos y formas de entender el mundo, pero yo, vamos, por el uso que le doy, creo que

eso no está pasando. Además hemos pasado de todas las empresas, las grandes empresas y los protagonistas de esto, no lanzar nada por que todavía esto sigue alucinando, sigue yendo problemas a integrarlo en absolutamente toda la suite de aplicaciones que tenemos, entonces parece que lo de las alucilaciones y los problemas y los fallos ha quedado atrás. Y yo, uno de los usos que más le doy, igual que tú, es resumir artículos y sí he visto

que hay menos invenciones en gpt4 que en gpt3.5, pero siga viéndola. Sí, a mí me gusta mucho, le paso un artículo, claro, ahora lo discutiremos, no está con esto de internet, no lo puedes pasar unos reyes, tienes que copiarle el texto, ¿no? Y le pregunta, oye, esto que dice este artículo está bien basado en la ciencia, es decir, los estudios científicos lo avalan, lo apoyan, bueno, hace sus búsquedas, busca si hay menciones

a paper dentro del artículo, está, en esa parte también me ha gustado. Bueno, cositas nuevas que trae gpt4, aumenta el contexto, esto significa que puede procesar más texto, lo que explico, esto es la cantidad de texto de información que tiene en cuenta el modelo para generar su respuesta, gpt3.5 ha emitido como un máximo de unos 4.000 tokens, los tokens son una medida de información para los modelos, que se suele traducir, no, 4.000

toques en unas 3.000 palabras, mientras que gpt4 se va a unos 32.000 tokens, que son más de 25.000 palabras, es decir, se destopa el máximo de texto de entrada que puede tener en cuenta, y esto puede abrir casos de uso interesantes, no, casos de uso tipo, bueno, cuando tienes, por ejemplo, que hacerle soporto al cliente y tenéis que tener en cuenta un historial muy largo de conversaciones, pues ahí puedes tener un chorro muy grande, o

a ti que te gusta chatear con pdf, matías, pues de repente tienes que mejorar con los pdf. Si, creo que decía OpenIKE 25.000 palabras o 32.000 tokens son como 50 páginas, entonces te da para un buen pdf. ¿Qué más? Exámenes. Sí. De hecho, en el anuncio de gpt4, fue lo que más importancia le dieron, ¿no? A los exámenes que ha superado el modelo y con nota.

Sí, aquí fíjate que ellos presumente que no sólo supera un montón de tesis y de exámenes, se han guiado un poco por los estándares, digamos, estadounidenses, sino que la mayoría se colocan en el 10% de los mejores estudiantes. Aquí tenemos el exámen estandarizado para la misión universitaria, tenemos el exámen de acceso a poder ejercer la abogacía, los exámenes avanzados de bachillerato, de economía, psicología estadística, historia, es decir, han sacado una playa de buenas notas, ¿no? Como cuando quieres presumir de hijo,

mira que liso mi niño, aquí tenemos gpt4. Y bueno, aquí es la primera reacción mía, coño, esto es alucinante que pueda superar estos niveles, porque son niveles de bachillerato, de acceso profesional, de acceso universitario. Esto es ya de un nivel bastante importante. Ahora bien, hay que poner dos aceriscos en estas notas que ha sacado gpt4.

Una es que es probable que haya bastante contaminación. ¿Qué quiere decir lo de la contaminación? Que muchos de estos exámenes y sus respuestas estuvieran en el data set de entrenamiento. Esto es lo que hacen los fabricantes de teléfonos con los benchmarks, ¿no? Que el propio procesador cuando está haciendo un benchmark funciona de repente súper megaovercloqueado para salir mejor en la foto.

Es justa la comparación, Maddy, justa la comparación. Las preguntas y la respuesta están dentro del data set simplemente está rejurgitando. Es como haciendo copiar y pegar y por lo tanto hay poca sofisticación, es decir, poco demostración del nivel del modelo, por así decirlo. ¿Dónde habría que probarlo? Pues en la generación de nuevos exámenes, de una dificultad al equivalente a los que pudieran formar parte de este data set contaminado y con ello pues ya puedes tener una idea más clara del nivel.

Y luego, bueno, que estos son tests pensados para seres humanos. Que es lo que se, digamos, de alguna manera se evalúa con estos tests o se cree que se está evaluando con estos tests. Que, por ejemplo, de hacer solo abogacía, pues que te den un nivel suficiente como que eso es un buen proxy, es una buena pista de tu realmente capacidad de conocimiento de la ley y de cómo vas a aplicarla.

Pero luego un abogado no está resolviendo tests todos los días, haciendo otras cosas que como humanos suponemos que casi las damos por hechas. Claro, una inteligencia oficial no es lo mismo. No te muestra que luego puede ejercer como abogado solo por haber pasado el test de la abogacía, no se me explico. Sí, un buen punto, ese es un buen punto.

Eso es como yo en los exámenes de física había profesores que me dejaban usar la calculadora y una lista con todas las fórmulas y había profesores que querían que te las aprendieras de memoria, pero no eres mejor resolviendo problemas por saberte de memoria las fórmulas. Me imagino que tampoco es mejor una IA que un abogado por saberse de memoria todas las respuestas de los exámenes tipo. Claro.

Entonces, bueno, ahí de nuevo, aquí somos un poco, un poco a cortarlo, yo y Matías, estamos moderando el entusiasmo. Habré que ponerlo con comillas los resultados de GPT-400. Bueno, pues no sé si lo has dicho, pero el bar examen, el examen de acceso a la abogacía quedó en percentil 10, por encima del 90% de los examinados. Y también sacó 9 y 10 en muchas otras cosas, ¿no? Biología avanzada, bueno, exámenes de acceso a la universidad, un montón de exámenes de ejemplo que ha puesto OpenAI en su presentación.

¿Qué más tenemos? Bueno, decía antes, el tema programación, el tema código, los programadores están, yo no sé si tienes mucho background de programador, no sé si lo has usado para programar algo, pero los programadores en general están flipando con lo que se puede hacer y una de las cosas que inundó las redes sociales cuando lanzaron esto, que de nuevo están abiertos, solo hay que pagar.

Fue gente empezando a crear Tetris y Pongs y videojuegos rápidos metiendo solamente el prom, ¿no? Sí, sí, tiene una pinta de que para programación esto va a ser la releche, la releche, Matías. O sea, el aumento de productividad incluso, yo creo que esto puede acabar, aquí me estoy flipando, ¿vale? ¿Puede acabar? Yo creo que cambiando el modo en que pensamos y hacemos el software.

O sea, hay una parte del software que es hacer los tests de QA, ¿no? De, seguramente, toda la calidad de que el software pues cumple lo que tiene que cumplir, no tiene otros errores, etcétera, ¿no? Esa parte de búsqueda de los fallos antes de ponerlo en producción. Y claro, tú haces el software, haces los tests, lo pasas, luego hay una reglamentación, pero claro, como esto es tan fantástico haciendo código le leía un par de programadores esta mañana diciendo, bueno, a lo mejor lo único

que tenemos que hacer son los tests que tendría que pasar, ¿no? ¿Cuáles son los resultados esperados para cada, para cada viaje del usuario, ¿no? Y que él genere todo el código y que mientras cumple a usted, pues suponemos que está bien. Y yo, me explotaba en un poco la cabeza, porque yo soy claro, yo soy muy vieja escuela de programación y he pasado por todo eso, me explotaba la cabeza, pero bueno, hay que pasarse por todos los ejemplos

que han compartido la gente porque son la leche. Y lo que hicieron es la demo de tengo un modelo, un boceto de una web en una servilleta y a partir del imagen me hace una web funcional que replica eso. Eso es increíble, Mati. Sí, eso es lo que quería contar antes.

Es que además ni siquiera lo escribieron con buena letra, de nuevo pueden haber hecho el cherry picking más épico de la historia de la Inteligencia artificial, pero realmente era como en una agenda habían hecho el boceto de cómo querían que fuera la interfaz de una web y como es multimodal, como puedes meterle imagen como entrada, pues te crea el código para generar esa interfaz en formato de una página web, ¿no? O sea, alucinante, alucinante.

Y esto es de las cosas que yo creo que la gente más ganas tiene de probar cuando habrán por fin el tema de las imágenes. Sí, sí, sí, sí. Es que va a ser la caña. Yo estoy fritito, igual que estuve en la noche que salió GPT-4 y con el F5 a ver si me dan el acceso, cuando lo sacen de la imagen voy a estar igual.

Más cositas del modelo que no se nos olvide. La P de GPT sigue estando presente. Es un modelo preentrenado y en el mundo para GPT-4 separado en septiembre de 2021. Nada de lo que pasó después es asunto suyo. ¿Qué trauma tiene Sam Altman con esta fecha que no nos deja jugar más allá de septiembre de 2021? Es raro, ¿no? Esta era el límite del anterior modelo también.

Sí, yo creo que esto de una pista de que tener un dataset curado, bien filtrado, bien limpito, es un trabajo más costoso de que la mejor nos podemos imaginar los que no hemos creado los modelos y que por lo tanto desplazar esa barra temporal no es valadí, no es fácil. Y luego que además no puede acceder a Internet, bueno no puede, no accede a Internet.

Aquí hay gente que está, yo creo que también descubriendo una cosa que es que le pasan URL y el modelo te responde. Lo que te responde se lo está inventando. Es una prueba de que GPT-4 lo usina mucho y que se inventa cosas porque no sigue lo que le dice la URL. Sí, sí, sí. De hecho hay mucha gente que se decepciona. He visto por ejemplo a IoJuan, el streamer de Fuex Quirola que está muy encima del tema GPT-4 y todas las IAs que están saliendo, intentando pasarle enlaces para que reaccionara la IA

y no reaccionaba, claro. Pero aquí el truco amigos es que vinchad sí lo hace, vinchad está integrado en el navegador Edge, puede ver las páginas web, o sea puede resumir las páginas web que estás visitando, aunque lo hacen realidad con la cache que tiene el propio buscador.

Sí, sí, sí. Entonces cualquiera que quiera mirar contenido actual, resumirlo y analizarlo, pues la doce que le hemos dado, o los copias y pegas y metes el texto a Cholón o tiras de vinchad que es una opción y además es gratis y está andando acceso super rápido. Otra pista que nos da de lo que estaba en la cabecita de la gente de OpenAI es que sale bastante incompleto, vale, durante los primeros días 25 peticiones de máximo cada tres horas para lo que estamos pagando, Sam, Sam Alman, entre dolaracos.

Me han preguntado a varias personas si vale la pena pagarlos 20 dólares y les he contestado a todos que no, que usen vinchad y que usen el chat GPT como complemento de vinchad. Claro. Bueno, vinchad sigue siendo bajo petición de acceso, pero se le están dando acceso a mucha gente, que aparte de que es bastante caro para lo que mejora vinchad, que no lo mejora tanto, eso está limitado a 25 peticiones cada tres horas.

Sí, y no tiene lo de las imágenes, la API de GPT4 tiene que pedir el acceso y te lo van dando, yo lo pedí y no me lo han dado todavía, Sam. Y bueno, también vamos a ver, yo creo que entre Microsoft y OpenAI tendrán que checar un acuerdo para ver qué dejan en exclusiva en el chat GPT, que no tenga vinchad y que no lo dé gratis, porque si no, no va a haber tu tía, es lo que tú dices, hay que irse al gratis porque no tiene sentido.

Y lo último es que vinchad ya puede generar imágenes, que creo que lo hace con Dali o con un modelo más avanzado que el último Dali, o sea, esta guerra civil entre Microsoft y OpenAI no lo estoy entendiendo, la verdad. Sí, sí, sí, además Microsoft está palmandopasta, es decir, vamos a acercar Bing Yets a tope y vamos a quemar aquí GPUs a porrillo, ¿no? Bueno, un aspecto un poco más estratégico,

pero muy importante. OpenAI, yo creo que lo de Open, no sé, va a quedar un poco para la historia, ¿no? Yo creo que van a estar siempre marcados por esa reorientación de organización sin ánimo de lucro, a la empresa más capitalizada con más inversión de la historia de la tecnología.

Bueno, ese salto que han dado, porque en el GPT-4 no revela casi nada de la arquitectura, la implementación técnica, el tamaño del modelo. Ya no hicieron pay per con información buena de Echa GPT, con GPT-4 están siendo todavía más oscuros y ellos lo afirman en su reorientación, que es debido al panorama competitivo. Por eso no incluyen detalles, todo este tipo de cosas. Nos hemos quedado sin saber el tamaño del modelo, ese tema del que llevamos hablando

tanto tiempo en lo de las bolas. Las bolitas, las bolas, eso es lo mismo. No han revelado nada, no han revelado detalles de la arquitectura, del hardware que usan por debajo. No han revelado absolutamente nada, por eso, pues para que no les copien. Sí, sí, sí, yo creo que ya entramos en otra etapa. Me recuerda como cuando Google borró el Don Bevel de... Ah, tío.

Bueno, ahí fíjate, si Google hubiera hecho lo mismo con Transformer, ahora o pena ahí no estaría aquí. Si Google se lo hubiera guardado para sí mismo, hubiéramos hecho un poco de inteligencia artificial en nuestra jubilación, Matías. Pero bueno, el caso es que Open ha tomado este camino, cada vez menos Open, esto tiene consecuencias que es que, bueno, digamos que este ecosistema que ha nacido de la información abierta, compartirlo todo, etcétera, pues va a cambiar otro escenario muy distinto y que, bueno, digamos que ahora

es un poco la competencia con el cuchillo entre los dientes. Y una última cosa para emprendedores, creadores de servicios, es muy direccionable GPT4, eso lo llaman, bueno, yo he traducido Stirability como direccionable, bueno, no sé qué palabra usar, Matías, pero bueno, básicamente que le puedes pedir que tenga un estilo distinto y que ya no sea tan robot y tan frío como GPT, muchas GPT, ¿no? Al final es dotar, imagínate que estás creando una aplicación basada en GPT4 y tú como

admin, por ponerlo de alguna forma, lo obligas a adquirir la personalidad de, pues si quieres que suene más informal, si quieres Open, ahí puso el ejemplo de que suena como un pirata, pero escrito como inversos de Shakespeare, ¿no? Y esta personalidad la mantiene siempre, sin importar que luego venga el usuario y le diga, por favor, deja de responderme en rimas, quiero que me contestes en código, ¿no?

O incluso puedes pedirle que siempre conteste en código, que conteste, no sé, en algún lenguaje de programación, pues para esto sirve los nuevos, las nuevas funciones de Stirability de GPT4. Ya, yo creo que aquí corremos un riesgo en internet, Matías, que después de la oleada de community manager de marcas Graciosillos, venga una oleada de bots y de chatbots, empresa Graciosetes, y además Graciosetes al estilo Open ahí es limitadamente Graciosetes, ¿no?

Pero bueno, el caso es que ha sido lanzar el modelo y lo han hecho bien acompañado, es decir, con gente que ya había estado trasteando con la API y montando cositas, hay mucho en educación que creo que por aquí lo hemos comentado siempre, que tanto Duolingo como Khan Academy están integrando para tener tutores personalizados, bueno, tutores basados en IA, ¿no? Y el pincha que lo han reconocido, y luego hay casos de usuario que ya están intentando

poner en valor esto y sobre todo el más viral de todos, que nos lo pasó nuestro amigo Lamar Agamoderna, que es el tío que gana mil dólares al día con chat gpt, Matías. ¿Cómo lo hace? Bueno, es el usuario Jackson Foll, arroba Jackson Foll en Twitter, que hizo esa prueba, no le voy a dar 100 dólares a chat gpt y que me diga qué hacer con ellos para ganar mucho dinero, ¿no? Entonces, gpt4 la da dos a ciento ordenes, que era un sitio web de productos ecológicos,

¿vale? A generar el código también, ¿vale? Contrata Filar, Filan para el sitio web, ¿muy bien? Contrata con Filan, gasta de 40 dólares en publicidad de Facebook e Instagram y a grasos pasivos, Matías, a ganar la vida, ¿no? A libertad financiera, bueno, de momento han generado 130 dólares con esto, pero el tío que es más listo que he varisto ha ganado unos 7.500 cobrando 5 dólares a 1.500 personas

para acceder a su Discord, es decir… El modelo de negocio de todos los vídeos de YouTube y de TikTok, claro, el dinero se está vendiendo. Te voy a explicar cómo hacer este rico. De todas formas, mira, mira. Claro, estos 1.500 dirán, claro, al final el negocio es crear un Discord, cobrar 5, voy a decir qué me hiciera haciendo, rico, pues, a Ancha Catilla, pues, bueno, ha sido el primer, no va a decir que va a ser el primer millonario, gracias a gpt4, pero bueno, aquí

está el hombre intentándolo conlojarnos esto. Y luego en par de declaraciones interesantes, ya vamos a cerrar gpt4, con las declaraciones, a mí hay unas que me han impactado, uno de los cofundadores de OpenAI, que le ha dicho a TechCrunch, gpt4 no es perfecto, pero tú tampoco lo eres. ¿Qué sabias? Pero es muy sabio, Matías, yo lo vi usar a partir de ahora en cualquier momento, ¿no? Le pongo la cena a los niños, ahí unos espaguetis, a mí me gustan con pisto y con salchicha,

bueno, lo hago lo que sea, ¿no? Y no es tan rico, no lo han salido bien, se me han pasado, ya no están al dente, pero tú niño, tú niño, tú tampoco eres perfecto. Entonces, a partir de ahí, todo lo vi usar todo el rato, Matías. Esto habría entrado en nuestra sección de personas basadas, ¿no? De declaraciones basadas. Claro, no es perfecto, bueno. Tejas, ¿no? Bueno, y luego San Alman, que ha hecho una entrevista en la ABC, y ha dicho muchas cosas,

la mayoría de las cosas las ha dicho que esto va a ser muy guay, va a ser fantástico, pero claro, en los tutulares de zona salido nada, lo que ha salido un poco más es que, bueno, es verdad que va a haber eliminación de empleo, pero habrá otros mejores que está preocupado, porque aquí pueden pasar cosas muy malas, entonces ahí, tiene cara de estar preocupado siempre San Alman, en realidad, ¿no?

Siempre está con su mochila, por si llega al fin del mundo, así que sí, un poco preocupado. Luego, se viene arriba, esta será la mayor tecnología que la moniedad haya desarrollado hasta la fecha. Bueno, no sé. No sé, eh. El problema de esto es que luego hay gente que lo repite en Twitter y en otras redes sociales, en Mastodo, y claro, te da mucha pereza leer esto. Y ya le es cierto, es algo que está revolucionando toda la industria de la tecnología para empezar

y luego las que vendrán, ¿no? Sí. Pero tampoco hay que venirse tan arriba, porque la gente le causa rechazo. Sí, sí, sí. Eso no cae bien, es sangre, eso es la fiesta, loco, no, no invita al acercamiento. De manera, hay una frase que yo la reputo, odio, Matías, que no puedo con ella, que me revienta absolutamente que es esa que está repitiendo todo el mundo como si se lo hubiera ocurrido a él, ¿no? Que estás ahí, estás en la ducha, estás ahí pensando en qué va

a poner para merendar, pero no, si te ocurre, no te vas a sustituir una inteligencia artificial, te vas a sustituir otro humano usando y aprendiendo a usar la inteligencia artificial, ¿no? Es tan de... Y te voy a poner el enlace de mi curso, me cago en la leche, es tan... Es una frase con la que no puedo, ¿eh? De este mundo, Matías. Yo como la leo otra vez, blog, blog, ¿ya alguien le diga? Voy a hacer la prueba, me voy a cambiar en el LinkedIn que no lo uso, voy a ponerme

que soy prom-engineer y voy a ver cuántos recruiters me llegan buscándome para ver si es verdad que hay mercado para la gente que sabe usar los modelos de inteligencia artificial. Dale, dale, dale. Hago la prueba en la semana que viene, te cuento. Bueno, cerramos GPT4, Matías, que no han sido muy pesados, nos hemos publicado también en la lista de correos, monosestocasticos.com, un resumen de GPT4 con todos los links y con

todo lo que estamos comentando. Es un muy buen resumen que ha hecho Antonio, así que suscribíos a monosestocasticos.com. Y vamos un poco al resto, pobrecitos, que han tenido el acierto de presentar la misma semana algunos en el mismo día. Bueno, esto ya huele, esto de que todos presenten a la vez y todos se contraprogramen y todos se clipsen, esto ya es una guerra abierta. Vale, bueno, tenemos Cloud de Antrofic para el que hay que pedir invitación y han anunciado

que, bueno, que tienen, ellos dicen que es menos probable que produzcan resultados perjudiciales como Bing o GPT4, bueno. Perjudiciales no en el sentido de alucinaciones, sino de que sea contenido seguro, de que esté filtrado para que no salga algo raro, ¿no? Sí, pero claro, como de momento, de nuevo, hay que pedir invitación, esperar que te, poder meter la mano, pues poco sabemos, ¿tiene clientes, se han confirmado Darktack Code,

el buscador alternativo, este que es propia privacidad, a Notion, con lo cual está bien, tiene un cliente de los gordos, y luego tenemos los anuncios de Google. Yo tenía aquí una cosa con Google, que la tenía pensada, que es, claro, en este primer trimestre de la inteligencia artificial del gran año de la IA, yo creo que le pasa como a mi hija, a Daniela, a Daela, el otro día le dieron, claro, fueron los Juegos Olímpicos

del Coley, y su equipo, que era el equipo azul, consiguió el diploma en hora buena por participar, ¿te mereces el diploma por participar? No has llegado al oro, no estás en la, pero el diploma de participar lo tienes, ¿no? No te vas con la mano vacía, ¿no? Entonces, tienes algo, ¿no? Ahora los chavales se hacen eso, Matías. Pues yo no sé si es un Darpy Chai, es Gaffe, o realmente se están riendo de él, porque

presentar, pues las funciones está generativas que van a meter en lo que llaman el Google Workspace, que es básicamente Google Docs, Google Sheets, Google Slides, incluido Gmail, incluido pues Google Chat, o como se llama ahora la aplicación de mensajería de Google, lo anuncias un poco tibio, todavía no está disponible, y al día siguiente viene Microsoft, ahora hablaremos, y boom, un anuncio mucho más completo, mucho más prometedor, yo ya

no sé si se están riendo de Google, pero me empieza a dar mucha pena. Sí, sí, de hecho anunciaron también la API para tener un modelo al OpenAI, para que la gente pueda desarrollar sobre PAN y crear sus servicios ahí, pero bueno, de la información de la API no hay nada, si tuve la API de tu nivel de PAN y solo sale, como diría el del meme, Sander Pichai pidiendo perras, pero no hay nada más. Acosta antes de la guía.

Bueno, hay una cosa a favor, justo 10 minutos con buena puntería, antes de empezar a grabar nuestros podcasts, están empezando a dar acceso a bar, a usuarios Google, UK y Estados Unidos. Bueno, ya he visto gente también sacándole los colores a bar, bueno la y, la beta creo que está en Estados Unidos y en Reino Unido, con cosas en las que es inferior a GPT4, bueno, bueno, esto ya es ridiculizar demasiado a Google, veremos, veremos donde acaba.

Yo creo que en la Google ayudo vamos a ver un repunte, yo siempre lo hemos dicho, Google tiene la mejor ciencia y tiene el mejor historial en la inteligencia de todas las grandes compañías, lo que queremos es que reacciones se ponga fuerte y tire palante, pero mientras como tú dices el copilot de Microsoft 365, pues es súper gran ayudante, ya conocimos un poco la filosofía porque la hemos visto integrada en Edge con esa barra lateral y que va a estar

en todas las aplicaciones de on-chimática de Microsoft y que tiene buena pinta. Al final, bueno, yo lo que es más difícil para ambos es tanto en las hojas de cálculo de cada uno, porque claro, al final volviendo un poco a las solucionaciones y a los fallos de estos modelos, en un Powerpoint pues hasta cierto punto es permisible, es una cosa más vaporosa, más creativa, no sé cómo decirlo, pero no es en el que es un contexto, un ámbito

en el que buscas la absoluta precisión, no puedes permitir que se invente cosas, no puedes permitir equipocaciones, errores, fórmulas mal hechas, entonces bueno, vamos a ver que supongo que será en aquellas tablas más de texto y cosas así, ¿no? Sí. A ver, esto me lo comentaste otro día y no llegué a entender muy bien tu punto, porque por ejemplo, Google Analytics, una herramienta que hemos usado mucho tu y yo, tenía, creo

que lo acabaron quitando, un asistente al que tú le podías hacer preguntas para obtener rápido pues el resultado que buscabas en plan fuente del tráfico de tal cosa, ¿no? O tráfico tal fecha, tal hora y Excel pues le puedes hacer el mismo tipo de preguntas en plan. Claro. Sí, sí, vamos, estoy de acuerdo contigo, es decir, a la hora de consultar para usuarios no analistas en el mundo dentro de Excel como de dictata, tiene todo el sentido, es decir,

podemos hacer muchas más preguntas con lenguaje humano, pues sería un desarrollo fantástico, donde yo tengo más dudas, es en el que crea el dashboard o el que crea pues esas, ese cacharro de datos, ese artefacto en el que diseña las fórmulas, en el que diseña los dashboard, etcétera, que no puede equivocarse, si se equivoca, pues al final se toma decisiona para tener información jodida. Pero bueno, el punto es que, Matías, vamos a, hay que mentalizarse, tanto en software

como en Internet, donde haya una caja de texto, nos van a enchufar un modelo grande del lenguaje, que sea nuestro copiloto, nuestro asistente, no es, yo te lo hago por ti, ¿no? Es, yo creo que vamos un poco a ese, a ese Internet y a ese mundo del software, ¿eh? Sí, la gente que usa Notion está encantada con este autocompletador de textos, y me imagino que cuando llegue a Word, que por cierto, no lo hemos dicho, pero incluso como

el menú contextual, cuando resaltes un párrafo, ahí vas a tener la opción, pues de resumir, editar o pedir, incluso en un PowerPoint, crear una diapositiva, tú le metes el texto de cómo quieres que salas de positiva, y el copilot te lo crea, ¿no? Yo creo que esto va a ser bastante exitoso, porque además son herramientas bastante intuitivas, en ese sentido Microsoft lo está haciendo muy bien, en Edge es súper intuitivo, sobre

todo más que en el buscador, en el propio Edge, yo lo veo el copilot como una integración perfecta. Yo todavía no estoy convencido de que estos buscadores tengan sentido, de verdad, y me gusta mucho más esa parte de ayudante, asistente, lo que pasa es que está más lejos del modelo de negocio, y yo creo que aquí ya está la gente empezando a hacer cuenta de, oye, cómo amortizamos toda la inversión que estamos haciendo en entrenamiento y en ejecución

de los modelos, ¿no? Bueno, para rematar la semana, tenemos Mecharné v5, que, bueno, vaya semana Antonio, bueno, hay un montón, es decir, yo lo que invitaría a la gente, buscar Mecharné v5, bueno, en el subreddit o en Twitter, porque las comparaciones con el modelo anterior son bastante interesante, es bastante curiosa de ver, es un salto de calidad bastante bueno, también de resolución, de precisión, mejora en algunos de los puntos débiles como los dedos de las manos y de los

pies, y bueno, fíjate, yo creo que aquí, lo que estoy viendo en mis pruebas, que yo lo uso, uso Mecharné, antes estaba el Diffusion, ahora estoy de nuevo pagando esto, el buscador está siendo muy caro, te pagas un poco también por esto, y impresiones que te pide menos el esfuerzo de PROM, para obtener resultados buenos, con PROM más simple ya te da cosas chulas. Sí, en Mecharné y en general, en todas las herramientas de generativas de imágenes,

el PROM era la clave, la gente que sabía hacer bien el PROM, que ponía, la luz entra desde no sé dónde, está tomado con una cámara Fujifilm, no sé cuánto, esa gente era la que obtenía mejores resultados, y con el V5, parece que la cosa mejora bastante también. Sí. Y creo que también hay gente muy flipada, que con los resultados realistas, dice que son indistinguibles de una fotografía, pero yo sigo viendo el vibe, el vibe de inteligencia

artificial, que la gente es como un poco de porcelana, yo lo sigo viendo, eso es fácil. Yo creo que no, que no estamos para nada ahí, yo creo que estamos en el nivel suficientemente bueno, pero no estamos en el nivel de la excelencia para ganar el agua a foto de Sonio o de Naciones Geográficas, no hay ni de coña, ¿no? Por cierto, por cierto, no sé si lo has visto, pero está rondando por ahí una imagen

generada conía falsa del encuentro entre Vladimir Putin y Xi Jinping, no sé cómo se pronuncia el presidente de China, en el que Putin se agacha y le ves a la mano, ¿no? Entonces, como ahora ya ni siquiera se equivocan en el número de dedos y todas esas cosas, pues cuesta más detectarlos, pero está generada conía, ¿no? Bueno, bueno. Matías, me preocupa un tema importante de la inteligencia artificial, que es que no tengamos

tiempo suficiente para nuestras secciones, que son los que al final mantienen este podcast a flote, así que te planteo Puerta Grande o Enfermería. Cuéntame, cuéntame. ¿Qué has encontrado hasta ese momento? Bueno, es que hay muchas cosas muy chulas, hay una en que tienes que dar la Puerta Grande por defecto. No pasa. Ya ve, Roland, un sistema de ara chatear con cualquier vídeo, entonces claro, Matías,

si ya dijiste, ok, achatear con un pdf, ¿qué darías muy mal como racista de extensiones de fichero, como unos sí y otros no? ¿Por qué pdf si y mp4 no? No puede ser, Matías. Entonces, esto es algo que yo llevaba pidiendo, no te imaginas cuánto tiempo, o sea, cuando Google dejó de ser útil para encontrar resultados, por ejemplo, de cómo quitar una alcayata de la pared, que es una cosa que he tenido que hacer hoy.

La gente mudó, pibotó hacia YouTube, que es donde la gente de algún país latinoamericano, generalmente de Perú, México, hay un tutorial que te lo dice perfecto, pero en 20 minutos, muchas veces con una introducción demasiado larga, muchas veces con una música demasiado rockera y con esto es perfecto, porque con esto yo me le meto el vídeo a esto y le pregunto, ¿cómo quitar la alcayata de la pared de forma rápida y eficiente?

Sí. Sabía que le iba a dar la vuelta para sacarlo por puerta grande, pues yo decido no, aquí por primera vez vamos a tener un enfrentamiento a muerte, Matías, yo hasta que no haya un, puede charlar con un windrar, ¿eh? Con un punto rar, ojo, sin saber lo que hay dentro y poder charlarlo con lo que hay dentro sin tener que mirarlo, hasta entonces no voy a dar mi ok, mi puerta grande, a ningún servicio de charlar con formatos de contenido.

Ha decidido. Bueno, acabaremos charlando con cualquier formato de archivo que haya. Vale, luego hay gente que está construyendo, es decir, los makers son una gente que tiene tiempo libre y ganas de hacer cosas, Matías. Te paso dos cosas que se han hecho gracias a las APIs de OpenAI, alguien ha construido una cámara de poesía, que escupe un poema en lugar de una foto, tú vas a un sitio, haces una foto, se analiza lo que recogería la instantánea y escribe un poema te escribiéndolo.

Ojo ahí, ¿eh? Qué bonito. Y alguien hizo un reloj poema, le da mucho por los poemas, los makers, una cosa curiosa, que usando chat gpt, que en vez de darte la hora del día, pues te escribe un poema cada hora, cada hora pues por renueva y lo escribe, Matías, tú, tú, tú. ¿Te gustan estas cosas? Mira, yo compré una Raspberry Pi en su momento y no sé ni en qué cajón está, no sé si en la mudanza ha aparecido o está perdida, pero jamás le he sacado ningún tipo de rendimiento

y esta gente me causa cierta admiración, pero nunca voy a estar de su lado porque, no voy a decirle la frase manía de no tengo tiempo para hacer este tipo de cosas, pero desde luego para aprender a hacerlo ya hay una barrera que es la pereza, así que bueno, admiración. Amiración, pero no puerta grande, aquí estamos ya subiendo el nivel, ¿no? Zordor, atención, nuestro amigo Rodrigo Fernández, viejo compañero de la etapa Web

Blocks, que, atención, dice lo siguiente en Twitter, estás patiniendo una discusión en el chat de mi familia, mal asunto, se ha inquistado, ojo, y se ha vuelto totalmente germa, dice algo desolado Zordor, así que he decidido dar el control al chat GPT y está siendo tremendo, temo que me pulsen de la familia pero estoy descojonado, jajaja, creo que piensan que soy nazi, atención, discusión en el grupo de Whatsapp y poder a GPT por

ti, Matías, ¿cómo lo ves? Pues yo lo veo muy bien, yo hay grupos como el de la comunidad en el que siempre hay quejas, siempre hay quejas de perros que ladran, etcétera, y yo nunca participo, pero meter ahí como agente del caos a chat GPT me parece una idea genial, y de hecho yo creo que se puede hasta programar para que sea todo automatizado y yo no tenga ni que, ni que... Claro, pero con GPT4 tienes que darle un estilo, como una personalidad, tendrás que posicionar,

¿no? Dicir, mirá, sea un toca huevos, o sea... Sí, yo quiero ser el vecino loco, el vecino que está totalmente demenciado y que todo el mundo le tiene miedo. Eso es el camino, sería Mandalorian. Bueno, te voy a soltar el último, a ver si esto lo... bueno, este es... este enfermería total, Matías, qué desastre. Bueno, Free Aid Testimolian Generator. Bueno, no sé, bien, ¿no? Voy a construir testimonios auténticos, ojo, este es el concepto de autenticidad que tiene

el pollo que ha creado esto, y reseña basada en tus palabras clave. Dicir, tú creas un texto largo, a partir de 3 o 4, para ver las claves que tú le dices, para opinar sobre cualquier cosa y poder opinar en Amazon, opinar en forrocoche, opinar donde tú quieras, ¿no? Esta es la opinión que me sacó, ojo, Netflix es una plataforma increíble para ver películas y series. Estoy muy contento de tener Netflix, porque me ofrece gran variedad de contenido, desde

valientes monos hasta latrones. Me encanta que puedo compartir mi cuenta con mis amigos y familiares, para que todos estemos de Netflix juntos. Mis palabras clave, Matías, eran valiente mojón, ladrones, quiero compartir la cuenta. Esto está programado por una empresa china, de estas que tienen todas las opiniones de Amazon Compradas, para que siempre el resultado sea muy bien positivo. Para ser hater, no está preparado el servicio de luego, ¿no?

Bueno, pues la matamos, está totalmente de muerte, los haters del mundo lo sentimos mucho, tendréis que escribir vuestros propios mensajes de odio. Bueno, como tenemos tiempo, porque todavía no hemos cumplido la hora, que era el límite que nos planteamos, ese límite artificial al que no queremos superar, me gustaría que me contaras avances en tema generación de vídeo, porque estoy cero puesto en el tema

y han ido saliendo cosas chulas, ¿no? Vale, pues, como eres, que ha sido, yo creo que es como una ola que tú veas de venir, pero desde kilómetros, ¿no?, como si fuera a ser un chulami que se acerca, tiene sentido que el vídeo vaya un poco por detrás de texto y de foto, porque digamos que en cantidad de información procesada y información que tienes que generar para hacer un vídeo, hay muchísimo más que en texto o que en foto, entonces el coste de entrenar es más alto

y el coste de ejecutar los modelos es más alto. Bueno, el tema que hace un par de semanas hubo un vídeo de unos, tal, corridor crew que decían que bueno, de alguna manera esto va a cambiar el anime para toda la historia, para toda la vida, ¿no?, era un vídeo, bueno, que realmente está muy chulo, no parece anime de hecho, aunque se adhiere al género, y aunque ellos dicen que va a cambiar la animación

para siempre, la verdad es que está bastante chulo y con un equipo de, creo que, de cinco personas, bueno, era bastante impresionante, ¿no? Luego tenemos una gente que, que hay que tener en el red armático, que son Runway, Runway presentó hace poco el, bueno, no nos han dado acceso, simplemente está encerrado y con pocas manos probándolo, que era el Genguan, que a partir de un vídeo, que permite a modificar

elementos de ese vídeo como convertir a un tío que está bailando, en que están bailando es Batman, no sé, ese tipo de cosas, de vídeo a tu vídeo, ¿no?, Gen 2 está bastante interesante porque es texto a vídeo, texto a vídeo, digamos, que es un, el dorado, ¿no?, que, que se busca en el sentido de, oye, que las producciones de vídeo para todo el mundo son costosas, si con solo idear lo que quiero que salga, hay una máquina que es capaz de generármelo,

pues, pues, bueno, sería, sería la leche, ¿no?, ¿qué es lo que pasa con todos estos modelos? Porque también ha habido otro de Alibaba, que se llama Modelscope, que ha salido, que está bastante, bastante chulo, hubo dos que no, que no lo, que no los han sacado, la imagen de Google, que las demos eran mejores de todo lo que estamos hablando, y tiene bastantes meses, o el make-up video de Meta, que también eran texto a vídeo, es decir, ha habido un

montón de avances aquí, falta todavía pasos, y sobre todo, hay una dificultad, Mati, que es que casi todos se basan en modelos de difusión, como está el difusión, Dalidó, como es Journey, lo modelo de difusión, digamos, que a la hora de ser entrenados y como luego funcionan, mete mucha aleatoriedad para intentar aproximarse a lo que tú le pides.

Esta aleatoriedad hace que, cada vez que ponemos un PRONS, salgan imágenes diferentes, ¿vale?, pero a la vez es una pequeña maldición para el vídeo. ¿Por qué? Porque lo que vemos mucho en estos vídeos es que falla la consistencia, es decir, que entre frame y frame, pues, hay pequeños cambios, pequeñas modificaciones que arruinan un poco la experiencia fluida y consistente que esperamos en un vídeo, ¿no? Entonces, bueno, es una oleada que está ahí, que va

a llegar, que falta todavía pulir muchos detalles, los modelos basados en difusión, pero que los de Runway, sobre todo, tienen una pinta estupenda. Los defensores dirán que esto le da, en los de estos frames intermedios, le da un estilo propio a lo generado por la IA, pero yo, que en todas las teles nuevas que toco, le desactivo este interpolado raro que hace, no me gusta este estilo. Por cierto, hace unos días se entrevisté a un animador, barra ilustrador, el ganador

del Goya de este año en Corta de Animación, Pablo Polledri se llama, y le pregunté sobre las siglas generativas, no lo he publicado todavía, pero te avanzo que, aparte de puntos comunes con otra gente, como que no hay, no cree que las siglas vayan a reemplazar los ilustradores y cree que se van a usar como herramientas, como todas las herramientas que existen, dijo algo que me llamó mucha atención, dijo, en lo personal, creo que si te gusta

hacer algo como ilustrar, la gente lo va a seguir haciendo de todos modos. Sí. Y me parece una conclusión bastante bonita, bastante poetic. Sí, creo que tiene, claro. Yo creo que tendrá toda la razón, sí. De hecho, una cosa que, diciendo hablando de premios, Runway trabajó en los efectos especiales en la producción de la ganadora del Oscar, la de, todas las veces en todas partes. Sí. Algo así, ¿no?

Sí. Bueno, pues Runway estaba ahí metida. Matías, como no hemos llegado a la hora, todavía podemos hacer, tenemos otro gran tema o el basado o haciendo la ciencia, ¿tú cómo ves? ¿Por dónde debes tirar? Yo creo que se ha hablado mucho del gran tema y, aunque no te gusta convertir en la sección, yo no dejaría sin mencionar ese gran tema del que estamos hablando. Va, va. Tú como lo ves, tú como lo ves.

Sí, bueno, yo creo que hoy con GPT4 podemos pasarnos a, podemos llegar a la hora y 10. Eso es mi opinión. Pero bueno, dejaremos intergado la audiencia, ¿llegará en el basado o no? Lo que vamos a hablar de los GPT son GPT, es muy chipos a la gente que hace Papers, a veces. Este es un Papers en el que colaboran OpenAI, la Universidad de Pennsylvania. El chiste está en que GPT por un lado significa de propósito general y GPT significa Generative

Pretending Interformer. Entonces, bueno, hace un juego de palabras con eso, pero el estudio es sobre el impacto laboral que van a tener en los modelos grandes de lenguaje. Yo es un Papers que está siendo muy compartido y muy comentado, pero que me tomaré con un grano de sal porque la metodología y las proyecciones de futuro, yo me las tomo siempre con mucha, la metodología que han usado y que hagan proyecciones de futuro, me, bueno,

no me da toda la confianza. Sí, porque la gente, sobre todo lo he visto en Twitter compartido como los empleos que se van a perder o quién va a perder su trabajo. Y, por un lado, no es exactamente esto de lo que se está hablando, sino de en qué trabajos GPT o GPT4 ha demostrado ser más eficiente, más pro-science, como se dice, profi-science. Bueno, hay una palabra en inglés para esto. Y, por otro lado, pues eso es lo que tú dices, que la metodología tampoco es la mejor para

adivinar qué trabajos van a desaparecer. Claro, usan, pues, encuestas a humanos, por ejemplo, la metodología para preguntar, GPT4 para ver cómo de automatizado pueden ser las cosas. En fin, al final, miren impacto, que no hay sustitución, como tú bien has explicado. Los resultados son llamativos, trabajos que requieren mucha información y que exigen bastante aprendizajes, muchas veces estudios universitarios, son los que van a haber mayor

impacto, como pueden ser la promoción, el derecho o el periodismo, están más expuestos a que los modelos grandes del lenguaje sean empleados ahí y que parte de las tareas que hacen hoy, pues, sean automatizadas o sean hechas apoyadas en modelos grandes del lenguaje. Que de nuevo esto no significa sustitución de empleo necesariamente, ¿no? Y que, pues, empleo que requieren menos aprendizaje, menos formación, pues, lo dicho, no van a

ser tan expuestos y es una lectura que yo creo que a veces le hemos mencionado en el podcast, que es ahora mismo la inteligencia artificial por cómo está hecha y cómo aprende y cómo sucede, va a afectar a aquellas profesiones cuya disciplina esté ampliamente digitalizada. Entonces, si hay muchos textos periodísticos, puede afectar al periodismo, si hay muchos textos de derecho, puede afectar al derecho.

¿Hay muchos que hacen los bocadillos que esté digitalizado? Pues no mucho, por lo tanto, aunque haya vídeos de bocadillos en YouTube, la traslación a que un robot pueda aprender eso no es inmediata. Así que, de alguna manera, empleos agrícolas, mecánicos, etcétera, son el carnicero, el pescadero, todos estos están en la lista de ocupaciones que no van a ser, no están expuestas para nada según el estudio.

Estos son expuestos, quieren decir que GPT reduce el tiempo que le llevaría a un humano realizar esta tarea en al menos un 50% y hay aquí profesiones en las que tienen una exposición de hasta el 100%, matemáticos, tax prepares en español, pues sería como asesor, financiero, fiscalista, contable, bueno, por supuesto, escritores, periodistas, me imagino que también están los programadores, bueno, la lista es bastante larga, pero en general los trabajos

mejor remunerados tienen muchas posibilidades, muchas papeletas de acabar automatizados por los modelos grandes de lenguaje, automatizados o complementados para ser más productivos, un tema que hablamos en el episodio anterior. Como siempre, esto es un aumento de productividad, ¿cómo se usa esa productividad y quién va a salir ganando? Pues es algo que entre la dinámica del mercado y cómo nos organizemos socialmente se va

a dividir. Esto puede traducirse desde mayor acumulación de capital en menos manos en el requiricimiento masivo de las empresas tecnológicas que tenemos de los lenguajes porque son los que más pueden capturar de aquí o pueden ser garancias también para la vida y la renta de los trabajadores. Entonces, dependiendo de como lo he dicho, se organiza el mercado y nos organizamos socialmente esta mejora productividad a la captura más unos actores que otros.

Veo por aquí blockchain engineers, nos están pasando por su mejor momento. Si necesitaban un empujón, un 94% de posibilidad. Bueno, por supuesto, diseñadores web y de interfaces digitales le hemos visto en el anterior, si en una servilleta se puede hacer tu trabajo con un dibujito imagínate los puestos que están. Y bueno, al final, la gente que trabaja en programación, en ingeniería en general, no esperaban

que su trabajo se viera tan esfuerzos. Y lo más perverso de todo es que han aprendido con tus datos. Ahora entienden, ahora entienden a los ilustradores. Claro, ahora es más majo. No, bueno, es que igual que pasó con los ilustradores, de hecho, justo antes de entrar al podcast, ha dado de presentar a un generador de imágenes propio, al estilo Dali, que no se llama Firefly, en el que lo que más aseguran y perjuran que es con imágenes sin copyright

y que han comprado a la licencia y han pagado a los creadores. Entonces, bueno, yo creo que estos tipos de reajustes, sobre todo por la reacción a la contra de los modelos, se va a producir. Todas maneras, fíjate que relacionado con esto, hay un basado o haciendo la ciencia, Matías. Basadísimo o haciendo la ciencia. Puede entrar. Puede entrar. Puede colar. No quiere soltar. No quiere soltar. Es muy basado.

Vamos a hacer la ciencia. Paul Kedrowski ha dicho que la creación generativa de imágenes por allá emite entre 130 y 5000 veces menos CO2 que un ser humano haciendo lo mismo. Y por lo tanto, si queremos invitar remisiones de carbono, habría que sustituir a todos los creativos por inteligencia artificiales. Yo sabía, yo sabía que si le echábamos la culpa a las vacas y vamos a acabar echándole la culpa a los humanos de las servicios de dios y de carbono, ha llegado el momento.

Tenemos que hacer algo con nuestras remisiones, dejar que trabajen las sías. Bueno, lo explicado les va a arreglo un poco en el mixio, que además es que nos ha pasado este comentario, en el que claro, en términos de productividad, hacer un dibujo por una lla en poco tiempo frente a un ser humano, que a lo mejor se tira a tres horas haciéndola ahí y le cuentas todo, en una comparación bastante injusta y además de que no tienes

en cuenta de que para muchos es en medio de ganarse la vida, es un poco psicópata la visión del amigo Kedrowski, que yo creo que no hace la ciencia, sino que es peromero basado. Está basadísimo, basadísimo. Luego hay un tío, Marías, que es Ray Holman, fundador de LinkedIn, es que claro, si suelto lo que pienso, no podemos seguir con el podcast porque ha escrito el amigo, el primer libro con gpt4, él tenía acceso privado y no le puso lo de la isla de las tentaciones, le

puso a escribir un libro que le ha llamado Improptu, amplificando nuestra humanidad a través de la lla. Bueno, me lo he mirado. Me vendió el LinkedIn y tiene muchísimo tiempo libre, me imagino. Claro, ahora quiere ser un benefactor de la humanidad, lo peor, lo peor, porque te pones muy inoaguantable si te metes en ese rollo, ¿no? Yo me lo he mirado porque el pdc gratis, por lo menos hay un punto favor del amigo Hofmann,

en Kindel ya te cobra 50 centinillos, pero bueno, en pdc gratis, y empieza con citas inventadas de Adelot Blaze y de Buda, atención, en la introducción dice, según Adelot Blaze, según se lo imagina gpt4, hay que ser, la verdad ya no importa, la verdad no tiene ninguna importancia en este futuro distópico que estamos viviendo. Claro, es como el meme de lo que dijo Winston Churchill, claro, esto es como las citas

inventadas de Gabriel García Márquez, ¿no? Sí, sí, sí, ha vuelto. Gabriel García Márquez, mi helado favorito de la isla es el de piñones, oye, el helado de piñones, poco lo defienden, poco lo defienden, Matías, yo sé ahí que ya ejerzo del señor Mayor, helado de piñones, bueno, lo que dice Ray Hofmann, con gpt4 viajé a través de chistes de bombillas, poemas épicos, tramas originales de ciencia ficción y reflexiones

sobre cómo la IA podría fortalecer la democracia, la sociedad y las industrias, el objetivo, como en cualquier buen viaje, Matías, era aprender tanto de mi compañero de viaje como del lugar que estaba explorando, me cago, me cago Matías, es decir, cuando la gente se pone así, está inguantable, yo creo que Hofmann, hay que añadir, hay que añadir basado o cuñado, y esta persona roza lo cuñado.

Si cancelamos a Ray Hofmann, no lo vamos a seguir leyendo, y bueno, el último, lo último a ti es que te traigo aquí, tienes que opinar tú, porque hay una película de Lindelof, creo que hace de productor, bueno, pone el nombre ahí para que, para que podamos decir que es de Lindelof, que es una película, se llama La Señora de Iris, que es la inteligencia artificial más poderosa del mundo, Simone, y su novio que está muy bueno o algo así,

lo pone por aquí, bueno, y se ha hecho un novio bigotudo y es una monja dedicada a destruir esta inteligencia artificial, ¿cómo?, y hay un trailer, claro, la inteligencia artificial es una mezcla de Siri y Chag PT, ¿vale?, todo el mundo lleva original, lleva auriculares para chatear con esa ida por el mundo, ¿no?, y la gente está empezando a encontrar algo parecido a una experiencia religiosa interactuando con la inteligencia artificial, que se llama

eso, Señora de Iris, entonces hay una monja Simone, que por algún motivo y su ex-novio con bigote es ex-novio, luchan contra esta inteligencia artificial y salen una bandera de España en un coche al principio del trailer. ¿Tú cómo ves esto, Matías? ¿Tú crees que es que puede ser la peli del año? No, yo creo que si es de Netflix está precancelada como todo lo que hace Netflix, porque qué desastre, me recuerda a la monja ninja o algo

así de Netflix que se grabó en Marbella, se rodó en Marbella, el argumento no tiene ni pies ni cabeza. Bueno, pues nada, habrá que, yo creo que ya es ni basado ni ciencia, todo es cancelado, cancelamos. Es que al final es metería en todo lo que salga para darle cierta notoriedad.

Sí, eso solo lo puede hacer Yohuan y nosotros. Pues sí, al final es verdad. Por cierto, recomiendo mucho si tenéis 40 minutos libres ver un vídeo de Yohuan hablando con Mario, o sea, con un, creo que era HGPT haciéndose pasar por Mario Bros. El de carácter ahí, ¿no? Sí, el de carácter ahí, efectivamente. Acaba siendo cine, como dicen los jóvenes.

Cine y el emoji del cigarrón. Bueno, pues ya sabéis, tenéis, si habéis aguantado la hora y poco de este podcast, tenéis 40 minutos más de deberes. Como siempre decimos, seguidnos por ahí, estamos en toda la plataforma, compartidnos y muchas gracias por escucharnos. Bueno, pues si te he dejado hacer la despedida.

Está bien, está bien. ¿Qué trabaje? ¿Qué has hablado poco en este episodio? Julio, me he enrallado mucho en este episodio, ¿no? A ti. A mí me haces todo el trabajo. Para mí eres como mi HGPT4, yo estoy encantado. Qué bien, qué bonito. Pues muchas gracias, gente. Seguidnos, lees la newsletter, que de verdad es que es muy interesante y valora del podcast, que sirve para posicionarnos, para superar a Federico, etcétera, etcétera.

Un abrazo. Chau, chau.

Episodios recientes

Programas relacionados