Matías por fin puede charlar con PDFs en ChatGPT. Antonio responde a las dos preguntas del momento:
1. ¿Puede la inteligencia artificial de OpenAI razonar?
2. ¿Quién es Emily Valentina?
Hablamos de ella y de Fit Aitana, dos "AInfluencers" que están triunfando a su manera en Twitter e Instagram.
Patrocinador: WIPOID es nuestro patrocinador de hoy, una empresa especializada en montaje de ordenadores para todos los bolsillos, desde básicos para la oficina y el hogar a gaming o workstations profesionales para trastear todo lo que queráis con la IA y más. Además, con el código MONOS tenéis un descuentito por ser oyentes del podcast. Echad un vistazo aquí: https://www.wipoid.com/
Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com
Transcripción
Bienvenidos a Monos Estocásticos, nuestro podcast de inteligencia artificial. Estoy con Antonio Ortiz. Antonio, ¿cómo estás? Muy bien, Matías. Vengo con una propuesta para ti. Una propuesta. Directa, al grano, sin andarnos por las ramas, Matías. Viendo el fenómeno de la estrella nueva de Internet, Emily Valentina, supongo que estarás informado. A lo mejor alguien de nuestra audiencia no conoce los quehaceres de nuestra nueva diva,
de nuestra nueva referencia online. Pues no hay más que estar en Twitter, meterte, y ahí está Emily Valentina por todos lados. Y ahora que tú vas a ser un cheque azul, Matías, yo creo que puedes seguir el mismo camino, la misma línea editorial que ella. ¿Cómo lo ves? Claro.
De hecho, a mí no me salen las publicidades, las promociones de Emily Valentina porque he empezado a pagar el Twitter Premium, el X Premium Plus. Es un experimento que estoy haciendo. No quiero ser esa persona que tiene el cheque azul de pago. No estoy viendo las publicaciones de Emily Valentina. Yo creo que a Emily Valentina vamos a tener que dedicarle un rato en este podcast porque ha salido otro caso también en España de este tipo de influencers que parece que cada vez hay más.
Sí, sí, sí. Iremos a tope con ellas y con muchos temas más, Matías. Antes, una cosa. La he liado otra vez con los Javis esta semana, esta vez con un tema un poco más relacionado con la inteligencia artificial. Me han tirado el vídeo. Ah, sí. Había subido una escena, una secuencia de la serie de los Javis que estaba claramente hecha con inteligencia artificial, con control net. Digamos que la actriz que salía en esa secuencia
iban cambiando su cara y el contexto de la escena usando inteligencia artificial. Acabamos encontrando, porque fíjate, tenía 400.000 reproducciones en mi Twitter y acabamos encontrando a la autora. La autora acabó sufriendo bullying por parte de los tuiteros. Así que nada, no hemos podido traernosla al podcast y de hecho me han tirado Javis el vídeo. Así que poco más puedo comentar de este tema aunque quería traer una buena entrevista sobre cómo se trabaja con Ian.
Bueno, fíjate, yo creo que ahí veo que a lo mejor puede tener sentido que estés más tiempo con el Checa Azul en Twitter para mantener esas dos cruzadas, ¿no? El mandar mensajes positivos a las creadoras que usan guía eso es una labor buena que podrías estar haciendo ahí, Matías. Y la otra es seguir ahí dando caña y atacando y señalando las verdades a los Javis. Entonces son dos visiones en la vida para las que yo veo muy adecuadas para ti.
Pues sí, lo que sea meterme con los Javis parece que se me está dando bien. A ver, ¿a ti te han activado ya la versión buena del ChatGPT? La versión multimodal, pero la buena buena, que puedes hacerlo todo a la vez. Sí, bueno, digo sí porque realmente es mi latiguillo cuando tú dices algo. Digo sí, pero en realidad es no, no, no, no. Yo creo que tenemos que estar en la instancia de la última fila de los usuarios del ChatGPT
para que la audiencia que no sea usuaria de pago de este servicio el ChatGPT de pago tiene varias ventajas. Una de ellas es que usa el modelo de Inteligencia Artificial más avanzado de PNI, GPT-4, y han ido añadiendo cosas. La multimodalidad, es decir, podemos usar imágenes de entrada. También la integración con DALI-3, que lo tienes integrado en la experiencia de ChatGPT. Tiene los plugins, tiene la navegación web, pero antes de empezar a usarlo tienes que decidir,
voy a usar los plugins o voy a usar el GPT-4 con navegación o voy a usar el DALI-3. Es decir, que es todo como un poco fragmentado, la experiencia. Pero aquí ha llegado la nueva versión. Precisamente es lo que soluciona. Ahora puedes subir todo tipo de documentos, incluido PDFs. Puedes por fin chatear con PDFs dentro de GPT-4, dentro de ChatGPT. Qué hito, qué hito, porque recordarán las monas y monos estocásticos
que realmente el mayor uso y mejor beneficio de Inteligencia Artificial en la historia ha sido el chatear con PDFs. Una cosa... Un gran avance, Matías. Bueno, nada soluciona más la vida que subir PDFs a uno de estos modelos de lenguaje y conversar con tus PDFs. Aunque el contexto de ChatGPT había aumentado bastante y le podías chutar textos bastante largos. Pero bueno, esto cambia totalmente la experiencia y no hace falta salirse a herramientas externas,
tema del que hablaremos a continuación. Y bueno, va todo, como dice Antonio, en el mismo canal. Y una de las posibilidades es pasarle una imagen. En este caso, le han pasado la imagen de una capibara y le han pedido que genere la versión Pixar de esa imagen. Entonces, pues ha sacado el DALI 3, una capibara con estilo animado de Pixar. O sea que se mezcla todo, todas las herramientas que teníamos y alguna más,
como la de chatear con PDFs, por el mismo canal. O sea, esto es bastante más útil y lo que estoy deseando es que nos llegue a nosotros. Claro, fíjate, yo creo que aquí hay un mensaje muy claro, por un lado de industria y por otro lado del roadmap por parte de PNI. De industria porque, de alguna manera, se acaban de cargar a 20.000 startups que se basaban básicamente en, oye, súbeme tu PDF y aquí podrás hablar con el PDF.
O te hago el caso de uso de convertir una imagen al estilo Pixar. Todos esos pequeñitos casos de uso en los que hay gente montando proyectos, algunos más ambiciosos, más empresariales. Otro, dentro de lo que cabe dentro del concepto ahora que se le llama solopreneur, que es esa idea de que un individuo por sí mismo puede montar pequeños negocios digitales por internet. Eso siempre se ha podido, pero bueno, ahora con inteligencia artificial
parece que hay una ambición y alcance mayores. Bueno, pues digamos que hay un montón de startups a las que OpenAI les acaba de decir, hasta aquí chavales, buscaros otra cosa. Y también yo creo que en el roadmap empieza a dibujarse lo que puede ser ChassGPT, que es, no sé si llamarlo, un SaaS, un software como servicio multipropósito, en el que yo creo que lo próximo que veremos, y por ahí hay debates,
es que tendremos ya solo una ventana y no muchas ventanas de chat con ChassGPT porque tendrá una memoria larguísima, que integrará todo el tipo de interacciones de texto, voz, imágenes, creación de imágenes, uso de diagramas, pero que probablemente empiece a trabajar muy bien también con hojas de cálculo y con un montón de servicios e integraciones que pueden llegar con el tiempo, pensemos en todo el software empresarial que ya tenemos,
y que de repente ahí se abren dos vías, Matías. Una es, vamos a soluciones específicas, muy concretas, muy estrechas, para solucionar un problema, la IA entrenada con este estilo de dibujo para generar esto. O la IA entrenada con el dominio del problema, del soporte de los empleados de Telefónica. O vamos a modelos gigantescos y grandes, que con un modelo realmente súper bueno y de, digamos, generalista, eres capaz de solucionar la mayoría de los problemas.
Entonces ese es, yo creo, el debate de roadmap que podemos tener con ChassGPT. Bueno, yo creo que OpenAI tira hacia esos segundos, hacia ese gran modelo, y yo ya lo veo esto como las keynotes de software de Apple, que cada vez que termina una, la gente se pone a hacer recuento de cuántas startups han matado, de cuántas aplicaciones de la App Store ya no tienen sentido porque Apple las ha integrado, su función, su modelo de negocio,
los ha integrado en iOS o en cualquier otro sistema operativo. Yo te voy a decir una cosa viejuna, que esto era como antiguamente se decía, como Microsoft lo meta en Windows, estás frito, ¿no? Ahora es un poco más Apple y la App Store, tienes tú la razón. Bueno, yo creo que los caminos específicos todavía tienen alguna ventaja, porque al final ChassGPT está entrenado con información por su propia naturaleza, digamos, llamándola así,
generalista del mundo, de la web, de la Wikipedia, etcétera, pero probablemente para dominios específicos tengamos mejor resultado, con datos de entrenamiento más estrechos. Y aquí vamos a datos estrechos que pueden ser privados. La consultora McKinsey, cuando crea un modelo, lo crea a partir de su propia documentación. Por ahí tiene una ventaja, ¿no? Por ejemplo, con toda la IA que se está utilizando en medicina
y que queremos poner como ayudante de los médicos y facultativos actuales, no queremos, en principio, que los datos de entrenamiento de esas inteligencias artificiales sean cualquier cosa que se pueda encontrar apenas ahí por internet. Queremos que sea información súper fiable y que venga de fuentes que nos den mucha seguridad. ¿Quieres que leamos la predicción de esta chica? A ver si en unos años la recuperamos y vemos si tiene razón.
Sí, esta chica, ¿cómo se llama? Eita Pai. Pues Eita Pai en Twitter, nuestra fuente fiable de hoy, cree que la estrategia de OpenAI para los próximos dos años será vas a poder subir cualquier cosa a ChassGPT, vas a poder vincular cualquier servicio externo con ChassGPT, como Gmail o Slack. ChassGPT tendrá memoria persistente, no más chats múltiples, a menos que lo desees. Eso que a mí me gustaba, abrir un chat nuevo
para que se olvidara completamente de la conversación anterior. Sí, hay cosas que es mejor olvidar, ¿no? Espero que la opción de borrar historial siga estando. ChassGPT tendrá una personalidad consistente y personalizable por el usuario, incluyendo el sesgo político. Bueno, atención, porque eso puede ser importante. Ahora, los fans de Miley, por favor, háblame como si fueras Miley. Claro, sí, sí.
Yo creo que ese era de los principios, Sam Alma siempre decía que querían modelos que atendieran a la pluralidad de los puntos de vista de los ciudadanos y de la sociedad. Yo, el camino que veo OpenAI es que está siendo bastante domada y vamos a tener modelos Flanders, que es un poco hacia donde vamos. Pues ChassGPT será capaz de responder por texto, voz, imágenes, con diagramas, vídeo... Bueno, ChassGPT se volverá mucho más rápida
hasta que sientas que estás hablando con una persona real. El tiempo de respuesta puede ser de unos 50 milisegundos. Bueno, esto es matizable, porque cuando yo me dirijo a mi hijo, Bruno, eso de que me responde en menos de 50 milisegundos, eso no es verdad. Él está a su bola pensando en otras cosas y hasta que no le llamas tres veces no te responde. Entonces, ChassGPT puede ser realista y puede parecer una persona real por ser lento, precisamente.
Ayer vi un tuit de una chica que se hizo viral quejándose de que, me imagino que su novio o algún rollo que tiene, no le contestaba inmediatamente a los WhatsApp y había subido capturas con un círculo rojo en la hora de respuesta del chico que siempre iba con unos minutos de latencia. Y alguien le contestaba «Tú lo que quieres no es un novio, es un ChassGPT». Bueno, algo de razón tenía ese chico. Claro, es que ella tiene que comprender
que el muchacho tendría que pensar en el Imperio Romano y tiene sus pensamientos y que, claro, si estás ahí... Pues lo último que dice HeyTapai es que las alucinaciones y los errores factuales van a ir disminuyendo. Ojalá esto sea así, porque me vendría muy bien para todo lo que hago. Y a medida que mejore la moderación, disminuirá el rechazo de las preguntas. Es decir, ChassGPT va a contestar a más cosas
de las que contesta ahora mismo. Lo apuntamos, Mati, como posibles predicciones. Yo coincido en algunas, en otras soy más escéptico. Pero lo que sí tengo es que en el mundo alternativo, a OpenAI y a ChassGPT, tengo mis problemitas, Matías. Cuéntame. Porque he estado intentando meterme en el mundo llama. Ya me metí en el mundo de Stable Diffusion y por ahí va bien, ¿no? Me refiero a instalarme en local,
descargarme el modelo y, digamos, tener esa autonomía. Digo, bueno, ¿y si me monto un llama guapo en local? ¿Puedo empezar a trastear? ¿Le hago un fine-tuning? Tenía ganas de meterme con las manos en la masa de la inteligencia artificial, pero tengo mis problemas, Mati, porque el ordenador se me queda corto. ¿Has mirado en Wipoid, Antonio? ¿Cómo? Perdón. En Wipoid con W. Te lo estoy enseñando también en vídeo
en YouTube y en Spotify porque Wipoid es nuestro patrocinador de la semana. Venden PCs a medida para ayudar a personas como tú que no saben por qué ordenador decidirse o que a lo mejor necesitan que alguien los asesore con cierto presupuesto, con los programas que van a utilizar, en tu caso, para entrenar y ejecutar estas IAs en local. La potencia gráfica que van a necesitar, si son gamers... Voy a dejar, aparte del enlace a Wipoid,
un par de configuraciones que te pueden servir, una de muy alta gama, otra más económica, porque lo que sí quería decirte es que Wipoid se especializa en montar ordenadores de gama alta, pero también de gama media, ya sea para gente que necesita el ordenador para trabajar, para office-mática, como se dice normalmente, o para gaming. Bueno, estupendo, Mati. Me viene perfecto esta parte porque es verdad que mi PC ya empieza a sufrir,
tengo que renovar, y mi paso a lo que sí me preocupa es un poco el tema pasta, porque yo, una vez me meto en esto, me flipo un poco con la tarjeta gráfica, va a ser fundamental. También tengo que mirar bastante el disco duro, porque te descargas un llama y prácticamente tengo que borrar todas las fotos de mi familia. Bueno, ya está, sacrificaré eso por la inteligencia artificial, pero el tema pasta me preocupa.
Aquí al que va mejor de pasta eres tú, pero no te preocupes, no te preocupes porque la gente de WePoit nos ha dejado un código de descuento, el código MONOS, para los oyentes del podcast que se pasen por wepoit.com y que aprovechen este servicio de recomendaciones del que estamos hablando. Así que WePoit, patrocinador de este episodio de Monos Estocásticos. Muchas gracias, Matías. Le voy a echar un ojito,
miraré todo, y recordamos, WePoit con W y I latina. Seguimos con la IA. Mati, ¿tú crees en todas tus conversaciones con los modelos de inteligencia artificial, con cualquiera, con Cloud, con BAR, con GPT, que estos modelos razonan o tú crees que no razonan? Es una pregunta complicada, porque al llamarse el podcast Monos Estocásticos pues nos da cierta intencionalidad en nuestra respuesta, pero yo diría que no.
Por cómo funciona y por las respuestas que te dan en muchas ocasiones y por cómo se hace la picha un lío, yo diría que no, que todavía no razona. La teoría de la picha un lío. Porque con esto en un paper, Mati, lo petamos. El caso es que ha habido ciertas discusiones en las últimas semanas. Claro, el consenso técnico-científico con GPT-4 y con todos estos modelos básicamente es que estos son modelos
que predicen la próxima palabra en un texto. Que los hemos sofisticado bastante, que los hemos hecho más complejos, que hemos conseguido que tengan el formato de un chat y aparente hay una conversación. Pues sí, básicamente son predictores de la próxima palabra en un texto a base de haberle metido millones y millones de textos en una red neuronal. El caso es que cada vez hay más voces que apuntan a que este es el texto
que estás poniendo en YouTube desde Johan Lahili, que dicen que de alguna manera la mejor manera de predecir la siguiente palabra en un texto o de continuar un texto es teniendo un modelo del mundo interno que se corresponda con lo que ha aprendido en los textos. Y que por lo tanto esa forma de añadir nuevas palabras a una conversación no lo hace solo por pura estadística, más bien dicho, esa estadística
le ha llevado a tener una representación interna del mundo que es lo que le permite funcionar también. Y por lo tanto estamos ante un fenómeno de un proto-razonamiento. Tuvo un encuentro Shuskever, a ver si algún científico de IA lo decimos bien, que es uno de los cofundadores de OpenAI y tuvo una conversación con el CEO de NVIDIA y él dice que esto de entrenar para la siguiente palabra, el modelo no solo aprende a juntar palabras,
sino que está aprendiendo lo que estamos diciendo, un modelo del mundo. Y que esta es correcta en estadística del texto, cuando él comprime esos millones de textos en un sistema que ocupa muchísimo menos espacio que el original, cuando hace esa comprensión, la hace porque es capaz de recoger una representación del proceso y por tanto del mundo que reflejaban los textos. Entonces como el texto es una proyección del mundo,
eso es lo que nos dice el amigo Shuskever, está aprendiendo la forma en que piensan las personas, se gusta un poco aquí el científico, las esperanzas humanas, sus sueños, sus motivaciones, sus interacciones. Entonces lo que está haciendo la red neural es comprimir y tener una representación abstracta de todo eso, no solo lanzar palabras de una manera estadística. Por lo tanto, esta corriente de pensamiento
Matías sostiene que no son solo loros o monos estocásticos, sino que son algo más. A la vez tenemos lo que tú has puesto antes, que era un ejemplo muy divertido, con Dalí 3 y los relojes. Bueno, a Dalí 3, espero que lo comparta, a Dalí 3 le pasa una cosa muy graciosa cuando le pides que represente un reloj que marque la 1, y además si le añades, por favor, muy atento a las manecillas del reloj, porque lo que quiero es que marque la 1 en punto,
sigue generando relojes que marcan las 10 y 10. Y bueno, esto tiene una explicación muy lógica, y es que todas las marcas de relojes suelen tener imágenes de sus modelos marcando las 10 y 10, porque es la hora que mejor muestra las manecillas y el diseño del reloj en general. O sea que mucho razonamiento hay detrás. Igual, ponemos por ejemplo la incapacidad para aprender las reglas del ajedrez, los problemas de echar GPT con operaciones
matemáticas relativamente simples. Hemos encontrado tantísimos casos en los que ha desvariado y en los que un razonamiento simple humano, es decir, algo accesible a alguien no muy listo, que no es mandar un cohete a Marte, pues falla. Entonces, hay yo creo que esta sensación de extrañeza, ¿no? El ver por un lado que es capaz de cosas muy brillantes y por otro lado de que razonamientos muy simples y aprendizajes muy simples no ha sido capaz
de integrarlos en su forma de funcionamiento. Entonces, esto es un logro estocástico que solo escupe textos y con cierta aleatoriedad o realmente empieza a ver una protorepresentación del mundo, que es un debate casi filosófico. Yo estoy un poco más del lado de los primeros, de los escépticos, porque esta aprehensión del mundo realmente no creo que se pueda producir solo leyendo o solo recibiendo textos.
Por lo tanto, esta forma de articular y de que haya un protorazonamiento a mí me resulta todavía un poco querer verlo, creer que eso existe y que eso haya pasado, pero viendo algunos fallos tan claros y tan patentes que tienen estos modelos, no acabo de estar dentro, Mati. El problema, esto es, a ver, todo el conocimiento de la humanidad, desde los escribas hasta los sabios con sus bibliotecas, todo eso estaba escrito,
pero aquí falta entrenar a estos modelos de inteligencia artificial con conocimiento más popular, que pongan a la IA a hablar con gente del campo, que le chuten vídeos de Belén Esteban. Aquí tiene una ventaja Elon Musk, por ejemplo, porque en Twitter está todo. En Twitter ahora ya no lo usa casi nadie, pero de un tiempo atrás todo el conocimiento y toda la materia gris colectiva de lo que se nos pasa por la cabeza
estaba en Twitter, así que la empresa de Elon tiene una ventaja sobre OpenAI. Bueno, hay cosas interesantes por ahí que he recopilado un poco alrededor de inteligencia artificial y conocimiento. ChatGPT es utilizado por un tercio de los alumnos de postdoctorado que cogían Nature en campo para refinar texto, generar código, buscar bibliografía... Es curioso, es decir, ya por lo menos como ayudante de gente mulista
ahí ChatGPT parece que está encontrando su sitio y además hicieron un análisis y hay un paper al respecto muy interesante de la buena labor que hace ChatGPT con el modelo GPT-4 con la revisión por pares. Este proceso científico por el cual cuando un científico postula un estudio tiene su paper que se llama pues hay otros científicos que lo revisan, lo señalan, intentan corregir bueno, de alguna manera sojuzgan
su validez científica para ser añadido y ser publicado. Claro, es una labor de revisión de texto es algo que ha puesto a trabajar a ChatGPT y el 57% de los participantes en el estudio encontró que los comentarios de GPT-4 como la labor de revisión por pares era bastante útil. Entonces, claro, esto va un poco a la contra de todo lo que hemos dicho antes porque realmente este es un trabajo intelectual de enorme sofisticación.
Entonces, aunque los consejos sean un poco genéricos y a lo mejor no profundicen mucho pero encuentran errores, se encuentra, ofrece alternativas, perspectivas... Aquí me están descubriendo la pólvora los doctores yo lo siento por esto, yo lo llevo usando un año yo uso ChatGPT no soy capaz todavía de generar mis artículos con ChatGPT porque es un texto muy encorsetado y de nuevo, vuelvo a la teoría de que se hace la picha un lío
leyendo dos o tres fuentes sí que lo uso mucho para corregir artículos encontrar errores me encuentra typos sin problema me encuentra frases que no se entienden sin problema me dice, oye esto que has puesto aquí yo creo que la gente no lo va a entender ¿por qué no lo explicas un poco mejor? o este concepto es demasiado técnico, ¿por qué no lo aclaras un poco? y para eso ChatGPT es una de las herramientas
que más ha acelerado mi trabajo junto con herramientas de edición gráfica que usan inteligencia artificial y bueno, en general todo lo que un redactor del siglo XXI necesita para su trabajo o sea que no me descubren nada los doctores que han participado en este estudio de Nature.
Los que sí plantean, Mati que nos descubren algo nuevo son los autores de otro estudio que ha estado involucrado en la Universidad Española la Pompeo Fabra, que dicen que han desarrollado un nuevo modelo de entrenamiento que han bautizado como meta-aprendizaje para la composicionalidad el punto que ellos quieren conseguir y que no se encuentra en esta generación que estamos usando de inteligencia artificial es la capacidad de aprender
nuevas palabras, utilizarlas en contextos diferentes y digamos hacer generalizaciones sobre el lenguaje sin que hayan tenido que llevarle miles de ejemplos en el dataset esta capacidad de aprender un concepto nuevo, poder generalizarlo encontrar una palabra y saber aplicarla integradas con otras, digamos sería una habilidad nueva que inyectarían gracias a este estudio, los creadores de esta forma de entrenar a inteligencia artificial
entonces bueno, se ha publicado en Nature, se le ha dado bastante bombo digamos alcance en las publicaciones y en Twitter bueno, digamos que puede abrir la puerta que si esto funciona bien se pueden entrenar modelos de inteligencia artificial como los que tenemos ahora pero usando muchísimos menos datos de entrenamiento porque esa capacidad de generalizar sin requerir tantos ejemplos de partida es una innovación bastante interesante
para que los modelos sean más pequeños y cueste menos entrenar. Mira, un ejemplo que ponen los humanos podemos aprender nuevas palabras y utilizarlas en diferentes contextos por ejemplo, una vez que conocemos la palabra photobomb que es bastante reciente podemos usarla en frases o interpretarla en frases como photobomb a zoom call, como ha habido una aparición inesperada en una llamada de zoom, como le pasó al hombre
este de la BBC en la pandemia que salieron sus niños por detrás pues esos niños hicieron photobomb de el reportaje en directo que estaba soltando este hombre, pues esto tiene dificultades para hacerlo porque no entiende esas palabras y no es capaz de interpretarlas y no es capaz de usarlas en nuevas frases.
Blake y Baroni, que son un poco los que traen esta propuesta también reconocen que de momento esto ha funcionado en modelos de laboratorio muy pequeñitos con pocos casos, que esto se puede integrar para un modelo súper general, conversacional que hable de cualquier cosa es el siguiente paso en su trabajo y que tendrán que conseguir y de hecho, en la pieza del país, que tenían unas declaraciones, se dicen, claro, nosotros no tenemos acceso a chat GPT, bueno, no tienen acceso
se refieren a que no podrán reentrenarlo y modificarlo, pero van a usar modelos más pequeños enfocados a centros académicos, imagino que serán llamas y similares, lo cual nos muestra también que esta vía de la open source es bastante interesante en la investigación científica de la IA.
Hablando de científicos hay dos caminos para este capítulo, Mati, uno es el de la regulación porque ha habido un montón de movidas regulatorias, de hecho Biden viene fuerte, Estados Unidos también se ha metido, esto es justo, ha pasado unas horas antes de grabar el episodio, pero luego tenemos beef de científicos de inteligencia artificial, es decir, esto es un fenómeno en el que la gran población vive ajena a él, están apelando, están volando
los cuchillos entre estos expertos. Antonio, si tú me das a elegir a mí entre regulación y beef entre los jefes, jefazos de estas grandes empresas voy a elegir estos últimos sin ningún lugar a dudas, así que dale, ¿qué ha pasado? Que me tienes en ascuas.
Bueno, tenemos la versión bien queda porque The Suscriber de OpenAI y su tema de la guía razona ya lo tenemos, pero tenemos el segundo caso que es el de Hasavis de DeepMind a mí yo siempre recomiendo ver el documental de creo que era de Netflix el que lo tenía el de AlphaGo y él sale ahí muy protagonista, ahora está un poquito más estropeado, está más mayor Hasavis el tiempo pasa, pero bueno el caso es que él hace unas declaraciones
que a mí no me hacen mucha gracia porque dice que es la inteligencia artificial las tecnologías más importantes y beneficiosas de la historia pero que él lo que pide es que haya comité un grupo intergubernamental como el del grupo de expertos del cambio climático porque hay muchos riesgos, es muy preocupante y no podemos permitirnos el mismo retraso, dice, que con el cambio climático no podemos permitir el acceso
con la inteligencia artificial. A mí estas declaraciones de la gente que hace modelos gigantescos de inteligencia artificiales y trabaja en no me hacen gracia oye, si tú estás trabajando, promoviendo esto, empujándolo, es como dice soy el jefe soy el de los jefes de Enron habría que hacer algo con el cambio climático me cago en la leche pues planta lechugas tú, ¿no? a lo mejor está en Google porque se quiere hacer una piscina
nueva o algo y realmente en su interior él quiere luchar para regular la IA y que no se nos vaya de las manos bueno, el que está totalmente on fire o habéis flipado con la regulación es LeCun, Jan LeCun de Meta es el jefe científico a mí este tío me encanta porque siempre está metiendo ganas sí, sí, sí, va on fire y bueno, es que dice que los que dicen que la IA se puede descontrolar y puede cuando consigan la inteligencia
artificial general, entonces se volverá nuestra contra, dicen, mira sois unos flipados porque en realidad no tenéis ni puñetera idea de cómo se crean estos sistemas la inteligencia artificial va a traer un montón de cosas nuevas y por culpa vuestra vamos a tener regulaciones muy negativas entonces se ha enganchado con Max Techmark que tenía un libro de futuristas, es más un divulgador y bueno, en esta enganchada el deseo de dominar
dice, no está ligado a la inteligencia artificial y ni siquiera es cierto en la inteligencia humana para que domina necesita un impulso innato y que esto no lo vamos a programar en la inteligencia artificial entonces, ¿cómo se desarrolla esta tecnología? pues, lo que vamos a hacer es una cosa muy prosaica que es ir haciendo prototipos probando, mejorando, incrementando tendremos primero una IA que se parezca a la inteligencia de un gato y luego
según vayamos subiendo la inteligencia de estos modelos, iremos dando las salvaguardas para enfocarla en lo que queremos, porque así se han creado siempre los sistemas tecnológicos científicos y también los informáticos como parte de ellos entonces, bueno, LeCun está un poco ahí on fire porque claro, es que Meta ha sido el que ha defendido los modelos OpenSource y liberar toda su investigación en inteligencia artificial
la gran regulación que se viene la gran amenaza es que como se quiere que parte de esta regulación es pasar una cierta auditoría y certificación de los modelos grandes de lenguaje podría trastocar la viabilidad del proyecto de Meta a mi de verdad que LeCun me hace mucha gracia porque es el arquetipo comentarista de chat acá y otros foros, que sabe como funcionan realmente a bajo nivel las cosas y necesita
hacer ver que la gente no le entiende y que todo lo que se habla son exageraciones es un arquetipo muy frecuente en internet de fricazo pero me gusta mucho ya LeCun sobre todo cuando le mete caña a Elon Musk si bueno luego ha entrado Hinton y Andrew Anc yo a Andrew Anc me cae mejor que Hinton porque da cursos gratis en inteligencia artificial y aquí una recomendación para todos los oyentes de monedas y teocáticos
si Andrew Anc te dice que haga un curso de IA gratis, tú lo haces, básicamente esa es mi recomendación, bueno pues Hinton y Anc se han enganchado porque Anc empezó diciendo es que la gente que dice riesgos exagerados de la IA la extinción humana, riesgos civilizatorios estas cosas, son los tontos útiles, esto no lo dice Anc pero yo lo interpreto de sus palabras, de las grandes empresas tecnológicas que quieren
promulgar normativas aficiantes que supriman el open source y la entrada de nuevos actores innovadores entonces aquí Hinton se siente un poco aludido porque Hinton se fue de Google para poder rajar, es decir, Hinton es un científico destacado toda la parte de la retroalimentación de los modelos de IA pues tienen a él como uno de los habilitadores de esa mejora y dice que claro, que él se fue de Google, que a lo mejor
pues tendría buenas condiciones se podía pagar la piscina como Hasabi podía pasar los tickets del taxi Google tenía cosas muy buenas para Hinton y ha renunciado a ellas y bueno dice que yo creo de verdad, no hago esto por ayudar a Microsoft, Google y las grandes y al final se meten Lecuni y Anc esto no es bonito porque son dos científicos contra uno, aquí es verdad que yo estoy más con Lecuni y Anc pero aquí aprovechan
el dos contra uno y Lecuni dice, mira, usted y Joshua por Joshua Bengio, están ayudando a que se pare la investigación y desarrollo de inteligencia artificial prohibiendo la investigación abierta el código fuente abierto y los modelos de acceso abiertos, entonces Lecuni está ahí bastante en contra y Anc dice, es que ya estoy viendo que los jóvenes no quieren venirse conmigo a hacer mis cursos gratis porque
no quieren contribuir a la extinción humana y esta exageración del daño va a ser contraria a la innovación y fíjate, en estas peleas de científicos de inteligencia artificial está casi todo el debate que nos jugamos este año y el que viene en las regulaciones estas regulaciones van a ser un enorme control y por lo tanto van a imponer que estos lo que llama la Unión Europea llama modelos fundacionales los grandes modelos de inteligencia artificial
tengan que pasar una certificación muy estricta antes de pasar a la producción, bueno eso de facto puede matar al open source porque si tu cada vez que haces un cambio o modificas algo, mejoras un modelo que te has descargado porque es de libre distribución, tienes que pasar una certificación costosa y tienes unas amenazas de sanciones muy altas pues no lo vas a hacer, eso solo lo harán empresas que tengan un
alto capital, en cambio si permites el open source vas a tener a mucha gente haciendo muchas cosas de forma descontrolada, de forma distribuida sin tener ese control al que algunos políticos y algunos científicos apoyan, aspiran entonces ahí va a estar el dilema Matías.
Bueno está bien, a ver hasta ahora lo que tenemos que puede conducir a la extinción humana es la bomba atómica, que toquemos madera, yo creo que nunca nunca hemos estado tan cerca de eso y si ahora tenemos pues otra herramienta es normal que haya tanto interés por controlarlo porque al final el que obtenga la primera agil, la primera superinteligencia artificial y los primeros resultados por encima de la singularidad si es que llega, pues van a tener
su bomba atómica también. Ya, fíjate que Hinton usa esa analogía esto puede ser como la bomba atómica y ahí de nuevo sus rivales rajan y rajan contra, oye no hagas esa analogía porque el que tienes delante es un chapboz que procesa PDFs es decir, la IA tiene un millón de usos, las bombas atómicas tienen un uso y el millón de usos de la inteligencia artificial superan enormemente los casos de uso beneficiosos socialmente
de los perjudiciales, es una analogía porque tampoco la inteligencia artificial no mata a la gente, ¿no? Entonces ahí hay un, porque ya luego se mete Pedro Domingos, que es el autor de The Master Algorithm, un libro que a mí no me gustó demasiado, pero bueno, que está muy activo también en redes y bueno, también lo discute mucho Dennett.
Bueno, yo ya me he metido en ese mundo Mati, en vez de estar atendiendo a lo que hacen los influencers, estoy como metido en el mundo de los científicos de inteligencia artificial y creo que necesito que me saques de ahí porque creo que tenemos creadoras importantes en nuestro puerta grande o enfermería. Puerta grande o enfermería, que tengo que decir que gracias a que me metí en Blue Sky, red social a la que jamás me había metido, descubrí de su existencia,
por lo menos de Emily Valentina, porque vi un, no sé cómo se llaman las publicaciones de Blue Sky, un Blue Skit tuyo echándola de menos al haber transicionado de Twitter a Blue Sky y luego fue cuando empecé a investigar quién era Emily Valentina y entonces descubrí un poco más.
Emily Valentina es nuestra musa Mati, yo te lo propongo, yo creo que deberíamos rendir homenaje y pleitesía a esta creadora de contenidos. Los tuiteros ya la conocen. ¿Por qué? Porque Emily, no sabemos muy bien por qué, se gasta un montón de dinero en aparecer publicitariamente en Twitter. Más como Twitter, ahora llamado Ex, permite publicidad en las respuestas, crea un efecto maravilloso porque Emily no tiene una línea editorial
agresiva y faltona, no tiene ese tono que te enfada, sino que al contrario nos descubre el amanecer un día, otro día nos enseña cómo corre por el campo, cuando se prepara un café, un jersey nuevo. Emily nos lo introduce en un mundo de dulce candor, Matías.
Entonces tú estás en un hilo de Twitter en el que alguien ha dicho algo en el que inmediatamente aparecen mil personas insultándoles. Insulto, insulto, insulto. Faltada, faltada, faltada. Y de repente, en ese momento, la publicidad de Emily Valentina. Oh, el sentir de un nuevo amanecer. Aquí, con mi manta y el café, ¿no? Y tú dices, ¿cómo mejora el mundo Emily Valentina? ¿Seríamos una sociedad mejor o más como ella? Pues en los últimos 30 días ha ganado
7500 followers con este tipo de tweets naif, ¿no? Y resulta que hay un señor en Twitter, Chuizo, que ha analizado el caso y viendo los vídeos en detalle, detalles en las manos, detalles en la cara, una oreja que desaparece y tal, cree que es una persona real que usa filtros de inteligencia artificial en la cara con un deepfake o algo parecido y por alguna razón se está dejando el parné en promocionar esa cuenta pues inocente
y más propia de Instagram en el caos que es Twitter. Así que a lo mejor esa es la única intención oculta detrás de Valentina, hacer para luego vender la cuenta o algo así. También puede ser que sea el propio Elon Musk queriendo que el ambiente en Twitter sea un poco más relajado. Sí, Emily, yo creo que ahí claro, ya empezamos a tener ese dilema de tomar una cosa real y sospechar que es inteligencia artificial porque
no es creíble. Es creíble la existencia de esta mujer y esa línea editorial en medio de Twitter y de, ¿no? Como si surgiera en medio de un campo de batalla enfangado con balas y bombas apreciara un angelito vestido de blanco inmaculado, ¿no? Dicen, no, no es creíble, no puede ser.
Bueno, pues bueno, tenemos el caso de Emily Valentina, ¿no? Nuestra nueva musa, que no es inteligencia artificial o por lo menos creemos que no. Pero luego tenemos a otra. Aitana. Este es un caso local, un producto español y este sí que está totalmente generado con IA generativa. No sé qué modelo porque las fotos son bastante buenas. Es una chica con el pelo teñido de rosa, una figura 10 sobre 10, fotos un poco voluptuosas que
la gente sedienta de ver mujeres en Internet a estas horas, pues le contesta con, qué guapa estás, estás buenísima, qué sexy te pasas, no sé qué. Entonces, pues es gente que se está creyendo el enésimo caso de una cuenta de Instagram creada por una agencia de publicidad, en este caso de Clueless, me imagino que también para farmear seguidores.
Sí, de hecho, parece que está AI Influencer, no, AI Influencer, yo esto no veo que triunfe, AI Influencer. Bueno, creada por de Clueless, es que tiene 90.000 seguidores, no está nada mal en Instagram y en un reportaje con el periódico indicaban que facturaban unos 4.000 euros al mes, lo cual ya empieza a ser una cantidad.
Han creado alguna más, tienen otra compañera que se llama María Lima, que es amante de la fotografía, el fútbol y el arte. Una mezcla curiosa, artística-fútbolera, mientras que nuestra amiga Aitana está más en el gaming, el fitness y el cosplay. Bueno, el caso es que hay dos o tres elementos muy interesantes, Matías, porque en las bios de estas personas sintéticas indican que están hechas con inteligencia artificial. Hay un cierto grado de transparencia,
pero me da la impresión que los comentaristas y seguidores, mayormente masculinos, no acaban de pillar este aspecto porque no van a la bio a mirar, sino simplemente se encuentran en su scroll, se encuentran a estos personajes y participan de esa conversación y dejan unos comentarios como subidillos de tono.
Además, ellas, o supuestamente ellas, responden a muchos de estos comentarios. Entonces hay bastante engagement, hay bastante involucración y luego hay una cosa curiosa que es que Aitana tiene página de un pseudo OnlyFans. Tienen una página que se llama FanView, pues por 10 dólares al mes, Matías, puedes acceder al contenido un poquito más subido de tono.
Yo creo que esto está hecho con STXL, que es el estábil difusión grande que surgió hace, apareció hace un par de meses y que conforme en sus posibilidades también permite el contenido no safe for work. Te sale. Me hace mucha gracia porque una de las que destapó el caso en Twitter, que no hay que destaparlo porque como tú dices, ya declaraban que era una IA, dice que Aitana ha conseguido 1.500 followers desde que ella publicó su hilo de Twitter.
O sea que la gente le da absolutamente lo mismo que sea una IA. Lo que quieren es ver a una chica guapa, atlética, que hace deporte, que le gusta Blink 182 y espero que no haya mucha gente pagando el pseudo OnlyFans porque ya entonces es para estudiar la mente humana a nivel psicológico y sociológico. Se abren muchos debates, Mati, fíjate, en esta gente cuando dice ya sé que es una IA, entonces yo creo que deberían cambiar la orientación del piropo
porque claro, que guapa o que bien te queda eso o ya hay piropos un poco más gruesos, más de modé que ya hemos cancelado en nuestra sociedad ¿quién te pillara? El tono de la conversación empieza a ponerse más grueso pero dado que es una IA y que es IA software, al fin y al cabo, no deberían lanzar piropo al algoritmo y no a la imagen ¿quién fuera Eve para agarrar ese Else? Estamos más cerca de Futurama de lo que parecía
Yo creo que aquí la gente está confundida en vez de decir Ole y ese elemento fisiológico de la mujer ese orden de complejidades que bien lo hace, escala logarítmica alguien te diría a ver los culos con los que se ha entrenado el modelo de Stable Diffusion para luego crear esto también te digo a mí lo que más me sorprende de esto es que todavía en 2023, casi 2024 una agencia sea capaz de ganar esos 4.000 euros
al mes en Instagram con una cuenta sacada desde cero seguramente promocionando mucho metiendo dinero detrás habría que ver cuántos beneficios tienen esos 4.000 euros pero me sorprende que Instagram todavía dé dinero a este tipo de influencers, yo pensaba que ya esto estaba cerrado, que nos hemos quedado con las Pombo y con Dulceida o lo que sea, y que las demás lo tienen más difícil yo creo que hay otro debate
de fondo y que va a tener que ver con nuestra relación con la realidad que yo creo que tiene que ver también con un concepto que hace poco discutíamos en Error 500, que era el concepto de Metaversos, el mundo de Instagram con su edición, su selección su comunicación de un mundo alterado, impostado en el que todo es fantástico maravilloso y somos guapísimos y guapísimas todo cargado de filtros, de poses en realidad es una sensación de irrealidad
el mundo esto de toda la gente tan guapa, demostrando su capital erótico en el fondo, tiene también una sensación de irrealidad no es la realidad como la vivimos cotidianamente cuando bajas a la calle a desayunar y haces los recaos no es eso, es otra cosa vives en una burbuja ficticia, si te sumerges en ese mundo de Instagram que Aitana o otras influencers la referencia mundial es Jill Maqueda que tiene como dos millones
claro, son groseramente artificiales, están claramente inventadas, una vez que hemos comprado y hemos aceptado esa regla, esa suspensión de lo cotidiano para entrar en algo que es más agradable o que nos introduce en nuestra fantasía o en nuestro mundo de deseos que Aitana esté generada con una IA y María Pombo no a lo mejor nos descubrimos que no era tan importante a la hora de vivir en la ilusión y vivir en un mundo
ficticio y que las reglas ahí puede que cambien, yo soy escéptico con los vitubers, con los influencers siempre he pensado que en esta relación, seguidores creador de internet o famoso en general, hay una búsqueda de conexión humana, pero a la vez cuando veo estos fenómenos me pregunto, oye, ¿es verdad que todo en el cine, la televisión, todo es mentira? En Instagram y en internet todo es también falto de
autenticidad e inocencia, pues a lo mejor compramos que las modelos que aparecen ahí tampoco sean entre comillas reales. Pues no sé, yo creo que estoy quedando muy viejo para esto, creo que aquí está habiendo una brecha generacional como tantas que ha habido, como los padres a los que no les gusta la música que escuchan sus hijos, y yo ya estoy en esa generación que rechaza esto, pero bueno, lo entiendo porque también entendí
por qué la gente habla con ChasGPT durante horas, incluso contándole sus problemas a nivel saludmental, porque ChasGPT siempre está disponible y además es gratis o sea, yo a mi psicóloga le pago 60 por sesión y es barata hay otras que son bastante más caras.
Yo doy puerta grande a Emil y Valentina, ¿tú qué opinas de Aitana? ¿Qué le concedes? Aitana a nivel fisiológico está muy bien le pongo un 10 como concepto y estado de la humanidad y implicaciones no sé esto, tengo muchas dudas, para mí es una enfermería Bueno, pues enfermería para Aitana, lo siento agencia de Clules.
Bueno, un día ojalá pudiéramos traernos a la agencia también al podcast porque seguro que tienen puntos de vista muy interesantes y si quieres Mati, una vez que hemos cerrado esta parte de puerta grande de enfermería, yo creo que hay dos noticias que merece la pena hacerle un poco de seguimiento.
Una es la de que Google mete más pasta en Anthropic muy bien pronunciado Anthropic, no sé qué es lo que tiene, ¿qué les dará? Tú dices, primero invirtió Google puso 500 millones de dólares, luego un acuerdo de Amazon, si no recuerdo mal, hasta 4.000 millones faseado en distintas etapas, hasta 4.000 millones Amazon, y ahora llega Google y le dice os doy 2.000 millones más ¿qué tiene Anthropic? ¿qué les está enseñando
por detrás? ¿qué hace que Amazon y Google se le haga el culo pesicola, Matías, con ellos? Pues yo creo que lo único que tiene por detrás es que es una de las alternativas fuertes a OpenAI y a ChatGPT, que bueno que es lo que ha conseguido esta acogida del público y lo tienen, en el caso de Google, lo tendrán como plan B por si el Bard o por si el Gemini o por si lo que sea no llega a ninguna parte como tantos otros
productos de Google. Entiendo que esa es la lógica, ¿no? Tener los huevos en distintas cestas, no sé, a lo mejor tienen un modelo más cercano a esa AGI y no lo sabemos Pues, sí, yo siempre con estas inversiones digo, o todos son, o viven el FOMO como nosotros, como la gente uff, voy a darle miles de millones, no vaya a ser que me pierda algo porque se le ha dado otro antes, entonces algo habrá visto él, ¿no?
Pero realmente Anthropy está enseñando cositas internamente que todavía los mortales no hemos podido conocer y por lo tanto le están dando argumentos para decir, sí, sí, voy a ser el caballo ganador de esta carrera, ¿no? Y luego otra empresa a la que creo que tenemos que seguirle bien la pista es la gente de Humane porque se ha filtrado en The Information, ¿te acuerdas que hablamos del ping de inteligencia artificial?
Ese que se paseó en la moda en la Semana de la Moda de Nueva York Bueno, parece que no va a ser exactamente baratito el ping ese gadget, wearable, proyector, cosa secreta con inteligencia artificial porque según The Information va a costar mil dólares y además te va a pedir una suscripción mensual, Matías Yo, fíjate, más que un ping lo he estado pensando y creo que la IA tiene más sentido integrarla en unas gafas
de realidad virtual, aumentada, mixta, extendida porque si va a formar parte de tu realidad en la oficina, en una reunión, en una cita con una novia, es menos fricción que aparezca ahí, delante de tus ojos que tenerlo en un ping que se proyecte en tu mano o donde sea, o sea que yo creo que el futuro del hardware de la IA pasa más por la realidad extendida y por eso quizá Apple se ha metido en ese rollo Meta está invirtiendo tanto
en ese rollo y Meta está pivotando al mismo tiempo a IA que estas alternativas que estamos viendo en Mono Claro, pero fíjate a lo que nos aboca la humanidad, tal como lo estás planteando, Mati que es, al final la IA nos hará todo gafotas porque, claro tú y yo no tendríamos problemas unas gafas con IA, ok, correcto estupendo, pues ya las llevamos puestas pero, claro, ahí por ahí hay un mundo de gente que no es miope
ni tiene ningún problema con la vista y claro, a lo mejor se pone las de sol en verano, pero realmente claro, es un problema, toda esta gente que busca el nuevo factor formal el nuevo interfaz entre la IA y nosotros tiene que hacerlo con algo que llevemos todo el rato puesto entonces, como todo el mundo llevará pues una chaqueta o una camisa o algo así, pues el ping, por eso habrán tirado por ahí, pero claro, la vía gafotas
Mati, nos lleva a que el futuro es de la gente con gafas Estoy pensando en Alex Barredo y en toda la gente que se ha operado la vista recientemente que dentro de unos años va a tener que volver al rollo de llevar gafas La cagaron, claramente, la cagaron Bueno, Matías hemos pasado, estamos acercándonos a la hora de grabación, como siempre tenemos mil temas amenazamos con que en próximos capítulos habrá un poquito de regulación porque
se está poniendo seria la cosa Sí, vamos a tener que hablar de regulación porque incluso en España la cosa se pone seria nuestra españita está ahí al frente de eso de regular la IA Un anticipo, Mati, la culpa de todo la tiene Tom Cruise de todo lo que está pasando en regulación ahí dejó el cebo para el próximo capítulo Me ha dejado con una intriga, no tengo ni idea de lo que quieres decir así que yo mismo me pondré el próximo
episodio de Monos Estocásticos Un abrazo a todos, chao chao