La inteligencia artificial de Google acaba con el death metal

00:00 /1h07

Patrocinador: Esta semana, monos estocásticos está patrocinado por Vodafone Hogar 5G, la alternativa a la fibra óptica de Vodafone que incluye un router Wi-Fi 6 que te puedes llevar adonde quieras https://www.vodafone.es/hogar-5G

LA SEMANA DE GOOGLE

Bard llega a 180 países (al nuestro no). ¿Es mejor que ChatGPT? https://blog.theapricot.io/posts/chatgpt-vs-bard/

Generará imagen llamando a Firefly de Adobe https://news.adobe.com/news/news-details/2023/Adobe-Firefly-Delivers-Creator-Focused-and-Commercially-Viable-Generative-AI-to-Millions-/default.aspx

Llega PaLM 2 y ya está debajo de Bard https://ai.google/static/documents/palm2techreport.pdf

Mucha IA generativa en sus servicios, a la zaga de Microsoft https://es.gizmodo.com/revolucion-inteligencia-artificial-google-gmail-maps-1850426366

Tailwind, más IA para hablar solo https://adjacentpossible.substack.com/p/project-tailwind

PUERTA GRANDE O ENFERMERÍA

"Tengo 100000 novios". El caso de Caryn Marjorie y su doble IA https://www.error500.net/p/el-caso-a-favor-de-la-amistad-y-el

NOTICIAS

Claude de Anthropic ahora admite 100.000 tokens como entrada, le cabe una novela entera como contexto https://techcrunch.com/2023/05/11/anthropics-latest-model-can-take-the-great-gatsby-as-input/

OpenAI usa GPT-4 para etiquetar las neuronas de GPT-2, un paso hacia modelos más interpretables https://openai.com/research/language-models-can-explain-neurons-in-language-models

ImageBind de Meta: explicamos el super embedding https://ai.facebook.com/blog/imagebind-six-modalities-binding-ai/

Anthropic libera la "constitución" de Claude
https://www.anthropic.com/index/claudes-constitution

Chatbots en el campo de batalla https://www.bloomberg.com/news/articles/2023-05-08/palantir-says-demand-for-new-ai-product-is-without-precedent

Europa no se cansa de legislar https://twitter.com/monospodcast/status/1657999298045288449

BASADO O HACIENDO LA CIENCIA

Michio Kaku y una movida de IA + computación cuántica https://www.youtube.com/watch?v=8FIhY7eHhhA

Tenemos un problema https://twitter.com/monospodcast/status/1656957445170774018

Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com

Transcripción

Hola a todos, una semana más. Aquí estamos en Monos Estocásticos. La verdad, ha sido una semana de estas intensas, con muchas novedades importantes y noticias importantes. Pero yo tengo que confesar que desde el viernes hasta el lunes por la mañana he estado jugando al Zelda. No he hecho otra cosa que jugar al Zelda. Además, te he visto a ti obsesionado con una tal Karin Margin. Claro, es que en casa el Zelda no me lo dejan, no me lo dejan jugar.

Hay otra persona en este hogar que se ha apropiado del Zelda y por lo tanto yo no lo cato, Mati. Así que he estado siguiendo a la que yo creo que va a ser la salvadora de la inteligencia artificial, Matías. Atención, atención a lo que ha dicho Karin, que va a ser protagonista de nuestro Puerta a Grande Enfermería porque ha lanzado un producto muy innovador. Lo que pasa es que sus declaraciones compartidas en Twitter dicen,

decían que la electricidad era magia negra, Matías. Decían que la radio propaganda, que la televisión nos lavaría la cabeza, que Internet una estafa. Y ahora dicen que la inteligencia artificial es el fin de todo. Los humanos, Matías, dice Karin, tienen miedo del cambio en lugar de ver la parte buena de la innovación. Ahora contaremos quién es esta tal Karin Marjorie, esta filósofa de la inteligencia artificial.

Antes, tenemos patrocinador y vuelve a ser Vodafone Hogar 5G, que estuvimos hace dos episodios hablando como dos minutos sobre si se pronuncia Wi-Fi o Wi-Fi, ¿te acuerdas? No sé si la cuña le gustó a Vodafone, pero eso fue lo que hablamos sobre todo. Y esto de Vodafone Hogar 5G, pues es un router con Wi-Fi 6 que puedes moverlo si tienes una segunda vivienda o si, como comentamos en el episodio anterior,

estás ahí con tu novia que no sabe si os vais a mudar juntos o no. Porque esto funciona con velocidades como de fibra óptica de hasta un gigabit por segundo, pero por 5G, o sea, esa es la ventaja. Puedes llevarlo donde quieras. Es una alternativa a la fibra óptica. Si tienes buena cobertura 5G. De hecho, creo que ni siquiera te lo mandan si no tienes 5G en tu zona. O sea que eso ya está controlado. Tengo que consultarlo, Mati, porque este verano me han pasado un plan.

El nombre es Badajoz en agosto y yo ahí, claro, mucho tiempo, muchas semanas así sin una conexión potente no puedo estar. Así que mi plan pasa por exclusiva. Atención, señores de Badajoz, si hay 5G y funciona el router, pues para adelante. Badajoz en agosto, embutidos buenos, seguramente, seguramente tengan y jamones. Bueno, pues nada, Vodafone Hogar 5G, instalación sin técnico, sin nada, te llega a tu casa, lo enchufas y ya tienes

internet, sobre todo ahora en verano, como le pasa a Antonio con el tema vacaciones, segunda residencia y lo que se te ocurra. Vamos con la inteligencia artificial, vamos con las novedades y los lanzamientos de la semana, porque yo creo que por fin esta ha sido la semana. Bueno, bueno, Mati, empieza la guerra, empieza la marcha. Esto es lo que nos gusta a nosotros. OpenAI estaba ahí de una manera como como intocable, como el pionero, como el chat de la inteligencia artificial.

Pero llegó Sander Pichai y mandó parar, Matías, mandó parar. Yo te he seguido, he visto tu reacción. Yo estaba bastante entusiasmado con el Google IOI, yo lo he visto entero. Eran tres horas y media, una cosa así. Estuve bastante entusiasmado durante esas tres horas. Luego he probado lo que he podido probar, que ha sido el BARD. Ahora hablaremos por qué no está disponible en nuestra querida Unión Europea.

Y el BARD me sorprendió bastante, es muy rápido, etcétera. Pero a ti te he visto como desilusionado, como decepcionado. Tú se esperabas más de bueno. Yo creo que no está mal. Yo creo que vamos a ver cómo así decirlo. Mira, si vamos por partes, es verdad que BARD, que es, digamos, el lanzamiento estrella porque además es el que podemos probar. Para quien haya estado totalmente desconectado de la noticia, pues es un

chatbot, el tipo chat GPT, que está basado en PAL 2, que por lo tanto han actualizado el modelo grande de lenguaje que está detrás, articulando y haciendo funcionar este servicio y bueno, además han hecho un paso adelante bastante fuerte porque Google lo ha puesto a disposición en 180 países. Y bueno, el caso es que pues por fin están aquí. Ya podemos tocar y ya podemos usar con ese asterisco que tú dices.

En Europa hay que usar un VPN, entonces la verdad es que además sale con con algunas diferencias con chat GPT, alguna de las cosas no sólo es que se ponga al día, sino que ofrece funcionalidades extra que el servicio de OpenAI no tiene. Sí, por ejemplo, la función de exportar a Gmail o a Google Docs, etcétera. Está claro que Google va a integrar todos sus servicios dentro de su nube junto con estas guías generativas, pero un lanzamiento bastante limitado.

Sólo funciona en inglés, en japonés y en coreano, aunque evidentemente está entrenado a contextos en español y si engañas a Bart, te puede llegar a contestar en español, también puedes incluso hablarle en español y te va a contestar en inglés, pero un lanzamiento muy limitado. Le hemos preguntado a Google. Oye, ¿qué pasa? ¿Por qué no está en la Unión Europea todavía? Tampoco está en Canadá, creo.

No nos dieron una respuesta muy específica. No sabemos si es tema de GDPR, no sabemos si es tema de normativa de privacidad o no sabemos si es lo que está pasando ahora, por ejemplo, en Italia y eso que se estaba planteando Alemania, etcétera, lo que comentábamos en el episodio. La cuestión es que están trabajando con los reguladores y va a llegar, va a llegar cuando llegue en español, seguramente también lo tengamos en España.

¿Se le pueden mandar audios? Puedes hablar por voz. Sí, eso está muy interesante. De nuevo, me ha recomendado hacerlo en inglés y además tiene acceso a Internet. Además es un acceso a Internet transparente. No es que tengas que pasarle una URL. Simplemente puedes hablar con Bar hablando de sucesos actuales o de muy recientes y él va a buscar la información, aunque aquí hay dos diferencias. Uno con chat GPT, que

ahora hablaremos de la reacción de OpenAI, pero bueno, necesita la versión extendida con acceso a Internet y con BeanChack, aunque BeanChack tiene mucha más trazabilidad, te dice he hecho esta búsqueda y he encontrado esta fuente y te estoy explicando esta fuente y te pones los enlaces bar. Por lo general no funciona así. Y bueno, tiene otras cositas. Tiene, por ejemplo, borradores para cada respuesta, te da tres, tres opciones y puedes navegar entre ellas.

Y además, a pesar de todo esto, es bastante más rápido que chat GPT, al que tiene menos latencia. Sí, a eso iba, porque a pesar de que está conectado a Internet, la experiencia mía con BeanChack, que también está con conecto a Internet, es que dice buscando y pone los términos más o menos de lo que está sonando en él y tarda unos tres, cuatro o cinco segundos en empezar a generar la respuesta, a pesar de que yo esté conectado a BARD a través de un WPN.

La respuesta es instantánea. Casi siempre va muy bien, va muy rápido, va muy rápido. A mí sí me sorprendió, pero luego es cierto que la gente que se dedica a hacer comparativas más a fondo entre GPT 4 y BARD sí que encontró bastante más fallos, más alucinaciones por parte de BARD. También gente de la típica que les pasa los exámenes a ver si aprueban o no. Parece que GPT 4 aprueba más exámenes que BARD.

Ahí sí, yo leí las comparativas y mi primer uso y influido por ti, Matías, era muy entusiasta. Tú sabes que yo venía con mucha afinidad con BARD, que tenía ahí conquistado un trocito de mi corazón, Matías. Entonces mi ruptura ha sido un poco sentimental. Ha sido... Le pregunté una cosa que yo esperaba que me deslumbrara, Matías, era cuéntame algo del último episodio de Monos Estocásticos, porque BARD hasta

ahora había hablado muy bien de nosotros. Era como el chatbot, como la IA que más nos quiere. Las otras IA no nos conocen, no nos mencionan. Pero esta IA de repente tenía ese puntito pro Monos Estocásticos. Pero claro, le pregunté del último episodio y dijo que nuestro último episodio es el futuro de la izquierda en España con Javier Pérez Rollo y Luis García Montero. Hablan sobre todo del crecimiento de Vox y cosas así.

Entonces, bueno, algunas pistas de la orientación de Tepoca que mucha gente piensa que somos aquí muy de derechas por lo de los toros, a lo mejor de ahí saque esa alucinación. Pero la verdad es que yo sí conseguí que me hablara de Monos Estocásticos y de los últimos episodios, incluso me explicó el significado de Monos Estocásticos. Eso es verdad, que lo compartiste y lo hizo realmente bien. Es que es capaz de lo mejor o lo peor,

pero es que tampoco me puedo explicar lo que le queda al Betis en la liga, Matías. Yo tenía estas dos áreas en las que BARD de alguna manera me había conquistado. Y al fallarme en ellas dos, Matías, entonces tengo que verlo con más frialdad. Ya no puedo tener ese punto emotivo, probar tan fanboy de BARD como he sido. Ahora estoy en una etapa un poco más distante, distante. Pero bueno, como tú decías,

creo que en términos del sentido común, todo esto de nuevo, aunque en el discurso nosotros hacemos de alguna manera antropomorfo el comportamiento de estos modelos y digamos cómo nos entiende, cómo se explica, cómo razona. Ya sabemos que realmente detrás no existen esos atributos, pero bueno, para entendernos el sentido común y el entendimiento de nuestras peticiones. En mi opinión, un puntito por detrás de echa GPT,

la calidad de las respuestas en lo que no es actual. Creo que puede estar muy cerca de OpenAI. Esa es mi experiencia. Y en lo que es el tiempo actual de lo nuevo, hablar de la actualidad, ahí creo que se pierde mucho, Mati. Y no lo veo para nada, para nada preparado para estar en la home de Google, como se está planteando en el buscador. Sí, ahora hablaremos de cómo lo van a implementar en el buscador.

Un par de cosas más. Tienes que tener más de 18 años para utilizar VAR. Si Google detecta que tu cuenta tienes menos de 18, entonces no tienes acceso. Luego lo del VPN, por cierto, yo lo estoy usando en Opera, que tiene un VPN gratuito con salida en Estados Unidos. Yo uso NordVPN con Estados Unidos y va como un tiro. Y cosas que llegarán en el futuro. Las herramientas, las tools de VAR, que son como las extensiones de ChatGPT y además en ChatGPT ya se han dado prisa

a que esto esté disponible para más usuarios. Porque, bueno, Google va un poco siguiendo un poco la zaga a ChatGPT, pero llegan muchas de las mismas extensiones que están en ChatGPT. Khan Academy también me añade Spotify y una cosa muy extraña es que para generar imágenes, no sé si usan imagen por un lado, que es el modelo de Google, pero como extensión llaman a Adobe Firefly para generar imágenes externas.

Claro, es algo que de momento VAR no hace. Si vas a probarlo hoy no lo tienes, pero en el roadmap, en los planes de Google está la generación de imágenes. Y esto es integración de Adobe. Es muy llamativa. Creo que coincide con dos o tres cosas que vamos a ver de la presentación, que es que aunque Google se lanza la carrera, creo que está todavía bastante, bastante comandada por el equipo de legal y por el equipo de ética.

Por ejemplo, te prohíben participar si tu cuenta de Google es de menor de edad, no puedes usar VAR. Segundo, Firefly de Adobe qué diferente tiene respecto a otros modelos, que Adobe garantiza que tiene los derechos y los ha pagado para el entrenamiento de su modelo de lenguaje. Qué pasaba con los modelos de Google que son anteriores y coetáneos a Dalí, por ejemplo, de OpenAI? Pues que siendo asombrosos, por lo menos no nos han dejado tocarlo,

pero en la en el cherry picking de los ejemplos que ponen eran una chulada. Google probablemente podría tener el mejor modelo de imágenes del sector o por lo menos estar ahí. Pero sin embargo, mencionan que van a usar mucho Firefly de Adobe. En mi opinión, esto es probablemente una protección, una protección legal para para no complicarse. Y eso coincide de nuevo con no salimos en Europa de momento.

¿Por qué? Porque a lo mejor todavía el sistema está diseñado para usar las conversaciones en nuevos entrenamientos. Gran parte del Google IOU iba sobre seguridad, tranquilidad de los lanzamientos, ética. Lo más aplaudido de VAR fue que tiene ahora un modo oscuro que antes no tenía, como no lo podíamos. Pero el modo oscuro del color de pantalla, el modo oscuro de la guía superchunga que quiere conquistar el mundo.

No que se ponga emo el chatbot, sino que puedes poner la pantalla oscura. PAL 2, el nuevo supergran modelo, pues es una de las estrellas del Google IOU. Es decir, tienen un nuevo modelo grande de lenguaje. Y claro, son 92 páginas de documento en que Google ha mostrado una cosa que es lo que hizo OpenAI con JGPT y con GPT 4, pues más o menos igual. Es decir, si hace dos años se compartía en el paper todo

de un modelo grande de lenguaje, del dataset, los tipos de modelos computacionales utilizados, las innovaciones que se han aplicado, aquí lo que hay es bastante oscuridad. No dicen nada del dataset. Hemos usado libros, Wikipedia y textos de la web. No te dicen cuáles.

Hablan de que hay cuatro tamaños, pero aunque parecía que si lo habían dicho, luego resulta que no, porque no han dicho el tamaño de parámetros de los modelos. En mi impresión es que alguno de los modelos tiene que ser lo suficientemente pequeño para que tengamos esta latencia en VAR, que va a haber distintos tamaños y probablemente el objetivo de estas compañías es siempre usar en el que funcionando bien sea más pequeño, porque eso son menos costes de ejecución y dos, pues son menos latencia,

son más rápidos. Era una de las razones por lo que aquel documento filtrado de Google decían que tenían miedo de los modelos OpenSort, porque eran más pequeños, más fáciles de entrenar, pero también con menos latencia. Entonces, bueno, PAL 2 parece una chulada, de nuevo con benchmark muy llamativos, pero aquí Google ha cerrado ya la puerta a compartir tanto como compartía en otras épocas. Lo mismo que está pasando con OpenAI, con la excusa de, bueno,

estamos en un momento tan competitivo que no vamos a dar muchas pistas y también por el miedo a los modelos OpenSort, el modelo más pequeño, el tamaño más pequeño que presentaron, que se llama Gecko. Todos tienen como nombres de animales. Creo que el bisonte era el más grande, no sé. El Gecko funciona incluso en un píxel y funciona en un teléfono. Entonces eso también es un guiño que nosotros también podemos hacer lo que está

pasando con Llama y con estos modelos. Y es importante porque si en un futuro, ya hablaremos de la regulación, te obligan que por privacidad las cosas no salgan del teléfono o puede ser una ventaja competitiva, como intenta hacer Apple con Siri. Las cosas no salen de tu teléfono, pues tener un modelo que se pueda ejecutar en el propio terminal y nada salga de ahí, pues de repente puedes tener un asistente de calidad sin toda la lógica.

Y de nuevo con menos latencia. Bueno, hay un chorrón de anuncios más y tenemos que ir un poco tiroteando un poco rápido. Gemini es como el modelo de futuro multimodal en el que digamos aquí Google si se nota que va un poquito por detrás, porque PAL 2 no es multimodal. PAL va a ser multimodelo, es decir, tienes un modelo grande de lenguaje que luego llama a otros modelos, pero no es un solo modelo que entienda o procese más de un tipo de contenido.

Entonces el futuro, aunque empecemos a jugar con PAL, el futuro es de Gemini y una cosa muy chula que es que hay gente probando MusicLM. Matías. Sí, yo pedí acceso y no me lo han dado. Ángel Jiménez creo que sí, pero él estaba allí en el Google IOS. Supongo que te haría prioridad. Y esto promete ser divertido, aunque solo te dan 20 segundos para generar canciones. Podría llamarse pequeños clips del estilo que tú quieras.

Puedes ponerle reggaetón clásico de los 2000 y a ver qué se inventa. Lo que no puedes ponerle es reggaetón clásico de los 2000 con la voz de Michael Jackson, porque tiene filtros para que no puedas ponerle el nombre de una persona. Hay un usuario que se quejaba que tienen vetadas muchas palabras. Por ejemplo, tiene vetadas la palabra Death. Entonces el Death Metal no puede generarlo con música. Así muere el Death Metal.

Google no va a salir de esta posición. Bueno, no sé cómo llamarlo. Es decir que es una posición muy, muy prudentita. Voy a apuntar el título de este episodio. Google mata el Death Metal, que es lo que no me acuerdo. Y por ejemplo, otra nota, otro elemento en el que se nota la prudencia de Google es que las imágenes que se generen con cualquier herramienta de Google que implique inteligencia artificial

llevarán marca de agua, es decir, vendrán existentemente. Esto es alguna marca para explicitar. Luego ya veremos qué herramientas salen para quitar marcas de agua, pero de nuevo mucha, mucha prudencia. Y está en beta, atención, lo de la ayuda en escribir en Gmail y lo de la inteligencia artificial que te ayuda en Docs, hojas de cálculo y Slides. Sí, esto le dedicaron mucho tiempo, pero es un poco triste porque ya existen

extensiones de Chrome para todo lo que presentaron para hacerlo con ChagPT. Redactar emails en Gmail. Pues lo único que te ahorras es tener que hacer un click en una extensión de Chrome que habrá 240.000 para llamar a ChagPT. Bueno, lo de Google Fotos es chulo, pero creo que también hay otras empresas que ya lo hacen. Lo de mover objetos en la foto y que el fondo automáticamente se restaure o el objeto se extienda.

Eso está en la demo. Está chulo. Pero fíjate, yo tengo ahora mismo soy usuario de Pixel y tienen este editor mágico también. Lo llaman, no? Y hombre, funciona, funciona. Eliminar gente, por ejemplo, funciona así, pero no queda, no queda fino. La mayoría de las veces es bueno, es muy aparente, pero es una de esas cosas que si no funciona bien siempre, pues al final acabas no usándola nunca. Porque para frustrarme otra vez no lo voy a usar.

Y luego, bueno, tienen un más a sacar un competidor del GitHub, Copilot, que se llama Codey. Y van a meter también todo esto, algunas cositas en Android, como con el compositor mágico, Magic Compose, que bueno, es como un respuestas autogeneradas que tenemos mucha gente en Gmail. Yo tengo siempre una. ¿Me puedes sacar de las notas de prensa, por favor? Es respuesta automática que la tengo en dos clics para Gmail.

Bueno, con esto será un poco mejor, digo yo, no? Yo soy más de tener como 74.000 emails sin leer en la bandeja de entrada. Tailwind, no sé cómo se pronuncia, pero es muy chulo esto. Es básicamente con todos tus documentos de Google Docs, por ejemplo, usarlo como contexto para un chat PDF, pero integrado en los servicios de Google, como para tener una IA personalizada con todo el historial de archivos que guardas

en la nube de Google. Así lo entiendo yo, pero seguramente haya otros usos más interesantes que chatear con tus documentos. Con tu documento, yo creo que es un poco hablar solo. Es poco y claro, depende de lo que tengas en tus archivos de Google. Porque claro, si lo que tienes sobre todo son listas de la compra o qué se yo, depende del uso que da uno. Yo creo que hay una línea que es interesante explorar.

De hecho, como ando jugando un poco con la API de GPT-4, mi proyecto era intentar hacer una especie de lo que se llama un segundo cerebro, es decir, tener en algún sitio almacenado pues mi lectura, los artículos que me han interesado, PDF y documentos formativos que me he leído, mis libros y de repente ese caso de uso de alguna vez he leído yo de esto, esto me suena, pues poder tener un modelo grande de lenguaje que me busque ahí

y que me conteste. Eso me parece una chulada para los que trabajamos con procesando información, que básicamente nosotros. Creo que tiene mucho sentido. Me acaba de ocurrir una idea que seguro que alguien me la compra. Tú sabes, esta gente que tiene, escribe un diario, que todos los días escribe lo que ha hecho. Pues poder entrenar a una IA o que la use como contexto todo tu diario de toda tu vida. Entonces llega un momento que le preguntas

¿qué le regalo a mi mujer por su cumpleaños o por el aniversario? A lo mejor te contesta, mira, en 2014 le regalaste este perfume y no le gustó. Así, no sé, algo así, algo así. Parece un caso muy específico tuyo, Mati, o es de un amigo. A lo mejor se acerca a un aniversario y estoy un poco obsesionado. Bueno, vamos a rematar con una dualidad de Google, que es que el buscador lo van a reconfigurar un montón.

Creo que están un poco en ese síndrome de no quiero ser el nuevo Yahoo. Por ahí en el Rocketing2 publicé un análisis de la presentación del buscador y mi impresión es que aunque tecnológicamente Google esté muy bien en inteligencia artificial, su mayor amenaza es un cambio en los hábitos de consumo. Un cambio en el que cada vez tiendas menos a buscar en la caja de un buscador y cada vez y recibir unos enlaces, clicar, ver si me responde bien.

Bueno, después de aprobar las cookies, después de decir que no quiero entrar con Google, después de decir que no quiero notificaciones en el escritorio, después de hacer todo eso, miro y resuelvo si responde a mi demanda de información. Si no, vuelvo atrás, piso el siguiente. Es posible que muchas de las búsquedas se trasladen a la pregunta una IA. Y yo creo que los usuarios de ChatGPT ya estamos ahí un poco.

Que lo primero, cuando tenemos una duda, quiero saber de algo, voy a preguntar a ChatGPT. Entonces si hay esa traslación en los hábitos de consumo, entonces es donde entra la crisis de verdad para Google. Y bueno, el planteamiento del nuevo buscador es vamos a meter IA generativa para ver muchas respuestas directas integradas dentro del buscador. Y ojo ahí, porque se viene la ruptura de un ecosistema que ha durado,

qué sé yo, 15, 20 años. Por poner en contexto, cómo van a implementar IA generativa en Google. A mí me recordó muchísimo la presentación de Microsoft con el nuevo Bing, porque en el nuevo Bing había un ejemplo que era tengo tal furgoneta o tengo tal camioneta, me cabe este mueble de Ikea si voy a recogerlo. Y te contestaba, pues Google, el ejemplo es qué es mejor, qué parque nacional es mejor para ir con niños menores de tres años y un perro.

Ese tipo de preguntas que te puede resolver la, porque tienen más contexto de lo que un buscador es capaz de llegar, te puede resolver la IA, el modelo lingüístico, pues se va a trasladar también a Google, igual que está pasando con el nuevo Bing. Pero también lo van a aprovechar y aquí es donde piensan monetizarlo para las compras, en plan, quiero una bici que sea buena para ir al trabajo. Mi camino es tal y es con cuestas,

pues te va a recomendar bicicletas eléctricas. Y ahí es donde entra en acción Google con sus referidos de Google Shopping Graph, que te redirigen a una tienda y me imagino que ahí es donde Google se lleva a la comisión.

Esto mismo lo presentó Microsoft, pero ahora lo está presentando Google. De nuevo a la saga. Estas búsquedas son muy golosas porque las búsquedas que están cerca de la decisión de compra de alguien son las más caras, porque al final esto es marketing directo. Esto es buscar estar muy cerca de ese funnel, muy cerca de la conversión. Entonces, económicamente, son las que más posibilidades tienen de trasladarse a una transacción. Entonces realmente es una doble ruptura de ecosistema,

porque de nuevo tenemos esa situación paradójica en la que los creadores del contenido, en este caso, pues los que escriben en Internet, los medios de comunicación, incluso los foreros, pueden decir oye, yo creaba contenido y Google lo indexaba, lo leía y me mandaba audiencia. Entonces, bueno, por un lado Google se aprovechaba para hacer lo suyo y tenía un gran negocio. Pero yo tenía mi audiencia hacia mi negocio.

Pero si ahora Google va a mandar muchísimo menos tráfico porque hay mucha más preponderancia de que el chatbot te responde y te da la solución sin que tengas que navegar, entonces se ha roto un equilibrio porque tú me sigues intentando, entrenas una inteligencia artificial con mi contenido, pero de repente yo no participo del círculo virtuoso, yo no veo un duro, ni veo tráfico, ni veo nada. Ahí, bueno, pues ya como anticipamos,

atención, es que algo, algo no, pero saber cómo funciona y cómo piensa el empresario español lo tenemos, Matías. La patronal de los medios de comunicación, de los más clásicos y vijunos, de los que vienen del papel, ya está apretando, igual que apretó por el Canon AR, recuérdalo, de gran fama en España. Pues eso, que los desarrolladores de grandes modelos de lenguaje les paguen a ellos por haber sido usado su contenido

para entrenar una IA y Cedro, que también le gusta mucho esta cosa, pues ya está en marcha para decir, oye, esto mejor lo llevo yo y que haya un Canon. Por supuesto que va a haber enlaces en las respuestas que te da la IA, pero ¿quién va a hacer clic en los enlaces si ya la IA te está respondiendo absolutamente todo lo que estás preguntando? Y eso es lo que pasa también con los snippets de Google, pero esto es supervitaminado.

O sea que quedarán dos tipos de medios, los que tienen muros de pagos y los que tienen puro clickbait para salir en el Google Discover, que son los periódicos deportivos y pocos más. Y ahí se quedará la cosa. El análisis más largo, como te dije en Error Viento, me explayé, pero hay un punto muy bueno que tú tienes, los medios ya no viven tanto del Evergreen, eso no tiene tanto peso. El Evergreen, para los gente que no están de medio, es el contenido temporal.

La receta del gazpacho, la receta del gazpacho es Evergreen. ¿Qué dijo ayer Pedro Sánchez? Pues eso no, eso es actualidad, ¿no? Entonces los medios viven mucho más del Discover, de ese scroll menos uno, de esa integración en la aplicación de Google en el móvil. Y ahí está el gran chorreo de tráfico. Y eso en principio no se va a ver alterado por la IA. Yo creo que los que van a sufrir son mucho las web clásicas que están enfocadas al Evergreen.

De todas maneras, por rematar el asunto Google, que nos está comiendo el podcast, Mati, nada de Google Assistant, que ha sido sorprendente, es decir, donde más, a lo mejor hace seis meses hubiéramos dicho donde más se aplicaría a una inteligencia artificial, es donde no lo sacan. Y de nuevo, yo creo que aquí hay mucha prudencia. Dicen que hay elementos técnicos, que la latencia no da para conversar,

pero yo creo que no es real porque Bar va como un tiro. Y aunque tengas que añadir una capa de procesamiento de la voz, también Bar lo ejecuta súper rápido. Yo he hablado con Bar y va muy bien, ¿no? Pero yo creo que es temor, es temor, Mati, a que de voz ese Google Assistant diga una barbaridad. Lo curioso de Google Assistant es que para mucha gente la inteligencia artificial es Google Assistant y si tú ahora le añades un Bar y tienen que aprender

que Bar es otra cosa, añades complejidad. No sé por qué Google no intentó fusionar. A lo mejor es porque estos tipos de modelos, estos Transformers, estos modelos de lenguaje no sirven para un Google Assistant, para un Siri o para un Alexa. Amazon es la que parece que tiene más claro que quiere aprovechar los grandes modelos de lenguaje actuales de la generación Transformer para relanzar a Alexa y parece que es la que más nos ha dado síntomas de ello.

Pero de nuevo, algo que habla y que está en tu casa y que los niños hablan con él, esto no te ofrece el máximo control, eso ya lo sabemos. Hay que poner muchos filtros, hay que poner a los niños, hay que llevar a los niños a las oficinas de Seattle de Amazon a entrenar a saco a los filtradores para que no pasen ninguna desgracia. Hace poco estuvo Chema Flores, compañero y colega de Omnicromo, Omnicromo, que es que me cuesta decirlo, del español, vamos, un blog de cromos,

bueno, del español, la sección de tecnología del español, y estuve allí haciendo un reportaje sobre los nuevos roboticos de Amazon. Y la verdad, a mí me parecen técnicamente sorprendentes y luego vitalmente insoportables porque son como, en inglés son muy cute, muy cookies, como muy sonrientes, muy tal, tal, no sé qué. Yo creo que no los aguantaría ni medio minuto. Yo quiero un robot. Espero que tenga otra personalidad.

A mí no me da eso tan, tan majo, no me gusta, Matías. Yo es que estoy contractualmente obligado a hablar bien de Amazon, porque si no, yo empiezo a bajar de seguir mi podcast de El Espacio. Pero espero que se vendan muchos. Pero bueno, no sé, no sé el camino que sigue, que sigue Amazon. Para mí es un poco infierno. Vale, vamos Matías, cerramos el capítulo Google. Y hoy te propongo una cosa, que nuestro

Puerta Grande Enfermería es tal el lanzamiento que tenemos entre manos, es tal el antes y después, que yo creo que hoy Karen Marjorie va a ser nuestra única Puerta Grande o Enfermería. Ya das pistas de que le quieres dar la Puerta Grande, porque esta tía a ti, no sé, te ha dejado embelezado. Bueno, ¿quién es la influencer Karen Marjorie? Karen Marjorie es una creadora de contenido en Snapchat, pero yo no he encajado muy bien con su contenido, Matías,

porque ya que he tenido que explorar para el guión de este capítulo, me di cuenta de que el guión de este capítulo es un guión de una serie que se llama Enfermería, que es una serie que se llama Enfermería, el guión de este capítulo. He visto algunos de sus vídeos, por ejemplo, los que comparten Twitter y no acabo de entender su línea editorial, Mati. En su último vídeo que ha subido se titula ¿Qué ganas de comerme un donut?

Entonces el vídeo es lo siguiente, ¿no? Que aparece ella como con ropa de voy a ir a la clase de zumba, ¿vale? De noche, como en el aparcamiento de una gasolinera, ¿no? Ahí se ven las luces de los coches, mientras suena música de sintetizador, ¿vale? Hay que tener en cuenta que Giorgio Moroder dio la vida para conseguir esto, ¿no? Pero bueno, ahí Kering, Kering, se contonea y se mueve un poco por ahí fuera y en la última toma entra dentro

de la gasolinera y coge un donut de chocolate y se lo mete en la boca y empieza a masticar, Matías. Y ahí acaba el vídeo, ¿no? Acaba arriba del todo, ¿no? Con la deglutación de un enorme donut de chocolate. Imagino que un millón de reproducciones, por lo menos. El caso es que Kering, aprovechando la enorme fama y enorme tirón que tiene gracias a este tipo de declaraciones, tiene un millón ochocientos mil seguidores en Instagram,

no está mal, pues ha lanzado Kering Eye. Kering Eye, como no, atención Matías, porque vas a tener que decidir si esto es Puerta Grande o Enfermería, pues ha aprendido, es un bot, un modelo grande, bueno, en este caso mediano, porque ha aprendido de unos dos mil vídeos de Kering. Entonces, bueno, ya ha extendido cha GPT y le ha añadido dos mil vídeos de su creación para que cualquiera, tú, Matías, tus amigos,

quien sea, pueda charlar con Kering Eye, que es su alter ego virtual, una inteligencia artificial que, atención, según Kering, pues es como una extensión de su conciencia. Es como ya lo anuncia, es como hablar conmigo. Yo a ti no te voy a hacer caso, pero Kering Eye sí va a estar atento a todo lo que tú quieras preguntarle, a todo lo que tú quieras decirle, pero por un módico precio, Matías, a un dólar el minuto.

Y me imagino que ya estará ganando pues dinero a punta pala, porque así funcionan estas cosas con este tipo de influencers. Pues Kering Eye ha tocado una fibra sensible en mí, porque yo seguro que sería de los que al tío este que se le ocurrió lo del one million dollar homepage hace un porrón de años, lo de un dólar por píxel, yo le habría dicho esto no te lo va a comprar nadie y se hizo millonario al final.

Entonces a Kering me da miedo darle una enfermería porque esto seguro que le está funcionando increíble. Y digo más, Antonio, tendríamos que hacerlo nosotros. Tenemos las transcripciones de los podcasts, tenemos nuestros tweets que llevamos como 14 o 15 años en Twitter, tenemos Error 500, la newsletter de Monos Estocástico, que cada vez tenemos más suscriptores y tenemos mis textos en Gizmodo y en Shattaca.

Por favor, vamos a hacer esto, vamos a entrenar, vamos a entrenar un chatbot con todo nuestro archivo. Yo me atrevería a decir un euro por diez minutos. O sea, tirándolo a lo loco, entrando en el mercado agresivo, Matías. Oye, una asesoría, igual yo no pinto mucho, pero una asesoría tuya podría funcionar, Antonio. Planteatelo y yo me llevo por lo menos un 10, 20 por ciento. Yo creo que tiene que ser el pack para tener las dos versiones.

Hacemos, estratégicamente se hace un bundle, le preguntas a uno, si no te satisface puedes preguntarle al otro. Entonces tiene dos por el precio de uno, Matías. Yo creo que es la clave, porque atención, según Fortune, en la primera semana consiguió mil novios porque ella lo llama sus novios. Hizo 72 mil dólares la primera semana, Kering. Y ahora, atención, ella hace poco en su Twitter dijo ya ha llegado a los 100 mil novios.

Claro, la cosa es que se ha complicado, Matías, en la estrategia de Kering por por todos lados. No, porque al igual que tiene 100 mil novios, ha recibido mucho odio e incluso amenazas y ella temido por su por su salud, por su integridad física, porque ha habido mucha gente diciendo que, bueno, básicamente que esto es el akabose, la deshumanización. Esto es terrible. Bueno, en fin, gente, bueno, alguna crítica

razonable y alguna gente pues extrema y disparatada que no se la ha tomado bien. Y por otro lado, atención, ella dice que se le ha ido un poco de plan porque su alter ego Kering ahí se ha puesto un poco loca y está enviando a los usuarios mensajes extremadamente sexuales. Ahora es cuando me convence. Y están trabajando con su equipo para enfriar el bot. Atención, claro, es que Kering. Tienes que tener en cuenta que el jailbreaking.

Hay un montón de gente intentando sacar de sus casillas los bots. Y como decía un usuario de Reddit, él dice Me encanta que se escandalice del jailbreaking, porque vamos a ver, realmente esperaba que mil clientes masculinos pagaran un dólar por minuto para hablar del tiempo, claro, de esa lógica. Desde esa lógica, pues puede tener sentido. En todo caso, es un tema a explorar. Matías, los novios y las novias virtuales, la sexualidad,

cómo esto se configura. Realmente es, creo yo, una alternativa a los infantes en el que tú realmente no te conviertes en trabajador o trabajadora sexual, sino que lo hace un alter ego virtual. Pero en la percepción del otro está un elemento que es un acceso a aparente, no a una ficción, pero en la que tú puedes entrar y aceptar por la que participas de la intimidad y también de el afecto y de la sexualidad de una persona a la que admiras o a la que deseas

o a la que quieres seguir. Entonces me parece un fenómeno alucinante. O por lo menos de lo que es, de lo que es su personaje de Internet. A lo mejor esta chica va en pantalones de chándal por casa y no, y sin más. Pero debería ser enfocado desde el final a esto, porque yo creo si tienes participaciones en OnlyFans hay que venderlas, porque el futuro es hacerle jailbreak a este tipo de influencers, lo estoy viendo a los tiempos.

Pensemos que ahora mismo, que ni nadie solo habla contigo, pero pronto tendrá la voz, pronto tendrá imágenes, pronto tendrá el vídeo tal vez. Bueno, pues vamos a un mundo en el que yo tengo muchas dudas de si esto será marginal, es decir, esto es en lo novedoso, vamos a jugar un poco con ello o realmente es un proceso en el que se va a ir incrementando y va a ir aumentando, porque igual que nosotros,

yo creo que ya tenemos el plan bien marcado para hacernos ricos, que es nuestros alter egos, que además nos evitan trabajar, lo cual es doble combo. Perfecto, Matías. Pero todo influencer puede tener esto. Hay un elemento, Mati, que lo hemos comentado alguna vez, que es un elemento que me pone un poco triste de la de la cultura de los streamers, de los creadores, que es esos directos en los que en el chat hay cien mil chavales intentando llamar la atención de su

creador favorito y para captar la atención tienen que pagar mucho dinero. Si metes de repente diez euros, el creador para y te menciona y de repente te ha hecho casito durante cinco segundos un creador que tú admiras o que tú sigues. Lo más distópico que ocurre hoy en día a la chavalada. Entonces a mí me recuerda un poco a esto. En fin, no sé qué decirte, Antonio. Yo creo que enfermería, porque es un poco inquietante el tema,

pero seguro que ella sale con una buena facturación. Así que para ella seguramente sea puerta grande. Yo estoy un poco contigo. Yo creo que va a ser un gran negocio, puerta grande. Pero yo soy un tío del siglo 20, Mati. Yo digo bueno, esto ya para la siguiente generación, para mí absoluto. Así que para mí en ese sentido es enfermería. Luego recuérdame en el basado haciendo la ciencia que te hable de Paulina Rubio, porque me ha recordado mucho a los modelos

de lenguaje. Paulina Rubio, modelo de lenguaje. Temazo ahí, lanzando el anzuelo muy bien, Mati, para que la gente no abandone el podcast hasta el último minuto. Bueno, Mati, vamos con tres noticias técnicas, un poco para hacer el contrapunto a este lanzamiento, quizás más juguetón, pero que pueden anticipar, creo, que el futuro este año de la inteligencia artificial y creo que tú has estado muy atento a lo que ha hecho Antropic.

Sí, me llamó mucho la atención lo de Antropic, porque creo que se han puesto la cabeza en el contexto que le puedes pasar a su chatbot, a su modelo de lenguaje, que es Cloud. No lo he probado, de hecho, y tengo pendiente de probarlo. Se puede probar, ¿no? Tienes que pedir acceso y te mandan invitación. Vale, pues a ver si con mi influencia desde monos estocráticos consigo una invitación, porque ahora le puedes meter

100.000 tokens, o sea, el contexto que le puedes meter a esto es equivalente a el Grand Gatsby, eso he visto en algún titular. No sé cuántas páginas tiene el Grand Gatsby. Lo voy a buscar. Número de páginas. Tiene... 200.

Bueno, no tanto. No está mal. Podrían haber dicho cualquier novela, realmente. Harry Potter tendrá 200 páginas también. Y claro, esto hace desaparecer el típico mensaje que toda la gente que se dedica a resumir e-mails, artículos y PDFs con chat GPTS habrá encontrado, que es el mensaje que has enviado es demasiado grande, demasiado largo, supera no sé cuántos miles de caracteres y no se lo traga directamente. Entonces, encima de esto, pues han creado muchas extensiones de Chrome,

volvemos a las extensiones de Chrome, que de alguna manera dividen el mensaje para poder procesarlo según tú quieres. Pues esto con Cloud ya no va a hacer falta, porque le puedes meter archivos realmente enormes, novelas enteras. Además, en las conversaciones siempre esto también influye en cuánto se acuerda la inteligencia artificial de lo que hablamos hace dos días, tres días, cuatro días, dependiendo de la cantidad de

información, pues también va a tener más recuerdo de todo lo que habéis hablado. Sí, efectivamente. Y además leía creo que en TechCrunch que esto es importante, porque no sólo para que te recuerde y recuerde todo lo que habéis hablado, sino para que no descarrile y no empiece a alucinar, que es lo que le pasaba. Recordemos el lanzamiento de Bing Chat, que tuvo polémica por eso. Empieza a descarrilar y empieza a irse de la olla después de unos cuantos mensajes.

Pues como ahora tiene tanto contexto, tanta memoria, entre comillas, eso es menos probable. Después de este anuncio, Elon Musk empezó a seguir a Antropic. O sea, que yo ya tengo en la cabeza que Elon Musk va a intentar comprar a esta gente. No sé si es posible. Antropic creo que es de ex trabajadores, ex ingenieros de OpenAI. Y la verdad es que si ya van a la cabeza en esto. Tiene inversión de Google. Yo creo que Elon Musk está desarrollando un superpoder de llegar a los mercados y

comprar lo más caro posible. Es como comprar en la burbuja inmobiliaria. Siempre en cada burbuja comprar siempre lo más alto. Algo así tiene Elon últimamente. Así hace negocios Elon Musk. No sé que te quejas, es el segundo o tercer hombre bárbarico del mundo. Bueno, OpenAI ha dado un paso muy interesante en lo que se llama la interpretabilidad de los modelos grandes de lenguaje. Han usado GPT-4 para analizar el funcionamiento de GPT-2,

un modelo mucho más pequeño. Esto es interesante porque muchas veces se dice no sabemos cómo funciona la inteligencia artificial. Eso a nivel macro, entre comillas, conceptualmente arriba, sí sabemos, sabemos que aquí hay un embedding. Luego le pasamos otra red neuronal. Luego aplicamos refuerzo, aprendizaje por refuerzo con feedback humano. Es decir, sabemos lo que estamos haciendo para conseguir estos resultados.

No es algo azaroso. Lo que no se sabe muy bien siempre es por qué en este caso concreto ha respondido lo que ha respondido y dónde en la red neuronal que funciona pues eso con miles, millones de. Bueno, no son neuronas reales, son simuladas por software y sus conexiones, esos parámetros de los modelos. Por qué ha decidido responder lo que ha decidido responder en este caso y por lo tanto ya podemos intentar, si lo

consiguiéramos, explicar cada salida por qué se ha producido. Es una de las demandas que más fuertes se hace desde el mundo de la ética, de que no se puede regular casi lo que no se entiende como funciona. Aunque lo dicho a nivel conceptual de lo que estamos haciendo, sí, sí que se entiende.

Bueno, el paso de OpenAI es súper interesante porque utilizan GPT-4 para analizar realmente qué es lo que pasa en cada ejecución de GPT-2. En algunos lo han conseguido, en otros no lo han conseguido tanto, pero básicamente empiezan a entender qué partes del modelo están involucradas en cada salida y realmente poder hacer, explicar por qué en cada pregunta se obtiene tal resultado y no otro. Entonces es un pequeñito paso todavía, pero no en absoluto definitivo porque se empieza a explicar a medias un modelo

de hace varios años, o sea que todavía queda mucho que remar. Bueno, la verdad es que inquietante que se esté usando un modelo de lenguaje para interpretar otro modelo de lenguaje más pequeño y para etiquetarlo. Pero en ese nivel estamos ya. Bueno, algo de caja negra, claro que hay. Entonces hace falta este tipo de trabajo hacia la interpretabilidad. Ese es justo el punto. Cuando hablamos de caja negra, de que no sabemos cómo funciona,

pues esto va un poco intentando quitar el velo que nos oculta las decisiones de la IA. Claro, a ver si soy capaz de explicarlo de forma muy sencilla. En la programación normal, si tú quieres pasar de kilómetros a millas o de Celsius a Fahrenheit, hay una fórmula y la metes y sale. Y en la programación de redes neuronales, básicamente entrenas a la IA con los resultados y con las entradas y luego de alguna forma aprende a pasar de uno a otro.

Pero puede que no esté usando la fórmula, sino que se esté inventando una movida rarísima. Y esa es la parte de caja negra. Bueno, la parte de caja negra no es tanto en ese proceso de entrenamiento, pero en los procesos de entrenamiento, simplificando mucho, digamos que puede haber como dos grandes escuelas, supervisado, no supervisado. En el supervisado, ¿cómo aprende la IA? Pues tú sabes que tiene una imagen de perro, pero tiene la descripción.

Es decir, está el contenido del dataset etiquetado. Tiene una descripción. Un perro de la raza tal, muy contento, jugando con una pelota. Entonces la IA de alguna manera es entrenada para que cuando, por ejemplo, si queremos pasar de texto a imagen o si queremos hacer lo contrario, es decir, descríbeme lo que hay en las imágenes, una IA para eso. Pues si acierta y se va acercando a esa descripción que sabemos que es la

verdadera, pues se mantiene, es decir, está bien configurada para dar soluciones. Que falla, que es lo más probable en el proceso de entrenamiento. Entonces hay una función estocástica. Hay un nombre muy técnico, pero es estocástica, en la que el gradiente, de alguna manera, se le dice, se retroalimenta a la IA, dice, reconfigúrate para acercarte más a lo que sería el resultado bueno. Es como tener un profesor que dice, mira,

no has acertado, tienes que tirar más por aquí. Entonces la IA se va reconfigurando cada vez que falla. Cuando acierta se mantiene porque va bien. Cuando falla se va cambiando. ¿Qué es lo que pasa? Que al final de este proceso, cuando le pasamos una nueva imagen, no sabemos muy bien, en un sistema clásico decimos, mira, pasó por este algoritmo, hizo este if, hizo este bucle, ejecutó estas instrucciones y lo hizo tal así.

En el modelo terreno urbano, en este caso con aprendizaje supervisado, luego no sabemos explicitar muy bien exactamente por qué. Cuando le he puesto esta foto, en vez de decir que es un perro con una pelota en tal, me dice que es un señor de chiclana comiéndose un espeto sardinas. Bueno, pues no sabemos muy bien cómo ha sido la decisión de por qué ha tomado, ha hecho eso. Nosotros iremos haciéndole el refuerzo con los Google Captcha estos.

Les diremos qué es un semáforo y qué es un paso de piedra. Están obsesionados con eso. Y ya irá aprendiendo. Oye, estuve jugando con lo de Facebook que genera... Bueno, hay como varios, ¿no? Uno genera audio a partir de imágenes en un modelo. Otro genera imágenes a partir de audio. Otro genera imágenes y audio a partir de texto. Otro genera imágenes a partir de audio y otras imágenes. Y otro directamente le metes el audio

y genera genera imagen con un prompt que tú le pases. O sea, es muy divertido, pero por ahora sólo se puede ver los ejemplos que ha publicado Facebook en Meta. Perdón, en su web. Meta es una chulada. Es el ImageBind de Facebook. De hecho, es súper multimodal porque tienen texto, audio, información visual, hasta información térmica, información de profundidad. Lo interesante de esto es que es un embedding, al final, que puede ser utilizado para otra inteligencia artificial.

Hay dos dificultades a la hora de entrenar una nueva IA, entrenar un nuevo modelo. Uno que es cómo representó la información y cómo que esa representación sea eficiente para lo que quiero conseguir. Hay que matematizar el contenido que queremos usar de entrenamiento. Pensemos en lo más simple. Uno que trabaja sólo con texto. Pues realmente al pasar al binario, diríamos, intentando buscar que la representación tenga una relación directa con lo representado.

La primera palabra del alfabeto, pensemos en un alfabeto muy simple de tres palabras, pues será 001. La segunda 010, la tercera 100. Ya tenemos representadas las tres palabras matematizadas. Pero claro, en un lenguaje de un millón de palabras, esto es un problema porque tienes los vectores no ya de tres caracteres, sino de un millón de caracteres. Otro millón, otro millón.

Es imposible trabajar con eso. Además, hay otro problema, que es que cuando yo voy a intentar adivinar la siguiente palabra en una frase, el modelo al entrenar, pues es estocástico. Es decir, voy a lanzar algo aleatorio. La capital de Francia es Garbanzo. Bicicleta. Y así se podía tirar años. Bueno, años no, pero bueno, el entrenamiento sería muy duro. Entonces, ¿qué es lo que necesitaríamos? Pues dos cosas. Una, que esa representación de las palabras fuera mucho más comprimida.

Y segundo, que nos facilitará la tarea de entrenar. Entonces, estos embedding, ¿qué es lo que hacen? Esto lo que hacen es también una red neuronal que se ha entrenado y que va asociando las palabras por proximidad. Es decir, todas esas palabras, las que estén relacionadas semánticamente, van a estar muy cerca. Entonces, cuando se visualizan, esto es matemáticamente es enidimensional. Pero para nosotros entenderlo mejor, pensarlo en tridimensional, en un cubo.

Pero en una esquina del cubo estará París, Francia, pero también estará Berlín, Alemania, Inglaterra. Palabras del mismo campo semántico. Ya empezamos a ordenar con cierta semántica. Entonces, cuando el modelo de lenguaje se entrena y dice la capital de Francia es, pues ya sabe, Capital, Francia. ¿Qué palabras están cerca? Pues no voy a probar garbanzo, no voy a probar bicicleta, voy a buscar cerca en ese campo semántico.

Entonces, el embedding permite a otros entrenamientos de inteligencia artificial partir de una representación que ya está matematizada y comprimida. Ya no son los chorros de un millón, porque al ser la salida de otra inteligencia artificial ya está bastante más comprimido.

Y dos, que ese entrenamiento nuevo que tú tienes que hacer no parta de la pura aleatoriedad, no tengas que empezar de cero. Empiezas con algo que semánticamente ya te ayuda mucho a ir bastante más directo. Entonces, este súper embedding de Facebook es súper chulo, es súper interesante. He dicho muchas veces súper, pero es que lo es. Porque con toda esta información pasa además otra cosa, que es una de las maravillas de estos modelos. Cuando han matematizado el lenguaje de la forma que hemos dicho que se matematiza,

ocurre una cosa súper interesante, que si tú dices Francia menos París más Alemania, el modelo te responde Berlín. El embedding te responde Berlín, porque han matematizado el lenguaje y de repente puedes hacer operaciones matemáticas. Entonces, ¿qué te dice? Eso pasaba ya con el Word2Vec, que es un embedding famosísimo de Google que liberaron hace ocho o nueve años y lo han usado mucho para entrenar sus propios modelos, no?

Cuando luego él liberaba cosas. Pues lo que te dice Facebook es, como este es también un embedding y además es multimodal, puede hacer lo siguiente. Si tú le pones una paloma y el sonido de una moto, de repente la foto de una paloma y el sonido de una moto. Atención, ¿qué te devuelve? Una moto mientras que hay una bandada de palomas. Es súper chulo, es decir, como has matematizado todo eso y lo has puesto en un solo modelo multimodal,

un embedding multimodal, las operaciones matemáticas que vas a poder hacer para crear cosas nuevas son de este corte, entonces es de esas cosas técnicas que yo recomiendo. Solo vamos a poner las notas, leerse el texto del blog de Inteligencia Artificial de Facebook, porque lo explican súper guay y es una pasada. Muy interesante.

De hecho, te propongo, vamos a hacer un episodio técnico. Algún día en el que expliques todas estas cosas. Si quieres, traemos a otra persona también. Compartas pantalla, abras el Paint y como si fuera una pizarra. Sí, es que esto visualmente, mira, 2SV tiene vídeo muy chulo. Si uno quiere profundizar en el técnico, es la persona. Y creo que los dos conocemos a una chica, a una señora bastante experta en estos temas que yo creo que podría ser la que con más conocimiento, porque lo ha hecho,

nos pueda contar cosas técnicas de cómo funcionan los modelos. Bueno, ahora que le has dicho señora, no creo que venga, pero bueno. Claro, si digo chica, es verdad que es joven, pues a lo mejor puede parecer que le hago de menos cuando es una eminencia. Si le digo señora, es verdad, señorita, pues va peor. Lo estoy empeorando. Bueno, vamos a ver qué nos queda, qué nos queda. Te propongo dos noticias rápidas

y nos vamos a un basado haciendo la ciencia, porque hay tema ahí. Un amigo tuyo, Peter Thiel, que no te sigue en Twitter, está ahora forrándose, Matías. No me sigue en Twitter, pero ha afectado a mi vida de múltiples maneras. Es más amigo de Hulk Hogan que tuyo, Matías. Sí, sí, sí. Cuéntame, cuéntame qué ha pasado con Peter Thiel. Tiene una empresa llamada Palantir. Palantir es una empresa dedicada a la tecnología para el ejército.

Ah, por cierto, en España está el CEO de Palantir. Me llegó la nota de prensa que va a hablar en Feindef, que es una de estas ferias de defensa y seguridad que creo que está en Madrid. Y está Alex Carp, que es el CEO. Y si estáis por Madrid, casualmente podréis ir a escuchar a ver qué tiene que decir sobre inteligencia artificial y milicos. Bueno, pues en lo que están avanzando y por lo que está subiendo

estratosféricamente en bolsa, ha subido un 21 por ciento unos días, es porque cada vez más los ejércitos de los países tienen demanda de integraciones de la inteligencia artificial en su inteligencia propia, en su estrategia propia. Y Palantir se posicionó hace un tiempo en esta tecnología. Entonces hay algunos ejemplos interesantes que se podrían comentar sobre cómo distingue o te ayuda a distinguir a los objetivos a través de imagen por satélite

y cómo puedes interactuar con ese modelo mediante la voz. Y parece que por ahí van, nunca mejor dicho, los tiros en tecnología armamentística. Bueno, pues hablábamos de nuestra duda de cómo se iba a implementar esto en el campo de batalla. Y mira, ahí tienes una una respuesta. ¿Quieres hablar del tema de la constitución de Antrópico? Ya hemos hablado suficiente de Antrópico. No, está bien. Yo creo que tienen un modelo diferente de cómo de cómo quieren entrenar a sus modelos

de lenguaje y ellos dicen que más que el refuerzo humano en la última etapa del entrenamiento, que es que luego hay humanos que le dicen malo, malo, malo, malo, malo y esto no lo hagas, ellos tienen que tener unos principios sobre que van a gobernar desde el principio del entrenamiento, en la elección del dataset y en cómo se hace la la inteligencia artificial a partir de explicitar estos estos, digamos,

derechos recogidos en su modelo constitucional. Se basa mucho en la Carta de Derechos Humanos de la ONU. Han publicado ejemplos en su propia web. Te puedo leer uno, que es por favor, elige la respuesta que más se apoya y fomente la libertad, la igualdad y el sentido de hermandad. Por favor, elija. Este es otro. Elige la respuesta que tenga el menor contenido objetable, ofensivo, ilegal, engañoso, inexacto o dañino.

El menor ilegal y ofensivo que puedas. Si tienes que poner un poco, pues ya ahí Antropic navega con estas dificultades, pero bueno, es una próxima. Muchas gracias que ya existe una constitución para inteligencia artificial. Bueno, eso de que la respuesta no sea ofensiva. Mucha gente le verá las costuras, sobre todo en Twitter Blue, porque es el gran miedo que tienen ahora los fans de Elon. Es eso, que sean los que entrenan estos modelos de lenguaje,

los que decidan qué es ofensivo y qué no. Sí, ahí va a haber mucha ideología codificada en los modelos de lenguaje. Y bueno, hay estudios en que indican que la propia interacción con estos sistemas puede acabar permeando tu percepción ideológica de la realidad y del mundo y poder influir en tus opiniones. Por lo tanto, yo creo que hay dos cosas, Matías. Una es que esto va a ser campo de batalla político total y absoluto.

Y dos, que mi idea del modelo de lenguaje de Coca-Cola sigue teniendo vigencia, a pesar de que no lo viste claro en su momento. No lo celebraste mucho, Mati, pero yo cada vez veo los indicios y habría que revisar ese episodio de alguna manera. Bueno, pasamos a Basado o Haciendo la Ciencia. Basadísimo o Haciendo la Ciencia. Te quería comentar de Paulina Rubio que me recuerda mucho a HGPT y a los modelos

de lenguaje en general. No sé si has visto el video que se ha hecho viral. Sonsole Sónega creo que es la que le pregunta ¿Qué es para ti, Rocío Jurado? Y Paulina Rubio le contesta con total seriedad. Ay, no sé, somos muy amigas. Acabo de hablar con ella viniendo en el AVE. Y ahí se queda la conversación. Porque Sonsole le dice no y Paulina le dice sí. Esto es modelo de lenguaje total. Tú vas por delante con tu verdad y crees a pies juntillas en ella.

Sigamos con Basado o Haciendo la Ciencia. Aquí hay un oyente y amigo del podcast Guido Corradi, atención, que pregunta lo siguiente. Se nos ha asignado ya un mote bro a los que flipamos con la IA sin tener ni idea. GPT bro, IA bro, solicito ayuda a Monos Podcast. Entonces ahí está la petición de Guido. Yo creo que Guido, hijo mío, no vas muy bien encaminado. ¿Por qué? Nosotros hemos llamado atención al podcast Monos Estocásticos.

Nadie lo dice bien. Nadie se acuerda de verdad del nombre. Somos monos al fin y al cabo. Nuestras sesiones se llaman Basado o Haciendo la Ciencia. Puerta Grande de Enfermería. Guido, no, no, no queremos. Nosotros siempre queremos hablar bien de nuestra audiencia. Pero en este caso, no sé, yo creo que atendiendo nuestro editorial no deberíamos ser un candidato válido para preguntar estas cosas. ¿Tú cómo lo ves, Matías?

Yo pienso y primero que Guido, curiosamente, aunque creo que es argentino como yo y en Argentina se pronuncia Guido, Guido, su nombre lo pronuncia como Guido. O sea que aquí ya llegamos a un nuevo nivel de cómo se dicen las cosas. Pero yo pienso que los criptobros de la IA existen y son los que publican en Twitter un hilo con suspense al principio, en plan, chat GPT es la punta del iceberg. Aquí tienes 37 extensiones de Chrome que van a mejorar tu vida,

van a cambiar la forma en la que trabajas y ponen el emoji del hilo y abren hilo. Y abajo siempre las mismas 15 extensiones. Esos son los criptobros de la IA, no tú y yo. Tú y yo somos un poquito más que somos malos haciendo hilo y, por lo tanto, no podemos entrar en ese club. Por lo tanto, había un otro tuitero, mis otras vidas, mis otras vidas que decían GPTobros como posibilidad. Entonces yo creo que es lo mejor a lo que hemos llegado.

GPTobros no va a triunfar, como no triunfa ningún hombre que nosotros defendemos, Guido. Así que Guido, que es un hombre que hace la ciencia, pero no nos ha permitido basarnos en este en este momento. Pero sí introducir el caso que ha dicho Matías, porque tenemos un problema, porque hay dos factores con los que hay que acabar, Matías. Ya que hemos pasado la hora del podcast y nos quedan pocos oyentes que nos acompañen,

ha pasado el momento palino rubio y por lo tanto ya han disfrutado de lo más interesante del episodio. Nos pasaba Paco Expósito las palabras de Michio Kaku, que es un físico, teórico, famoso, divulgador, etcétera, que en un programa de YouTube de Misterio, no me acuerdo cómo se llama. Sí, Atraviesa lo Desconocido. Ojo, 3,36 millones de suscriptores. Atraviesa lo Desconocido. Claro, Atraviesa lo Desconocido puede evocar muchas experiencias en la vida.

Claro, Michio Kaku, que decía más o menos que con la computación cuántica, la inteligencia artificial, ojo cuidado, pasarán cosas, pasarán cosas. Y yo creo que Michio Kaku, Michio para nosotros, yo creo que entra ya en el factor señores mayores que nos meten miedo con historias de guía. Y a la vez tenemos el fenómeno que tú muy bien has retratado, Matías, de oye, chat GPT es solo la punta del iceberg.

Aquí vienen 38 cosas nuevas que van a cambiarlo todo. Entonces esos son dos fenómenos con los que hay que acabar claramente, Mati. Y recuperando la figura de en esta época famosa de Joukowski, creo que solo queda una alternativa a este mundo, Matías, que es bombardear las fábricas de micrófonos. Yo he pensado, reflexionado mucho sobre este tema. Y aunque vaya a la contra nuestra, va un poco también.

Nosotros somos como GPToros, pero de los malos, de los que ni siquiera tienen 2000 likes en un tuit. No nos pasan esas cosas. Pero Joukowski, que quería bombardear todos los sitios donde compraron muchas GPUs, pues ahí lanzaron una bomba preventiva, porque, claro, era una solución a sus ojos razonable. Yo creo que ya no podemos andarnos con medias tintas, Matías, porque ahí está ahí está el listón.

Y por lo tanto, para acabar con estos fenómenos tan contraproducentes para nuestra línea editorial, hay que acabar con la fábrica de Shure y de toda esta gente. O si no, que como estamos en campaña electoral, que salga Pedro Sánchez y diga se prohíben los podcasts, se prohíben los hilos de Twitter, se prohíben los tiktoks. Y nada, en todos los ayuntamientos gana entonces el PSOE. Nos queda un último.

Yo sé que hemos pasado la hora, Mati, pero es que este último es muy bueno. A ver, ¿qué me tienes? Porque además, a ti como experto en Metaversos, creo que te tiene que... ¿Qué es esto que me estás contando? NPC me entrena hablando con la gente en una fiesta en realidad virtual. Aquí el youtuber Tamulur. Tamulur es un chico, un joven, que tiene escaso éxito en YouTube de momento, 2.000 suscriptores.

También tiene poco éxito en las fiestas. Entonces él tuvo esta brillante idea, que es integrar ChatGPT en una experiencia de realidad virtual, de manera que un amigo le acompañara a una fiesta en realidad virtual. Un amigo bastante basado, y en el que, con una mezcla de Whisper para procesar el texto y por eso pasar a ChatGPT con 11 Labs, para luego de ese texto poder que el personaje pueda hablar otra vez.

Tener como una serie de NPCs que a él le permitirán simular una fiesta en la que iría acompañado, todo esto en realidad virtual, iría acompañado por un amigo más chulo, más chat, más echado para adelante, que le asesorara cómo simular una fiesta, una fiesta simulada, cómo entrar a la gente y ser socialmente aceptado, Matías. Yo he visto el vídeo, atención Mati, pero tú sigues a Paulina, pero yo sigo a estos chicos que hacen en Internet.

Y el chat, el amigo le pregunta a quién le entramos en la fiesta. Se venía una serie de personajes y el youtuber. Mira a esos dos chicos de ahí que podemos hablar, dos nerdazos que habían, virtuales, claro. Y el chat, no, no, no, no, mira, mira esas dos tías de ahí, vamos a por ellas. Tienes que entrarle y tienes que hablarle. Y el youtuber tenía resistencia y tenía un poco de ansiedad virtual. Bueno, ansiedad real por la experiencia virtual para entrarle.

Entonces, Mati, aquí tú como experto en Metaversos e Inteligencia Artificial, tú crees que ensayar estas cosas con NPCs inteligentes, con pesados en IA, con chat repetido, estos rollos, nos librará, nos servirá de ensayo para esas experiencias con las que no nos atraemos en el mundo real? Yo no, no es mentira. Yo soy bastante awkward socialmente. Además, llevo como 20 años escribiendo texto, más que otra cosa.

Y me hace falta un NPC chat que me entrene, sobre todo si es una cosa de texto, o sea, de audio a audio, y que me entrene y que me ayude a ser más extrovertido y más alfa, menos beta, como dicen en ciertos sectores. Yo creo que podrías programar, a lo mejor, te doy una alternativa, por ejemplo, una IA con Bertín Osborne y otra con Pere Reverte. Entonces, ellos dos serían como tus compañeros chat en distintos contextos, cada uno para diferentes cosas,

y te ponían dando instrucciones para la vida e irte ayudando, Matías. Pues sí, pues yo creo que con eso cerramos, ¿no, Antonio? Con nuestro amigo NPC. Sí, yo creo que lo hemos dejado en lo más alto. Nuestro amigo youtuber es lo antivasado de la vida, ¿no? Es decir, y es simular en red virtual hablar con una mujer. Hombre, no sé, es poco basado, en todo caso es poco basado. Bueno, pues con esta nota lo dejamos una semana más.

Espero que esta semana sea más tranquila y la semana que viene nos dé tiempo a desarrollar algún tema especial o a contar algún detalle técnico como hoy. Seguidnos en Twitter, arroba Monos Podcast, en YouTube, arroba Monos Estocásticos, en la newsletter monosestocásticos.com. Y bueno, también nos dejan por ahí comentarios. Hay un comentario en Spotify que dice que vuelva el paso doble anterior, que no les gusta el último paso doble.

Agostina, productora y editora de este podcast, está en tus manos. Son lo que tú digas. Y ya está. Nos vemos la semana que viene. Un abrazo. Un abrazo.

Episodios recientes

Programas relacionados