Es el momento del asalto de la inteligencia artificial al sector de la electrónica de consumo y a nuestras aplicaciones. Además, Matías se hace viral y OpenAI mete varias marchas
Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com
Transcripción
Bienvenidos a Monos Estocásticos, el podcast de Inteligencia Artificial de Antonio Ortiz y Matías Zavia. ¿Cómo estás, Antonio? Muy bien, admirado, Matías, por tu nuevo éxito viral. Creo que de los virales que he tenido así a partir de Twitter, este es de los que más lejos han llegado. Estaba la gente ahí reenviándolo por WhatsApp incluso, sobre todo por esta foto. Claramente no es Málaga lo que se ve al fondo, tampoco esas aguas turquesas son de la misericordia de la Malagueta.
Pero, parece que ha colado, había alguien que lo puso en WhatsApp con este mensaje. Un genio el autor de la foto, reenviado muchas veces. Bueno, para el que no lo esté viendo y no lo esté escuchando, describe un poco el meme este que has conseguido viralizar, Matías. Surgió una herramienta que usa Control Net para ocultar o esconder un mensaje, en este caso de texto, en una imagen. Entonces, si tú ves la imagen en pequeñito, dice Málaga, pero si te acerca, en realidad las letras la forman las sombras y unas telas de una gente que está sentada haciendo un picnic en la playa.
Entonces, es muy resultón. Y han salido esta semana otros ejemplos que son con logos, como el logo de Nike, la cara de Messi, que son muy chulos. Entonces, yo lo hice con Málaga y por alguna razón la gente mucha creyó que no era una IA lo que estaba detrás de esto, sino que era una foto. Y lo han compartido como si yo fuera un genio creativo, básicamente. La cosa se fue de madre bastante, tuvo millones y millones de impresiones y el creador de esta herramienta que se llama Glyph, que es la que yo usé, que por debajo usa Stable Diffusion,
estaba sorprendido y me escribió por mensaje directo y me dijo que muchas gracias por usar su herramienta, no sé qué, no sé cuánto. Entonces, yo aproveché y le hice unas preguntas para el podcast. Me contó que Glyph lo empezaron en enero y que esta herramienta nueva de ControlNet es la que ahora mismo es la más usada, pero que él cree que la semana que viene ya saldrá una cosa nueva y nos olvidaremos del ControlNet y de este tipo de imágenes.
Y por debajo de Glyph usa Stable Diffusion, básicamente todas las últimas versiones, incluida la XL, todo como encofrado con chat GPT para que sea fácil meterle el prompt y todo eso. Así que nada, también dice que le gusta mucho Málaga, que ha venido varias veces y que le gusta la gente y la comida. Bueno, bueno, bueno, bueno, madre mía.
Redondeando en el círculo, Matías, qué bueno. Pero esta semana, Antonio, tenemos muchísimo que contar porque no ves la de noticias importantes que han salido, incluso antes de que llegáramos a publicar el episodio anterior. Sí, es que pasa una cosa, que esta semana hemos retrasado la grabación, estamos grabando el miércoles 27, probablemente saldremos el viernes, porque iba a haber tantas novedades que pensamos, oye, a lo mejor podemos probar algunas y por lo tanto ya podemos dar una primera impresión, una primera experiencia.
Bueno, no ha sido tan así y menos mal, Mati, porque realmente hay una oleada que yo creo que la podemos clasificar como, oye, vamos a dejar atrás ya la parte de las demos técnicas, de los pequeños servicios, de estas interacciones directas con la IA y vamos ya a una etapa fuerte de uso de la IA en productos y servicios masivos y del gran público, tanto en la electrónica de consumo como en la capa por encima de servicios de internet, ¿no?
Entonces, si quieres empezamos porque es que una lluvia continua. Claro, es que veníamos diciendo, por ejemplo, esto de los asistentes de voz van a quedar atrás y vamos a empezar a ver asistentes basados en modelos grandes de lenguaje que van a ser un antes y un después, no sé con cuánto, y parece que ya van llegando. Y el primero, que no lo vamos a poder probar porque por ahora es en inglés y en Estados Unidos y es una vista previa,
no es nada que esté disponible para todo el mundo, ha sido Amazon con una nueva versión de Alexa. Sí, básicamente ya lo veníamos comentando, ¿no? Que se venía la amortización de la tecnología previa de estos asistentes y la sustitución por modelos grandes de lenguaje tipo lo que tenemos hecha GPT. Claro, como no podemos probarlo, pues no podemos tampoco decir si han conseguido resolver parte de los desafíos que tiene esta integración.
Hay desafíos técnicos como la latencia, que no tarda en mucho responder, relacionado con la latencia, que no salga la información del dispositivo que te corresponde desde ahí, si eso lo hacen de una manera o de otra, y sobre todo, bueno, que digamos esa parte en que la IA se puede ir un poco de control hasta donde he conseguido mantener la raya para que esto sea muy amigable y no les meta en problemas, que es lo que no quieren estas grandes empresas.
De todas maneras, en TED One on One, una newsletter semanal escrita por nuestro amigo Eduardo cada lunes, había un gran recopilatorio de todos los lanzamientos de Amazon con los productos y todas estas noticias de Alexa, ¿no? Sí, han sacado varias cosas, unas gafas, bueno, los dispositivos estos que viene sacando Amazon con Alexa integradas para que puedas ir añadiendo cosas a tu lista de la compra de Amazon, que siempre es el objetivo principal de Amazon.
Por cierto, Amazon traduce el Large Language Model como Gran Modelo Lingüístico, y nosotros decimos Modelo Grande de Lenguaje. Bueno, suena a Gran Hotel Budapest esto de Gran Modelo Lingüístico, yo creo que nos quedaremos con nuestra traducción. Lo bueno de esta nueva versión de Alexa, han compartido aquí un vídeo, me imagino que son actores, aunque dicen que son usuarios de toda la vida de Alexa,
es que parece que la conversación es muy natural, que puedes incluso interrumpirla y cambiarle de tema. Hay uno que le dice, escribe un cuento sobre globos. No, no, espérate, escríbelo sobre gelatina. Entonces, Alexa reescribe el cuento en base a la gelatina.
Claro que aquí seguramente nos estén ocultando lo que tú dices, una latencia del carajo, porque si ya es lenta Alexa contestando, estoy despertando ahora mismo a todas mis Alexas de la casa, imagínate con un Modelo Grande de Lenguaje por detrás. Esto entiendo, luego hablaremos de Amazon y una empresa que diseña sus propios modelos, pero esto entiendo que lo han desarrollado internamente en Amazon, este modelo de inteligencia artificial. Entiendo que sí, no han sido transparentes a la hora de decir que usan un API o usan tecnología de terceros,
así que entendemos que es modelo propio, pero bueno, no han contado muchos detalles. Y quien sí ha contado mucho de sus planes de aquí a final de año es Microsoft, sobre todo porque se viene, por fin, la integración de Copilot en Windows 11. Yo creo que el gran resumen de la presentación que tuvieron, bueno, publicaron también noticias de productos, los nuevos Surface y todas estas cosas, es que al igual que Amazon cambia a Alexa, Copilot va a ocupar el rol de Cortana, de ese asistente que ya amortizaron, descartaron y jubilaron en el sistema operativo.
Realmente es un despliegue transversal porque está, como ya sabemos, en toda la parte de Microsoft 365, integración en Bing y bueno, de alguna manera aquí son los dos puntos. La integración en Windows 11, que empieza desde ya, desde hoy, a mí todavía no me ha llegado, estoy con el F5, a ver si hay suerte, eso por un lado. Y por otro lado, que esta integración de inteligencia artificial en Microsoft 365 lleva a que, igual que comentamos la semana pasada, puedes interactuar con lo que hay en tu correo,
con el calendario, con el Word y los textos, con PowerPoint, etc. De manera que parte de lo que presentan como ventajoso de usar su opción es que tienen ese tipo de integraciones. Yo creo que esto está mucho mejor integrado que como nos lo presentaron al principio, como que había un Copilot para todo. Ahora esto es como resucitar a Cortana, hacer un nuevo Copilot, que tiene sentido porque aparte de hacerle las típicas preguntas que le hacemos a chatGPT,
puedes resumir este texto que estoy leyendo en Internet o en este Word o en este PowerPoint, le puedes pedir cosas como organiza las ventanas, pon música alegre en Spotify, le puedes pedir cosas más que le pedirías a un asistente virtual. Sí, yo tengo una sensación, Matías, que me voy a salir decepcionado.
Estoy convencido de que Alexa, Amazon y Microsoft han corrido demasiado y que el nivel de integración y de calidad de asistente que yo creo que es capaz de tener esta tecnología de los modelos grandes de lenguaje, basados en el modelo Transformer y basadamente en eLearning, hasta donde pueden llegar, me preocupa un poco que estas primeras versiones, por esa mentalidad de producto de sal rápido, aprende y cuanto antes salga, pues pasa la competencia, etcétera. Por esa mentalidad probablemente creo que vamos a tener productos algo decepcionantes en esta primera generación de productos y servicios con IA integrada.
No sé, es una sensación, pero que ojalá me equivoque, pero donde yo creo que tiene que estar el nuevo asistente, ese copilot, es que yo le puedo pedir cosas muy complicadas, las entiende perfectamente y es capaz de, con cierto nivel de seguridad, de ejecutar lo que es relativamente seguro y de delegar en mí o volver a consultarme lo que puede ser problemático. Me gustaría algo así, pero me parece que no vamos a estar tan lejos, Matías.
Pues si no estás equivocado, y esto va a ser un bluff, las empresas que paguen a partir del 1 de noviembre, 30 dólares al mes por usuario o barra empleado, no sé la inversión esa que van a hacer si les va a salir a cuenta. Pero bueno, y lo iremos viendo, ¿no? Yo, por ejemplo, no me creía lo de la latencia en el nuevo Alexa, pues tuve el copilot, lo ves también verde. ¿Qué más tenemos? Bueno, tenemos que en octubre llegan los nuevos Pixel y como estamos hablando de toda la integración que va a haber de IA en electrónica de consumo,
pues probablemente ahí sea uno de los momentos estrella, sobre todo porque van a integrar un montón de, por lo que se ha filtrado, ¿vale? Van a integrar un montón de Inteligencia Artificial de Imagen en la parte fotográfica y creo que es donde es posible que los Pixel puedan pasarle la pierna por encima a la competencia si lo hacen bien. Aquí hay dos líneas.
Una es que es verdad que la fotografía digital en el móvil cada vez es más software y menos dependiente de los sensores o menos determinada por los sensores. Entonces, si lo hacen bien, pues tienen una ventaja competitiva importante. Pero luego hay una fina línea que atravesó, por ejemplo, Samsung con el S23, que fue muy polémica, que fue cuando fotografías la luna con un Samsung te hace una fotografía de la luna increíbles. Pero ¿qué es lo que estaba pasando por detrás? Que con Inteligencia Artificial estaban recreando imágenes de la luna
tomadas con cámaras profesionales para fotografías astronómicas y, claro, no estabas obteniendo una imagen de la realidad. Estabas tomando una imagen idealizada de cómo se podría ver la luna con una super cámara que tú no tienes en la mano y que, por lo tanto, estaba ligeramente falseada. Entonces, esta relación Inteligencia Artificial y realidad nos va a dar mucho juego en los próximos meses.
Pero bueno, yo, de momento, vamos a ver qué pasa. Bueno, aquí yo tengo varias cosas que decir. La primera, me asusta un poco lo que vaya a presentar Google porque me acabo de comprar el iPhone nuevo y todavía estoy temblando por lo que me ha costado el iPhone nuevo. Y lo segundo, este vídeo que se ha filtrado de las características fotográficas del Pixel 8 no puede ser más creepy.
Es decir, salen unos niños, que son niños normales, que no sonríen para las fotos y la IA de Google los reemplaza por niños sonrientes, nivel face up, nivel super creepy, película de terror. No sé si Google va a vender con eso. Lo de la luna, por cierto, creo que Samsung lo hacía algo parecido, pero la polémica original era la de Huawei y, claro, es que las fases de la luna siempre son las mismas. Entonces, puedes hacer todas las fotos que quieras, puedes sobreimpresionar la luna.
Lo que no puedes hacer es poner algo delante como un campanario, que sería una foto de la luna realmente chula. Así que nada, esos serán mis comentarios sobre el tema Pixel. Va a haber un debate ahí, Mati, si preferiremos la imagen y la fotografía, si la seguimos llamando así, que nos gustaría tener y que nos gustaría compartir o queremos una fotografía que sea lo más real posible. La etapa de la edición y retoque fotográfico ya era una primera etapa que habría ciertos debates,
porque al editar y al retocar, pues ya de alguna manera estás interviniendo en la realidad. Es como todo el trabajo que ha hecho Joan Fontcuberta, que por cierto tiene, para todos nuestros amigos que estén en Barcelona o cerca, tienen una exposición nueva muy chula, muy interesante sobre fotografía e inteligencia artificial. El punto con Fontcuberta siempre era que la fotografía, aunque solo sea por la selección del fotógrafo
y de elegir el momento de captar, de qué contexto muestras, no es la muestra de la realidad objetiva. Es siempre una interpretación. Entonces con la inteligencia artificial como que se abre una nueva fase, que es oye, yo de verdad quiero una fotografía realista o quiero realmente la imagen que me gustaría tener y puedo recrearla y puedo inventármela prácticamente. Va a ser curioso, Mati. Bueno, este debate también se habló cuando Google empezó a meter fotografía computacional
muy a saco con los píxeles, que salen las fotos muy contrastadas, y ahora hay gente que prefiere las fotos en RAW, que salgan lo más fidedignas posible. Claro, pero los que prefieren RAW es porque prefieren hacer la exposición en RAW. Quedamos con esas dos vertientes. Yo soy de los que prefiero no hacer mucho y que la foto salga bonita. Oye, ¿tú usas stickers, Antonio? Yo sí, yo algunos, de vez en cuando.
Yo soy 100% anti-sticker, así que esto nuevo de SwiftKey, el teclado de Microsoft, no lo voy a usar, que es el DALI integrado. Tú abres y estás hablando ahí con tu rollo o lo que sea y creas un sticker personalizado invocando a DALI y se lo envía directamente desde el teclado de SwiftKey. La idea está muy bien. Ahora, el mundo no necesita más stickers. No necesita stickers. Fuerte polémica, fuerte debate aquí.
Yo lo he estado probando. Te puedes bajar el software, instalarlo, usarlo como teclado. Es un muy buen teclado. Y bueno, yo más que como creación de sticker, veía como una oportunidad de, bueno, si no tengo la imagen o la respuesta adecuada, me gusta mandar más memes que stickers, de hecho. Bueno, por ejemplo, hoy nuestro amigo Tomate, Oscar, nos mandaba una buena noticia. Entonces, yo en esa conversación del grupo de WhatsApp,
le he pedido a SwiftKey que me cree un tomate feliz. Tomate feliz y contento. Entonces, claro, era el dibujo oportuno que no puedes encontrar en internet. No puedes irte a Google y buscar tomates felices. En cambio, con SwiftKey, pues lo tenía. Bueno, es una cosa menor, pero por lo menos, amigas y amigos estocásticos, es una de las que podemos probar ya. No como todo lo que ha dicho YouTube que va a traer para los creadores.
Además, te he visto en el guión juzgando cada una de las herramientas nuevas que va a presentar o que va a lanzar YouTube, a ver si son útiles o no. Entonces, vamos a jugar a clasificar las ideas de YouTube relacionadas con inteligencia artificial que presenta como herramientas para los creadores de contenido. ¿No? Te dejo, te cedo la palabra, Antonio. Bueno, está la de EI Insights for Creators, que es una herramienta para generar ideas de contenido
basado en las tendencias. Esto es horrible y terrible. Eso de cómo ahora mismo está tendente... Es como... Que me perdone la audiencia. Haz un vídeo de la última mierda. Es que es eso, básicamente. Haz de la última mierda que está de moda, de la que habla todo el mundo, que genera polémica, que genera clics, haz vídeo de eso. Por Dios, qué aburrimiento y qué mal planteamiento desde el punto de vista de un creador.
Así que esa, mal. Por ahí vamos mal. Sí, yo entiendo tu punto, Antonio. Así es como funciona YouTube. ¿No son así el 99% de los youtubers? Y cuando de repente sale uno novedoso, entonces ese se vuelve la novedad y todos los demás le copian.
Ojo, ojo. Bueno, un poco sí, pero esos son los youtubers y cualquier cosa en digital. Como vamos a lo que funciona, pues vamos un poco detrás. Pero ir detrás siempre es una carrera infinita que no termina nunca. Y lo que tiene un creador de éxito, creo yo también, es una voz y una postura editorial genuina, clara y un pacto de fidelidad con su comunidad de seguidores. Entonces, que tienes eso y luego quieres hacer una oportunidad de,
oye, como está esta polémica hoy y si me encaja la entro, pues me parece razonable que mi única línea editorial es voy a lo último que genere ruido al año un poco de atención y de gasito. Pues me parece que es una postura mediocre y que vas a llegar a donde te mereces. A esta le vamos a dar un 5 raspado, un aprobado justito. Puede servir un poquito, pero no mucho. Luego tienen la herramienta de doblaje,
pero en esto he cambiado radicalmente de opinión, Matías. Luego lo hablaremos con Spotify. Pero bueno, herramienta de doblaje para traducir idiomas del vídeo y que se mantenga tu propia voz. Y luego la de Creator Music que te sugiere pistas y música en función de la descripción del vídeo. Esta con sí, con sa. Porque, claro, las descripciones de los vídeos, la mayoría de las veces, son un desastre en YouTube.
Pues somos un poco vagos porque nos gusta ser crípticos por muchas cosas. Entonces, esto de que te sugiera ponle Paquito el Chocolatero a este vídeo, bueno, no sé, habrá que verlo. Tengo más incertidumbre. Entonces, bueno, vamos a ver. YouTube de momento las ha anunciado, pero no las ha puesto. Bueno, te ha saltado la de Dream Screen, que es para crear directamente vídeos a partir de texto con inteligencia artificial.
Que, por cierto, tengo un amigo que se niega a dar más información, pero dice que ha empezado un proyecto de crear, generar vídeos con inteligencia artificial. Me imagino que se ha buscado algún nicho para intentar sacar ahí dinero de publicidad. Veremos si funciona. Por ahora no nos ha dicho de qué, ni qué herramienta está usando, pero se ha metido en ese emprendimiento. Se tendrá que venir entrevistado.
A mí la parte de fondo me gusta más que la del vídeo completo generado porque no tengo un buen fondo. Bueno, tú lo has visto, Mati. Yo lo que tengo es un pequeño zulo en la terraza que hace las veces de despacho y, claro, no tengo un buen fondo aquí guapo para nuestros vídeos de YouTube. Por tanto, si la IA de YouTube, en este caso, creo genuinamente que lo que genere será mejor que la realidad, seguro, así que tiraríamos.
En mi caso igual, mi compañero Alex Barredo me ha ofrecido hasta 100 euros para decorar mi pared, pero todavía no la he decorado. Tú píllalo 100 euros y de repente apareces grabando Cupertino con un póster de David Hasselford detrás. Dice, es una pieza de coleccionista. La cuestión es que sea memorable, que la gente que lo vea diga, es un niño de David Hasselford. Sí, sí, sí. Ha mencionado Spotify, porque esto lo hemos podido escuchar.
No nos dejan usarlo, pero se puede escuchar. Spotify va a clonar y a traducir las voces de los podcasters. Dicho claro, hablamos ya en episodios anteriores. Puedes tener la versión de monos estocáticos en español, la escuchas directamente, pero Spotify nos permitirá crear monos estocáticos en inglés, en polaco, en rumano, en brasileño, portugués, lo que sea, pero además mantendrá nuestro tono y nuestra forma de hablar.
No será como una voz sintética, no será un loquendo, no será como el navegador del GPS, sino que mantiene nuestro tono y nuestra forma de hablar. Y ahí ha enseñado algunos ejemplos de todo esto, de podcast que se puede escuchar, de Friedman, por ejemplo. Y ya está aquí. A ver, ahora me cuentas por qué no te ha gustado.
Yo tengo que decir que me puse a escuchar el del ex Friedman que es el tío este que escribe libros que te hacen sentir muy inteligente y me enganché. Estuve un buen rato escuchando eso, a pesar del acento. Ahora cuéntame por qué no te gusta. Yo creí que, y defendí ferozmente, Matías, que igual que en la música tú quieres escuchar al cantante original, tenía su sentido. Yo en los podcast quiero escuchar la voz del creador original y no a alguien superpuesto
que me lo hable en mi idioma pero que no sea esa voz primaria. Pero he estado escuchando estos capítulos y ese acento estadounidense llevado al español me irrita muchísimo, Mati. Es como cuando se traducen las series a español latino, pero mal.
Es decir, que no es un español latino, sino es español latino con el DG, con las formas, con la entonación del público estadounidense. Entonces me corto la circuita. Me resulta me parece como el encanibalino, el valle inquietante del audio. Y yo que era fiel partidario de esto, ahora soy receloso. Por lo menos como oyente, tengo mis dudas.
A lo mejor esta ejecución no es buena y vendrán cosas mejores. Ahora, como creador, te digo, Mati, tenemos que pensar una estrategia. Yo la que te propongo es, como en monofiltocástico nos salen todos los eventos, viajes, porque la gente luego nos invita a hablar de cosas de Inteligencia Artificial por ahí.
Claro, deberíamos pensar para traducir otros idiomas a qué países nos gustaría que nos invitaran. Porque ese va a ser el objetivo principal. Entonces, esta es la pregunta, Matías. ¿Qué idiomas y qué países tenemos que poner en el punto de mira? Bueno, ya hemos dicho que a Estados Unidos no vamos a aspirar porque está muy saturado. Yo aspiraría a un Turmenistán o un Corea del Norte que si accedemos a las grandes esferas, pues la verdad
es que comeremos muy bien y estaremos muy bien cuidados. Y esperada. ¿No te seduce Arabia Saudí, Matías? Ahora parece que están gastándose las perras. Podemos aprovechar. Vamos los tres juntos. Tú, yo, Pallete, todos allí, a Arabia, a hacer la ronda. No nos metamos con Pallete, que quién sabe si en el futuro nos patrocina el podcast.
A ver, una cosa sobre el tema de doblaje de voz. El otro día estuvo IlloJuan, que siempre, no sé cómo llega tan pronto estas cosas, estuvo clonando la voz de otros streamers, rollo Ibai, TheGrefg, Canecro, hizo un medio directo sobre eso, con bromas de eso y me estuve riendo un buen rato. O sea que esto por ahora sigue dando juego, lo de clonar y traducir voces. Habría que ver si el Whisper es capaz de entender todo lo que decimos
en monos estocásticos. Eso sí que está por hoy. Sí, sí, claro. Nuestras pequeñas bromas locales, las referentes a nuestros creadores y nuestras estrellas, posible que en Turquemistán no las pillen todas. Bueno, cositas interesantes. El CD Spotify ha dicho que no van a prohibir la música generada con IA. Esto, por lo menos, es un posicionamiento, siempre y cuando no sea una música que se utilice para intentar suplantar a los artistas
humanos sin que esto tenga un consentimiento. Entonces, claro, tú puedes hacer tu música con inteligencia artificial, pero si imitas mucho el estilo de un cantante concreto, haces una IA calamaro y vas haciendo canciones así muy calamaristas, pues claro, si no tenemos el consentimiento de Andrés, aquí el amigo de Spotify, nos expulsaría. No sé si calamaro es muy liberal en lo de usar su voz. En otras cosas quizás sí, pero
en lo de su voz no lo tengo muy claro. No, yo imagino que no es su rollo esto. No es Grimes, definitivamente. Bueno, Antonio, una empresa que sí que ha anunciado cosas bastante impresionantes desde la semana pasada ha sido OpenAI y no sé ni en qué orden ir con las novedades. Así que te vuelvo a ceder a ti la palabra. Bueno, en Twitter lo anunciaban así, ChadGPT va a poder ver, oír y hablar. Ver, oír y hablar.
Hoy estoy muy gruñón, Matías, parezco barredo. Me molesta esta forma de comunicar porque todo lo que antropomorfiza la IA, creo que es hacer un poco trampas. Cuando nosotros hablamos de ver, oír, hablar, no hablamos de solo un input, un output, sino de una comprensión y unas capacidades humanas. O a nivel humano, que no es lo que va a tener ChadGPT. ChadGPT por fin va a ser multimodal. Esto lo veníamos contando de hace muchos
meses porque originalmente GPT-4 es multimodal. Es decir, ese módulo fue entrenado de una manera que permitía varios tipos de contenido tanto para entrada como de salida, pero no se ha desplegado esa capacidad hasta que lo haga en las próximas semanas. El motivo era, bueno, siempre en OpenAI decían que no lo habían pulido desde el punto de vista de la seguridad de lo que podía acabar diciendo, haciendo y por ahí
lo tenían guardado. ¿Qué nos llega en las próximas dos semanas que han estado OpenAI? Por un lado, los usuarios de pago, porque recordemos, GPT-4, podremos tener conversaciones con ChadGPT en iOS y en Android e incluir imágenes en las conversaciones en todas las plataformas. iOS, Android, clientes web. Con este paso, yo creo que meten una marcha más y de nuevo se ponen en la punta de lanza.
Hay que probarlo, pero tiene una pinta fenomenal. Hay mucha gente con acceso, bueno, no sé si mucha, pero hay gente que antes de estas dos semanas que nos han dado de margen al Populacho ya la está pudiendo probar y hay cosas muy muy interesantes que consiguen sobre todo mandándole imágenes.
Puedes mandar incluso varias imágenes y hacerle preguntas como compara esta imagen con la otra, pero me llamó mucho la atención el ejemplo que eligió OpenAI para promocionar esto de la multimodalidad que es básicamente un tío que no tiene ni idea de bicis, que podría ser yo, que si a mí se me pinche una rueda no sé qué hacer, pues este tío no sabía bajar el sillín.
Entonces le pregunta a ChadGPT, le hace una foto a su bici y le dice ¿cómo puedo bajar el sillín de mi bici? Imagínate el nivel de este señor en cuanto a mecánica. Y nada, tampoco sabe lo que es una llave Allen, o sea que el ChadGPT le va explicando todos los pasos a seguir, él va haciendo fotos de su caja de herramientas, dice ¿qué es una llave Allen? Dice pues es eso que tienes a la izquierda, ¿no? Ahí en un
manojo de llaves Allen. Entonces a mí esto me ha hecho pensar mucho, porque yo, como sabes que estoy en esto de búsqueda de empleo, el otro día hablando con un tío mío político, me hablaba de un sobrino suyo que estaba cobrando un pastizal arreglando cosas, rollos sensores en las comunidades, en las fincas ascensores, cosas así y yo pensé, a ver si el futuro es todo lo que no sea digital, como siempre hemos venido
advirtiendo, pero no, con esto no, con esto ya no, porque yo podría arreglar ahora un sensor con suficiente tiempo y insistencia a hacer preguntas a ChadGPT. Claro, yo tengo una lectura de este ejemplo una lectura de género, Matías, porque claro, estas son típicas preguntas que en tu masculinidad deberías ser capaz de responder, ¿no? Eres un hombre ahí que con sus herramientas es capaz de hacer cosas. Sin embargo, claro,
eso tampoco es el mío, entonces ¿qué pasa con nuestras masculinidades, Matías? Que nos da vergüenza reconocer esta inutilidad analógica de las cosas prácticas del mundo real, y claro, podemos seguir ocultándolas, podemos falsear nuestra realidad y mantener nuestro estatus masculino gracias a la inteligencia artificial. Por lo tanto, yo creo que OpenAI puede ayudar al mantenimiento del patriarcado bajo esta lectura.
Pero si seguimos así en esta línea acabaríamos con el neurocirujano que le pregunta a ChadGPT cómo operar, ¿no? Y será esto un desastre, ¿no? Me recuerda a un tuit de ayer de una chica que trabaja en seguridad en OpenAI que decía que ella nunca ha ido a terapia, nunca ha ido al psicólogo, pero que cree que debe parecerse a hablar con ChadGPT multimodal, ¿no? Porque ella ha llegado a la conclusión de que le sirve hablar
con el ChadGPT para temas de salud mental, ¿no? Y se le ha tirado todo el mundo encima que cómo vas a comparar esto con un psicólogo, con un psiquiatra... Primero, tomándolo más en serio, es un poco disparate. Tomándolo más en serio es verdad, porque es verdad el punto de que la voz se va a sentir como una interfaz todavía más natural hacia una inteligencia artificial real.
Es decir, es probable que la veamos todavía más inteligente si habla con nosotros. Entonces, esa parte de antropomorfizar a la inteligencia artificial se va a ver más acusada, más elevada. Y lo que le pasa a esta señora, que es una técnica de primer nivel mundial para que tenga este tipo de ¿no? Oye, es que me parecía como un terapeuta normal. Tiene que ser una experiencia que realmente a ese nivel sea bastante convincente.
De todas maneras, yo he estado hablando con mi hijo recién llegado en viaje a Madrid y creo que hay una novedad que no la ha tenido en cuenta OpenAI que es que a ChasGPT se le pueda dotar de una personalidad especial por la cual, de cada cuatro palabras, una tiene que ser bro y la otra tiene que ser en plan.
Yo creo que si consiguen eso, conquista a la generación post-Z. Es decir, si tú dices bro y dices en plan en cada frase, pues ya estás ahí. Nadie te podrá distinguir. Es como el test de Turing adolescente actual. Habría que ver con qué texto se ha entrenado ChasGPT porque igual queda como el meme este del señor Burns con el gorrito de lana en plan haciéndose el moderno. Complicado, complicado. Sí.
Bueno, por cerrar el OpenAI. Bueno, por cerrar. Vienen que no sé. Dali 3, también a la vuelta de la esquina. Tiene muy buena pinta, sobre todo la parte de rendirizar texto y que salgan textos dentro de las imágenes. Dicen que no necesitan tanto trabajo en el Prom que te va a entender mucho más fácil que las versiones anteriores.
Yo creo que en MidJarney ya estaba bastante bien en ese nivel, ojo. El desafío es si van a superar a MidJarney, aunque si ya tienen la ventaja de no tener que usar Discord, ya es un punto a favor. Y bueno, hay un par de cositas más de OpenAI. Sobre todo Alman que en la reunión de iCombinator dijo que GPT 5 y 6 están trabajando en ello y mejorarán la fiabilidad y la personalización, pero no serán una inteligencia artificial general.
No nos flipemos. Mucho hablar de personalización. No solo OpenAI, también Amazon con el nuevo Alexa, que si podemos personalizar Alexa para que sea más simpática o menos simpática o opine más o opine menos. Me imagino que también tiran por este camino con chat GPT. Es como si hubieran visto la película de Her ayer y se hubieran flipado. Sí, sí, sí. De hecho, en Reddit ha habido salseo porque San Alma, con su cuenta,
dejó un comentario en un hilo en el que se hablaba de que un habitual filtrador de noticias de OpenAI había cerrado la cuenta en Twitter. En X, perdón. Y San Alma decía la AGI, la Inteligencia Artificial General, se ha conseguido internamente en OpenAI. Y claro, eso fuera de contexto se ha disparado, se ha comentado un montón hasta que el propio Alman ha editado el comentario diciendo que esto es un meme. No es que
se haya conseguido, sino que ese es el meme. Los habituales que creen tener acceso exclusivo a OpenAI sueltan cada dos por tres cosas de este tipo. Bueno, muchos se han alarmado. También nos ha llegado al podcast que hablemos de este tema, que internamente ya habían conseguido una Inteligencia Artificial General.
Parece que no, que era un chiste. No podemos dejar de hablar de OpenAI sin mencionar, Antonio, qué noticia, qué choque de mundos dentro de mi universo podcasteril. Sam Alman se ha reunido con Johnny Ive para plantear una nueva disrupción tecnológica. El iPhone de la IA, bueno, este es el titular de Se Ataca, pero realmente Se Ataca hay bien tirado. Es que entra en las keywords sola.
Esto es malabares. Lo que se sabe de information es que han estado ahí mezclados. Sam Alman, Johnny Ive, que por si alguno no cae, es el diseñador mítico de Apple, que estuvo durante toda la época esta de Steve Jobs y ha estado hasta recientemente en la empresa. Y también estaba el CEO de SoftBank, ¿no? Sí, a mí es el personaje que me parece más curioso porque apareció en buenos estocásticos.
En aquel capítulo, ¿te acuerdas? Que era el tío que habló con Chad GPT una noche y como Chad GPT le dijo que él tenía muy buenas ideas, pues voy a invertir miles de millones en inteligencia artificial. Es un tío que desde ese momento yo tengo un especial cariño por Masayoshi.
Es un tío que me cae bien por eso, ¿no? Bueno, yo creo que es un esfuerzo de imaginación de claro, si tú ya tienes el Chad GPT de voz, ¿cuál es el interfaz natural? Pues probablemente eso ya está pensado y era el altavoz. Tiene sentido. Por otro lado, yo estaba pensando, ¿cuál podría ser? Y yo dije, bueno, tiene que ser algo que esté siempre enchufado.
Entonces dije, van a diseñar un frigorífico, que es el único electrodoméstico en casa que tienes a las 24 horas encendido por narices. Entonces yo creo que el gran proyecto de Johnny Ive es un frigorífico con Chad GPT y mi última alternativa, Mati, ya mi imaginación no da para más, es un gatico electrónico.
Es un gatico que se mueve por el ardezo y que charla como Chad GPT, que es una mascota de la familia. Esas son mis ideas iniciales. Yo me he quedado en algo más aburrido, porque como sé que Johnny Ive tenía la obsesión de hacer un iPhone que fuera solo pantalla, que fuera solo el cristal y nada más, pues a lo mejor está en la consecución de eso.
Un móvil que, bueno, no tiene por qué estar conectado a internet, pero no tiene por qué estar conectado a la corriente, al estilo de Johnny Ive, pero que todo esté centrado en Chad GPT o en Dalí, etc. No sé, no lo sé. Ves, Apple va mal añadiendo botones y aquí está la tendencia, Matías. Entre todos tus podcasts yo veo aquí una carrera.
Cerramos OpenAI, si te parece, porque ha salido en Wall Street Journal una exclusiva en la que se dice que bajo una idea de valoración de 90.000 millones de dólares, poca cosa, están pensando algunos de los accionistas vender acciones.
No se trata de ampliar el capital, de meter a nuevos inversores, que fue lo que sucedió con la entrada de Microsoft, sino que accionistas actuales, probablemente fundadores, primeros empleados que tuvieran acciones añadidas al sueldo, pues probablemente querrán aprovechar el momento de mayor hype y de mayor valoración de la inteligencia artificial para diversificar un poquito, para decir, bueno, por si acaso esto de la IA no va para tanto, por si
acaso la AGI, pues al final la dejamos, ya vendrá, la dejamos para dentro de un par de décadas, o por si acaso esas demandas de copyright que cada semana hay una noticia con demandas, ¿funciona alguna? Dicen que tenemos que darle la mitad de dinero a periodistas y a escritores, pues para hacer sensato alguna acción que otra, ahora que valen 90.000 millones de dólares venderla.
Ahora entiendo tanta novedad, tanta novedad anunciada así seguida, llegar a 90.000 millones de dólares, cuesta trabajito, ahora entiendo, ahora tiene tanto Dali 3 y tanta multimodalidad. Sí, sí, están engordando la vaca, Matías. Bueno, últimamente hablamos más de Tesla, ¿no? Tesla a lo mejor tiene cosas que decir en esto de la inteligencia artificial, sobre todo si hablamos de robótica.
Sí, Mati, porque tú que eres un experto en Elon Musk has visto el nuevo vídeo de Optimus, el robot antropomórfico que tienen en desarrollo, ¿tú crees que este vídeo es CGI o que el vídeo es de verdad? Porque yo no tengo toda mi credibilidad otorgada a ese individuo.
Pues mira, había un conspiranoico en Twitter que analizaba el vídeo este en el que para el oyente lo describo, un robot, un Tesla Optimus, está ordenando una serie de piezas de cubo en dos bandejas, las azules las pone en la bandeja azul y las verdes las pone en la bandeja verde.
Pues alguien en Twitter analizó este vídeo frame a frame y hay un frame como que se mueve algo raro, pero yo creo que sí, yo creo que es verdad. Tampoco, una vez que tienes muchos actuadores en el robot y tal, tampoco parece tan complicado que haga estas cosas, ¿no? Sí, hay unas peripecias interesantes. Bueno, yo veo que Tesla Optimus está más cerca de preparar el gazpacho que, tras pensarlo mucho, es una cosa curiosa porque me gusta mucho
el gazpacho. Es fácil de hacer y baratito, pero no me pongo, no me sale. Nunca acabo haciendo gazpacho en casa. Entonces yo creo que que Tesla Optimus esté en esta capacidad de manejar objetos, moverlos, me da esperanzas. Sí, sí, sí.
¿En qué se diferenciaría de comprar el gazpacho hecho en el Mercadona? Tampoco hay muchas diferencias, son máquinas las que hacen el gazpacho. Supongo que la diferencia es el precio, ¿no? A lo mejor un gazpacho hecho por un Tesla Optimus te sale miles de dólares. Siguiente paso, procede a vender sus acciones de Tesla. Bueno, hablando de acciones, Amazon ha salido de compras, ha invertido cuatro, bueno, tiene un acuerdo de invertir hasta cuatro mil millones.
No lo va a pagar de golpe, es un acuerdo con cierto futuro, con un pago inicial y más recorrido, pero se lo va a dar a Antropic. Y Antropic, atención, que es el creador de Cloud, ese chatbot del que hemos hablado por aquí ya en varias ocasiones, y un Antropic que ya tuvo inversión de Google. Sí, y además esto de Google, Amazon por Antropic es curioso, porque claro, ahora Antropic se va con el que le ha puesto más dinero y ahora la nube de Antropic
es la de Amazon, es AWS, como todos lo conocemos, en lugar de la nube de Google. Aquí siempre hay intereses por detrás interesantes. Claro, y yo creo que a los amigos de Google Cloud se le ha tenido que dar una cara de tonto por esto. Esto es un disgusto muy grande, en realidad, porque claro, dice, bueno, hemos invertido aquí, le hemos dado cientos de millones, pues, cliente cautivo de aquí a los próximos 15 años.
Esto no... Rey puesto, ¿cómo era? Rey muerto, rey puesto. Rey muerto, rey puesto. Aquí estamos. Recordar una cosa, porque leyendo así sobre Antropic para preparar este tema, son realmente de la gente más... Primero, son el modelo más Flanders, que siempre lo hemos comentado aquí, es súper cuidadoso, súper pola y nunca quiere hacer nada incorrecto. Y dos, son de la gente más flipada con la inteligencia artificial general.
Ya tuvimos a su CEO y fundador diciendo que faltaban, eso, 3 o 4 años y que en su deck de inversión, ese documento que presentan a posibles inversores para que, para conseguir su pasta, hablaban del llamado Cloud Next, que iba a ser 10 veces más capaz que la guía más potente actual, pero que requerirá un gasto de unos 1.000 millones de dólares en los próximos 18 meses. Ya en los 18 meses se está moviendo un poco, ya
hablan más de 2025 o 2026, pero este modelo frontera, que los llaman ellos, como acercamiento a la inteligencia artificial general, iba a ser capaz de, pues, realizar investigaciones, generar obras de arte y, de alguna manera, empezar a automatizar gran parte de la economía. Lo cual, claro... ¡Peligro! ¿Qué haces? Si alguien viene y te dice eso, pues, toma, 1.000 millones, ¿no? ¿Qué menos, no? Que darte todo el dinero.
También dependerá de con qué entrenas a la IA. Si la entrenas con Karl Marx, por ejemplo, a lo mejor automatizar la economía cambia radicalmente cómo funcionan las cosas. Tenemos que traernos un neomarxista de estos al podcast porque parte de la tesis de algunos izquierdistas es que la economía centralizada con inteligencia artificial podría funcionar, no como el fracaso de anteriores intentos.
Bueno, ahí tienen esas teorías peregrinas, gente que no pierde la esperanza en sus ideologías, pero, hablando de inteligencia artificial en general, hay un estudio que me ha gustado un montón, Matías, y que lo quería traer, y que, bueno, es un estudio de Lucas Berglund y otros, que le hacen a los modelos actuales del lenguaje una pregunta muy fácil y muy obvia.
Es decir, lo que plantean para intentar ver estos modelos cómo funcionan es si los modelos grandes del lenguaje pueden inferir una vez aprendido que A es B, son capaces de inferir que B es A. ¿Vale? Es un razonamiento bastante obvio, ¿no? Si Antonio Ortiz es Antonello, ¿vale? Pues mi nick en X y en otras redes, Antonello, obviamente, es Antonio Ortiz.
Es una identificación. Es un razonamiento no muy complicado. Pues, claro, lo que han encontrado es que los modelos grandes del lenguaje actuales no son capaces de hacer esta inferencia. Es más, tienen unos aprendizajes bastante curiosos porque dice que si el modelo se ha entrenado en que el padre de Tom Cruise es Mary Lee Pfeiffer, como se le pone eso, creo que es la madre, no consiguen generalizar a la pregunta de quién es padre Mary Lee Pfeiffer,
que obviamente todo se nos ocurre que es Tom Cruise. Esos mínimos razonamientos, ahora mismo los modelos grandes del lenguaje, fallan. Les pasa como a mí que no presta atención las clases de lógica del instituto en filosofía y ahora pues no saben inferir este tipo de cosas tan sencillas. Si A es igual a B, B es igual a A. No es demasiado pedir, ¿no? Pero aquí hay un tema de fondo que es nos flipamos con la AGI, pensamos
que en modelos que hayan procesado mucho texto emergerá. Bueno, no lo pensamos tú y yo, sino que es parte de la tesis de los partidarios o creyentes que va a venir esta inteligencia artificial general. Parte de la tesis es que emergerá de este conocimiento una inteligencia y un motor de razonamiento.
Eso no ha emergido todavía. Estos razonamientos tan simples y tan sencillos no son capaces de hacerlos y bueno, yo creo que podrían ser un gran candidato a ser derrotados, Mati, en un Puerta Grande o Enfermería. Bueno, que pasamos directamente al Puerta Grande o Enfermería.
Cuéntame que estoy deseando saber qué me traes hoy. Bueno, aquí hay una idea de negocio finlandesa. Los finlandeses también innovan, también emprenden y hay una startup llamada que está utilizando presos de las cárceles para entrenar la inteligencia artificial. Los presos reciben un pequeño salario, un pequeño complemento, pero menos del salario mínimo finlandés y lo que tienen que hacer es etiquetar datos, si ha aparecido una frase,
si una frase se ha dicho en sentido metafórico, si se ha dicho en sentido literal y que, bueno, realmente involucrar a estos presidarios en la creación de los nuevos grandes modelos de lenguaje finlandeses. ¿Tú qué opinas, Matías? Bueno, bueno, es que ¿qué opinaba yo con los kenianos de OpenAI en su momento? Porque claro, si digo ahora algo diferente porque son presos de Finlandia, pues igual me meto la pata, ¿no?
A ver, mientras esta gente es cierto que están cobrando menos del salario mínimo, pero mientras no estén explotados y más o menos les cuadren lo que están haciendo de trabajo y tenga una utilidad, pues a lo mejor les sirve incluso para reintegrarse luego en la sociedad. Bueno, pues, semipuerta grande para los presos finlandeses. Les traigo una historia un poco preocupante, quizás, porque viene de una pieza de Wired
que un escritor titula en su artículo confesiones de un escritor viral, gracias a la inteligencia artificial hecha GPT, bueno, meten ahí todas las cosas, porque ya sabes los medios qué cosas hacen. Bueno, el caso es que mi ensayo de ficción escrito con inteligencia artificial fue mejor recibido, con diferencia que cualquier otra cosa que yo haya escrito en mi vida.
Esta es la declaración o la confesión de este escritor que cuando publicó su ensayo titulado Fantasmas, que se publicó en D.Believer en el verano de 2021, rápidamente este ensayo tuvo una gran virabilidad y empezó a aparecer en las noticias, a ser compartido y a ser muy comentado. Entonces, bueno, esperó que la gente criticara que había sido ayudado con inteligencia artificial porque él lo confesaba, pero esa crítica nunca llegó.
Fue adaptado a otras publicaciones y fue lo mejor recibido, con diferencia que cualquier otra cosa que él haya hecho. ¿Cómo te sentirías tú en este caso? Es un poco, no sé, es como, bueno, no potencia mucho la autoestima de las personas que pasan estas cosas. Yo creo que aquí el dinero estaría por encima de mi autoestima.
Si la inteligencia artificial me está ayudando a ganar dinero, pues igual lo de autoestima siempre puedes ir a un psicólogo o tratarlo con un chat GPT como la ingeniera esta de OpenAI. A ver, no lo sé, me sorprende que lo mejor que haya escrito chat GPT sabiendo cómo funciona uno de estos modelos de lenguaje, que tampoco son tan sorprendentes. A lo mejor es que él no es muy bueno. Bueno, claro, él dice que fue con
ayuda de chat GPT, pero claro que él puso mucho. Este amigo, no sé yo si... A lo mejor no tiene amigos que le digan, mira, lo tuyo no es esto. Ponte a reparar bicicletas antes que la guía nos ayude. Consejos que pueden darle para reenfocar su vida. Consejos que traemos también de un amigo. Matías, en Genios Incomprendidos de Nuestro Tiempo te traigo a un amigo común, admirado por ambos, que es mi muy querido y muy estimado Daniel
Seijo. Porque Dani, bueno, él estaba viendo el chat GPT multimodal, que ya hemos comentado en el episodio, y él, bueno, comentaba que había visto a gente de su gimnasio pelearse con la fuente de agua porque no conseguía hacer que funcionara bien.
Y claro, él dice, en nuestro día a día nos enfrentamos a pequeños retos de sistemas que no entendemos. Mi segunda reflexión es como OpenAI termina la conversación, dándolas gracias a chat GPT. Más allá de ser algo raro de decir que yo hablo con él como si fuera una persona. Creo que el ser humano tiene la necesidad de agradecer y reconocer la ayuda. Y, a medida que las guías se humanicen, el trato que tenemos con ella tendrá a ser
similar. Esto en el fondo no es nuevo. Yo le puedo dar la patada a un balón de juguete, pero yo no le daría la patada a un muñeco que sea un animal o una persona. Entonces, aquí Dani nos está abriendo una ventana a nuestro futuro con estas guías más humanizadas, más personales que sentimos más cercanas y en la que tendremos que tratarla como persona a pesar de que sean sólo esos loros estocásticos de los que
muchas veces hemos hablado. Entonces, hay que dar los buenos días, hay que dar las gracias, hay que pedir las cosas por favor. ¿Tú qué opinas, Matías? Esto te enfrenta directamente con Dani Seijo, porque tú decías que no estabas nada a favor de antropomorfizar las inteligencias artificiales. ¿Qué es si no antropomorfizar las inteligencias artificiales? También es verdad que yo me imagino que esto, por ejemplo, con los robots nos va a pasar
mucho. Yo, porque no tengo 40.000 euros, pero si me compro el perro robot de Boston Dynamics me imagino que lo trataría bien, que no me saldría eso de darle patadas. O a lo mejor sí, a lo mejor soy un psicópata y no lo sabía. Pero me parece que esto es muy humano y muy natural, Antonio.
Sí, yo es verdad que a veces... Yo soy muy educado realmente cuando hablo con Charles Gepet. ¿No? No soy así como imperativo con los bots y con la IA. También porque, bueno, a veces te ven tus hijos, ¿no? Tienes que dar el ejemplo, no vas a ser aquí un humano con la tecnología. Pero es verdad que ahí con Dani no puedo humanizar a la inteligencia artificial.
Creo que es algo a lo que de momento voy a resistir. Pero bueno, ya sabes cómo son las cosas, Matías. Yo en el episodio anterior estaba muy a favor de las traducciones de audio directa de los creadores de podcast y esta semana estoy en contra. Entonces es verdad que poco a poco las opiniones van evolucionando. Pues mira, creo que no es la primera vez que sale ese hijo en este podcast.
A ver si vuelve a salir una vez más. Arrobaté ese hijo en Twitter, que es un viejo compañero, un gran amigo y alguien que siempre nos ha enseñado mucho. Lo animamos a seguirle. Por cierto, no sé si has visto esto que ha pasado con Google.
Que alguien le ha preguntado a Google, ¿se puede derretir un huevo? Y Google ha contestado que sí, en un snippet. No en el bar, digamos, sino en un snippet típico de Google. Investigando, resulta que Quora, que mucha gente se acordará de Quora porque es como un foro donde la gente hace preguntas y pues alguien responde que está muy bien posicionado en Google. Resulta que Quora ha empezado como a integrar respuestas de inteligencia artificial
de ChatGPT concretamente en sus respuestas. Y claro, cuando pasa una alucinación de esta respuesta, como que ChatGPT responde sí, sí, un huevo se puede derretir. La manera más común de derretir un huevo es calentarlo usando una hornilla o un microondas o lo que sea. Al empezar a meter estas respuestas en Quora, esto va y se posiciona primero en Google y de repente Google responde cosas falsas, como que se puede derretir un huevo.
Sí, está el mundo del SEO ya bastante alterado. El SEO, bueno, si alguno todavía no lo tiene muy controlado, es esa disciplina que, bueno, busca posicionar en buscadores la página para la que trabaja, el contenido que quieren tener ahí.
Bueno, pues con esto de Quora pues tenemos una señal y luego tenemos otra señal de que esta semana Google ha estado indexando respuestas de Bart. Los chats de Bart se pueden compartir, tienes una conversación con él y tienes la posibilidad de compartirlo. Pero, claro, no parecía la idea original que esto fuera contenido indexable y, por lo tanto, enseñable en los resultados de búsqueda.
Sobre todo porque si pensamos que a veces a estos chavos le hacemos preguntas muy delicadas, bueno puede ser un poco complicado y además Bart alucina. Tal cual. Esto también enlaza con una noticia que teníamos antes de que Google va a enseñar a su modelo de lenguaje en caso de duda, consultar con el buscador. Ya es como una pescadilla que se muerde la cola y ya no sabremos que es verdad y que no.
O sea, la verdad será algo... Yo creo que Google ha dicho que no fue sin intención, que fue sin querer. No están acostumbrados a configurar el Robot XT en Google, entonces un fallillo lo tiene cualquiera y que, por lo menos, la parte de la parte de indexar var la van a quitar rápido.
Yo creo que Quora, después de esto, estaría muy atento al próximo cambio de algoritmo, mejor dicho, porque tiene todas las papeletas de comerse un buen marrón. Y luego hay una cosa que estaba yo pensando que es que es posible que con el tiempo vean unos competidores de Google un poco insospechados. Yo estaba pensando, cuando yo consulto y quiero los resultados de una página en concreto, imagínate que tú quieres algo de política
y te gusta mucho o te fías mucho del país o del mundo o te interesa la divulgación por ejemplo, yo sigo a Marcos Vázquez de Fines Revolucionarios, o los crímenes y si es criminopatía, cualquiera. Claro, todas esas búsquedas que hacemos ahora patatín, patatán, el país patatín, patatán, chataca, patatín, patatán Fines Revolucionarios, le añades apóstrofe para que precisamente Google te encuentre ahí.
Yo creo que en el futuro todos esos podrían ser bots con contenido propio. Si tu eres el dueño de una web con un histórico, con un contenido que lo has cuidado mucho y que es muy bueno ¿En qué momento empiezas merecerte la pena intentar no pelearte con otros dos millones por salir primero en Google, sino intentar posicionar tu bot, intentar posicionar tu IA entrenada solo con tus datos para que pueda responder cosas de nutrición
de recetas, de tecnología, de política, de lo que sea tu temática. Yo creo que por ahí podría surgir algún competidor o mirada de competidores para el buscador de Google Si vamos por ejemplo a New York Times y le decimos vamos a hacer un bot que sea el New York Times GPT y por ejemplo el contenido de Wirecutter lo responde el bot ¿Cuál es la mejor aspiradora que no cueste más de 500 dólares? ¿A lo mejor eso nos lo compra el New York Times por millones
de dólares? Bueno, pues hombre, al principio yo les pediría más para que luego la negociación quede ahí Bueno, si nos podemos ir a fitness revolucionario también tu idea de la nutrición puede tener sentido Pero pienso que esas cosas tienen sentido en un modelo de suscripción.
Claro, como uno tampoco es un gran repartidor de tráfico los modelos funcionan mucho mejor cuando son autoconclusivos, te responden esto es así, que cuando te dicen, vale sí, pero léete este artículo y ahí metes una fricción y ahí se empeora la experiencia.
Si eso va a pasar, yo antes de que lo haga Google con mi contenido y responda al usuario y no me lo mande, ¿por qué no intentar yo tener mi bot con mi medio, mis contenidos y decirle a mis suscriptores, oye a partir de ahora cuando busquéis si vais a buscar mis fortalezas mis temáticas, tenéis además de la suscripción a mi contenido tenéis un bot que os resuelve que os dice y no tenéis que estar buscando por mi archivo ni buscando en Google
Bueno, solo espero que no nos cobren suscripciones separadas por cada bot, porque ya tenemos con el tema de las series y las películas miles de suscripciones, no vamos a empezar a pagar ahora 200 chat GPT Bueno, ¿sabes lo que es bueno Matías? Que como al final de los podcasts llega muy poquito gente, yo creo que a esta idea no va a llegar nadie, así que nadie que tenga un medio super grande que quiera cobrarnos, así que bueno, de momento
mantengámoslas en este pequeño secreto entre tú, los más fieles de Monos Estocásticos y... Y yo cierre para un episodio bastante reducto con mucha información, muy denso Podéis dejarnos preguntas para contestar en el siguiente episodio de Monos Estocásticos, nos vemos la semana que viene con mucho más, un abrazo ¡Chao, chao, chao!