Transcripción
Bienvenidos a este primer episodio de Monos Estocásticos. Vamos a hablar de inteligencia artificial. De hecho, la sintonía que acaba de sonar está creada por una IA. A tus órdenes, Antonio, fuiste tú el que creó la sintonía. Bueno, una de las muchas que creamos, que al final las pusimos a competir entre una audiencia exigente y experta en sintonías de podcast.
Y bueno, salió elegida esta, la democracia, Matías. Entramos en un 2023 que seguramente va a ser importante en los avances de la inteligencia artificial, porque venimos de un 2022 en el que, después de oír tantas promesas sobre estos modelos que iban a explotar de un momento a otro, por fin en 2022, pudimos usar muchas de estas IAs generativas y se hicieron bastante virales. Primero DALI, luego Mid-Journey, Stable Diffusion en la creación y la generación de imágenes y,
por último, como guinda de 2022, la explosión, el petardazo brutal de ChatGPT. De hecho, creo que va a ser estudiado en las escuelas de marketing como uno de los movimientos marketingianos más exitosos de la historia de la tecnología porque, al fin y al cabo, GPT3 ya va como API disponible para desarrolladores, ¿cuántos? dos años, desde 2020.
Y de repente, OpinionAid lanza ChatGPT, se viraliza, se convierte en la nueva gran cosa del internet y se crea una excitación, una emoción, un interés que no estaba todavía en la IA. Creo que les ha puesto totalmente en los focos encima.
Hay muchísima gente experimentando y probando y eso significa que acabarán usando su API. Hablaremos luego en las noticias de un poquito más de la cosa con Microsoft. Ya que estamos hablando de ChatGPT, podríamos mencionar una noticia y es que ya hasta viene mencionado ChatGPT como coautor en papers, en artículos académicos, en estudios. Explícame muy bien cómo funciona esto porque no entiendo cómo puedes presentar un paper, supongo que revisado por pares, que te lo apruebe un doctor, un catedrático y que venga firmado por ChatGPT.
Es muy curioso porque el estudio va sobre el rendimiento de GPT como asistente médico en la educación médica, no en el diagnóstico ni en otras áreas. Entonces hay un montón de autores, estos papers lo suelen firmar mucha gente. Tiffany Carnes es la primera, Morgan Chitman y el tercero pone ChatGPT y luego hay como otros seis.
Hay dos debates. Uno claramente es, oye, si usas ChatGPT en un estudio o en una tarea, por ejemplo, de un ensayo para un trabajo para el instituto o para la universidad, debes citarlo. Lo he usado, es coautor mío. Y el otro debate es, los otros siete, ¿cómo los pones detrás de ChatGPT? ¿Por qué no están en orden alfabético? El último es Víctor Shen, James Maningo, Giselle Díaz Cándido, María Madriaga, Camille Elepaño... Toda esta gente ha colaborado en el paper, pero están detrás del chat.
Imagínate estudiar tantos años, doctorarte, etcétera, y para que luego salgas por detrás de ChatGPT. Y ya no como a veces sales como et al, como mencionado, como etcétera. Y de repente sales por detrás de ChatGPT, que es un nivel nuevo de humillación para tantos años. Bueno, yo a priori soy contrario a esto, Mati.
Es decir, ChatGPT es una herramienta que, bueno, que tú la utilizas, es verdad que genera cosas. No está al mismo nivel que el Word, no está al mismo nivel que el Excel, pero de ahí a citarlo como cautor, como si hubiera aportado elementos clave en la investigación que estás publicando, yo no lo haría.
Otra cosa es que tú digas, venga, estoy haciendo un trabajo para el instituto y le he pedido, venga, ChatGPT, resúmeme el lazarillo de Torme y el 80% es suyo. Bueno, será otro escenario, claramente. Bueno, si obligaran a acreditar a ChatGPT en todo lo que se está haciendo últimamente, lo veríamos en deberes del colegio, en artículos de ciertos medios. Guiones de podcast.
Guiones de podcast. Me estás diciendo que has hecho el guión de este episodio con ChatGPT. No, hombre, hubiera salido mejor, Mati, porque dijimos, venga, vamos a poner solo las noticias más importantes de la semana y han salido siete páginas de guión. Está un poco terrible. Bueno, uno de los temas de la semana que no podemos saltarnos en esta sección de noticias es la demanda.
Yo creo que la primera demanda importante contra las IA's generativas de imágenes, concretamente contra Stable Diffusion de Stability Eye, Mid Journey y también, ojo, DeviantArt, que en realidad es como una plataforma de porfolio de artistas, pero culpable, según los de las demandantes, de dar acceso a estas IA's para el entrenamiento con las imágenes de los autores que publican en DeviantArt.
Y bueno, es un debate que va a estar sobre la mesa y que yo creo que en el podcast vamos a mencionar muchísimo porque realmente están los artistas en pie de guerra contra las inteligencias artificiales generadoras de arte. Yo diría que una parte de los artistas porque hay una generación también de gente que se está incorporando a crear cosas que sí está adoptando la IA para su trabajo creativo.
Hoy no puede ser nuestro gran tema, nuestro gran tema hoy va a ser opinión y Microsoft y cómo se van a pelear a muerte contra Google, que está muy excitante, pero otro gran tema en otro capítulo de monos estocásticos será, sin duda, esta disputa entre parte de los artistas y las IA generativas. En realidad, yo diría que es la segunda gran demanda, Mati, porque ya hubo una primera demanda que además la lleva el mismo Buffet de gente que demandó al Copilot de GitHub.
Copilot es esa herramienta que te ayuda mientras estás programando, te hace sugerencias, te puede llegar a programar fragmentos de códigos significativos, aumenta la productividad de los programadores al fin y acabo y se basa en código que estaba en GitHub. Los demandantes ahí estimaban que parte de lo que está haciendo este software, que es de Microsoft, es aprovechar el código con licencias libres que está publicado en los repositorios públicos de GitHub y ofrecerlo para que gente
pueda programar, pero sin obligar o sin mencionar la licencia original que establece compromisos para los nuevos programadores. Pero bueno, el caso este contra Stable Diffusion es realmente muy interesante y bueno, una cosa es el caso concreto y otra es hasta dónde va a llegar la legislación en temas de IA generativas, porque como está ahora, yo estoy seguro que no se va a quedar. Sí, a ver, está claro, por ejemplo, en el caso de, podríamos decir, el caso de Microsoft,
porque al final GitHub es de Microsoft y es una demanda contra Microsoft, alegan ellos como fair use, como un uso legal o lícito de lo que puede ser el copyright del código de la gente que publica su código o que sube su código a GitHub. Entonces, en esta demanda, que como tú dices, la lleva el mismo abogado Matthew Battery, que por cierto resume las dos demandas en una web donde viene muchísima información y donde ellos dejan muy claro los argumentos contra,
pues en este nuevo caso, estas empresas de IA. Tienen muchos argumentos a favor, pero también muchos en contra que me gustaría desgranar sin irnos demasiado en tiempo, porque al final son herramientas de collage que se basan, se entrenan con imágenes que están protegidas por la ley de propiedad intelectual y de derechos de autor, ¿no? Sí, de hecho es muy divertido en la demanda y en la web de aquí del amigo.
Por cierto, todo lo vamos a poner en nuestra web, monogistoscastico.com o en nuestro Twitter, MonosPodcast, por ahí nos podéis seguir también, ¿vale? Bueno, el caso es que se refieren a la herramienta como, lo voy a decir literalmente, una herramienta de collage complejo del siglo XXI.
Esto es como desnomina el demandante a esta difusión y, bueno, básicamente los argumentos de la demanda son muy claros. Es decir, se utilizan imágenes y obras con copyright, con obligaciones de derecho de autor, para entrenar a las IA sin consentimiento, es decir, no hubo un opt-in para que estos autores dijéramos, sí, puedes entrenar a tu IA con mi obra.
Estos autores están perdiendo dinero porque se permiten falsificaciones, obras derivadas, ¿vale? Es uno de los elementos claves en el litigio, si realmente lo que se genera con Stable Diffusion, Mid-Journey, son obras derivadas de autores vivos, cuyas obras no son de libre acceso, no son del siglo pasado. Es decir, Bangkok es de acceso público libre, tú puedes hacer obras derivadas de Bangkok sin problemas, pero de una de las demandantes, de una Carla Ortiz, que es una de las que presenta la demanda, pues no puedes.
Y todo esto, hay un beneficio económico. En el otro lado, hay también un argumentario, no digo de Stable Diffusion, que no ha hecho pública su estrategia de defensa, ni de Mid-Journey, pero bueno, vienen a decir que, oye, muchos de los, digamos, techies pro IA generativas, vienen a decir que, oye, en los modelos de lenguaje realmente no almacenan las imágenes, no están haciendo una copia de la obra de nadie.
De hecho, no puedes meter millones de imágenes en un modelo de 4 gigas, si uno usa Stable Diffusion y se baja el CPKT para jugar con el local, pues ocupa 4 gigas, ahí no están todas las imágenes de todos los creadores. Y que esto de que copiar el estilo, realmente, cuando mencionas algo al estilo de alguien, realmente ahí no hay el copyright, no se extiende tus derechos a que nadie pueda hacer algo al estilo de cómo tú haces tus creaciones.
De todas maneras, mi punto, Mati, sin alargarnos mucho, es que esto no se va a quedar así. No creo que al final, aunque haga falta reformas de la ley de propiedad intelectual, adaptaciones para esta nueva realidad tecnológica, creo que no se va a quedar la cosa en que alguien tiene la capacidad de entrenar su modelo con obras de gente que tiene sus derechos, pues te permite hacer obras clavadas muy parecidas en su estilo y cobra por ello.
Todo este arco no va a seguir así sin que los autores originales con los que se entrenan participen del negocio. Sí, es un tema muy caliente, por eso digo que seguramente hablemos largo y tendido sobre este tema en episodios del futuro. Creo que dos ideas que no hemos comentado que me parecen interesantes es que Stability AI, la empresa que desarrolla Stable Diffusion, es una de las empresas que financió Lion, que es esta organización sin ánimo de lucro alemana que hace los datasets con los que se entrenan estas IA's, y esta organización Lion
usó imágenes de DeviantArt para estrenar Stable Diffusion. Y luego la otra idea que sí que has comentado es que estas empresas, como por ejemplo Midjourney, ya están sacando un rendimiento económico, ya están cobrando por generar estas imágenes, y de hecho el creador de Midjourney, David Holtz, admitió que Midjourney se basa en un gran scrape de internet, un rascado de cosas que se ha ido encontrando en internet para entrenar los estilos que es capaz de ilustrar esta IA,
y cuando le preguntan a él, a Holtz, por la ética de esto dice, bueno, es que no hay leyes específicas sobre el tema y tendremos que ir construyendo según vaya saliendo la normativa, ¿no? Entonces, pues ahí tenemos argumentos a favor y en contra sobre un caso en el que está metida Sara Andersen, que yo creo que es la más famosa de las tres demandantes, es una demanda colectiva, se pueden unir otros artistas, que mucha gente la conocerá por sus cómics de Sara Escribels, que es, por lo
menos yo, él es la única artista que conocía. ¿Qué más noticias tenemos, Antonio? Bueno, una que podemos dar rapidito. Hay una startup española con sede en Barcelona que se llama Inventa, Inventa con N y B de Barcelona, que recibe una inversión de 40 millones de euros, lo cual no está nada mal.
Bueno, como no suelen sonar muchos de startups españolas ahora mismo en la punta de lanza de la IA mundial, yo creo que es una noticia bastante interesante. Ofrecen, sobre todo, su producto estrella son los chatbots como servicio, es decir, un chat GPT, pero integrado y adaptado a tu empresa o organización, generalmente, casi siempre para dar soporte, ¿no? Eres Iberdrola o eres Renfe, a Renfe le vendría bien a lo mejor, y quieres, pues, ofrecer servicio, ofrecer un soporte un poquito más sofisticado, más conversacional, pues inventas un proveedor de
este tipo de soluciones. Bueno, es una noticia interesante, Mati. Sí, estamos en el momento de chat GPT, supongo que vender un chatbot es ahora más fácil que antes, con una plataforma que se ha hecho tan viral y que la gente está hablando tanto de ella, me imagino que es una empresa que está en su momento para venderse, y esperemos que la web de Renfe pueda mejorar y contraten los servicios de Inventa en algún momento.
Sí, sí, sí. ¿Alguna otra noticia? Sí, bueno, tenemos una entrevista, que bueno, la hemos dejado por ahí también en nuestro Twitter, a Demis Hassabis, que es un tío súper interesante, es uno de los jefazos de DeepMind, la empresa, diría, que compró Google hace unos años, y que, bueno, a lo mejor mucha gente lo conocerá por ser el colega que salía en el documental de Netflix sobre AlphaGo, cuando consiguieron doblarle la mano al campeón mundial de Go y, digamos, consiguieron ese momento un poco Deep Blue contra Kasparov.
Bueno, el documental está muy chulo, yo lo recomiendo mucho. Él es el director de DeepMind, que luego se vendió a Google, ¿no? Sí, sí, sí, vamos, ya él es ahora mismo empleado de Google. Bueno, el caso es que la entrevista creo que tiene mucho, hablan de muchos temas, pero yo saqué como un par de titulares.
Uno es que, bueno, tienen en cocina su propio chat GPT, que se llama Sparrow, de hecho el Piper de Sparrow se publicó hace unos meses, y que, bueno, de momento, siguiendo un poco la política y un poco, no sé llamarlo, la cobardía, la prudencia, no sé cómo calificar esta estrategia de Google, pero va a estrenarlo en 2023 encerrado.
Dicen que, bueno, una de las mejoras que quieren conseguir sobre chat GPT antes de salir es que sea capaz de citar su fuente, que tenga cierta trazabilidad de, oye, cuando te contesto esto te lo digo porque lo he sacado de acá. Engaja muy bien con la política de Google de, bueno, realmente te damos enlaces y el origen del contenido. Es curioso porque esta cautela de Demis Hassabis, que ha dicho que la cultura de la industria de la IA, de publicar abiertamente sus hallazgos, puede que pronto tenga que acabar, coincide con la cautela de Sam Altman,
que es el jefe de OpenAI, repentina porque ya sabemos, por lo menos que seguimos en las noticias de la IA, sabemos que hay mucha expectación sobre GPT-4 y también se había comentado que iba a tener trillones de parámetros en comparación pues con los 200.000 millones o billones que tiene GPT-3 y en las últimas entrevistas pues es como más cauteloso y llama de hecho a la cautela diciendo que no lo van a lanzar GPT-4 hasta que puedan hacerlo de manera segura y responsable y advierte
en una entrevista que a partir de ahora OpenAI va a lanzar tecnología mucho más lentamente de lo que a la gente le gustaría y que se van a centrar en este tipo de desarrollos durante más tiempo. Menos mal que Elon Musk abandonó OpenAI hace ya tiempo porque si no habría acabado con la civilización a base de lanzar desarrollos sin pues eso, sin muchas precauciones. Sí, sí, sí, yo creo que bueno, OpenAI ha sido relativamente valiente a la hora de poner productos
en abierto y disponibles para la gente, al menos en comparación de sus iguales, pero si da la sensación de que era una organización, hablaremos un poquito más de su idiosincrasia, de cómo se configura, era una organización que hablaba con la boca muy grande, es que al final conseguiremos la inteligencia artificial general y ese es realmente el motivo por el que investigamos y lo vamos a conseguir y como esto es una amenaza por la humanidad mejor que lo hagamos nosotros
que somos muy buenos. Era un poco el rollete hace cuatro años de OpenAI. Bueno, ahora están un poco ya un poquito más prudentitos, vamos a sacar GPT-4, ya veremos. Creo que hay demasiadas expectativas realmente con GPT-4, realmente yo creo que Sanalma está un poco queriendo a lo mejor enfriar también un poco todo ese hiper hype creado alrededor de un servicio que bueno, que todavía no lo hemos visto.
Con GPT-3 ya estamos viendo pues un montón de implementaciones y de aplicaciones en el mundo real y hace poco saltó la noticia sorprendente de que CNET, esta web de tecnología que es una de las que tiene más tráfico estadounidense, estaba publicando artículos creados con chat GPT o con GPT-3 mejor dicho, luego editados por algún redactor humano para corregir cualquier error.
Todo esto se hacía pues básicamente para posicionar artículos que no eran de noticias sino de explainers y contestar preguntas de una forma barata, rápida y masiva. Bueno, está aquí ya, está aquí ya una realidad que se anticipaba con todo lo que es IA generativa, o sea de imágenes, de texto, de vídeo, que es el crecimiento exponencial que puede haber en la creación de contenidos de un nivel bajo, medio bajo, gracias al uso de inteligencia artificial.
El caso de CNET es muy llamativo porque es una máquina una marca reputada, establecida para hacer un medio digital pues ya con mucho bagaje, pero bueno tenemos aquí, por ejemplo, yo tengo recopilado Bankrates, que es un servicio estadounidense, también pues está creando contenidos. Tengo una historia muy curiosa, me pondré muy compartido por ahí por las notas, de un artículo que yo había leído y que había compartido en una de mis newsletters, en error 500, que era el de bigtechnology.com, que básicamente
escribió un artículo diciendo, bueno, esto de la economía de los creadores es un gran hype que va a explotar por esto, por lo otro. Un artículo interesante, un punto de vista un poco extremo, pero bueno, interesante. Y a los tres días, oye, salta el colega en la misma newsletter y dice, hay alguien por ahí que ha usado una IA para hacer un plagio de mi anterior artículo.
Lo muestra y realmente lo que lo que enseña es que esto que siempre ha existido en internet, el de, oye, voy a copiar todos los artículos de gizmodo.com, de Matías, y lo pongo en otra web. A veces ha habido, y le pongo access, y si llega algo por Google, como el coste marginal de copiar a Matías es muy bajo, pues algo me llevo.
Hay gente que lo ha hecho más sofisticado, el tipo, oye, cojo los artículos de Matías de gizmodo.com y los traduzco al ruso. Como en Rusia no existe gizmodo.com, pues tengo más posibilidades de, en la búsqueda en ruso, aparecer ahí. Luego había gente que mete ciertos cambios, un poquito para que no lo deteste Google como copiado, y ahora llegamos a un nivel superior, que es, oye, uso un GPT-3, le digo, coge este artículo y escríbemelo como para un público menos especializado, o escríbemelo, pero extendiéndolo 500 palabras más.
Eso que es también la herramienta de OpenAI, que es resumir, puede ser usado realmente para hacer contenidos derivados del contenido de otros, y es mucho más difícil de detectar. Claro, porque en principio Google penaliza, no es que penalice concretamente los artículos generados con IA, sino que penaliza los artículos generados principalmente para obtener tráfico orgánico de las búsquedas en Google.
Y el problema ahora es que ahora tiene mucho más complicado detectar si son o no artículos generados en masa para este tipo de tráfico orgánico. Entonces, bueno, supongo que será una lucha, una caza del gato y el ratón, ¿no? Algo así en los próximos meses, entre Google y estos expertos en SEO, que ahora tienen un nuevo juguete. Sí, mira, hay un caso que lo compartía Lucas Lopatín, que es un bootstrapper, emprendedor del growth hacking, el SEO, bueno, está ahí.
Y lo compartió en Twitter y decía, mira, hemos lanzado 10 sitios nuevos con 500 artículos generados por GPT-3. Y así nos ha ido en tráfico. Y la curva de lo que él dice que son la mayoría de sus webs es que empieza un pico de crecimiento, de que Google los encuentra y empieza a darle tráfico. Y según él, hay un momento dado en el que el propio Google se da cuenta de que es contenido generado por IA y, entre comillas, los mata.
Es decir, deja de enviarte tráfico. Bueno, digamos que el experimento de Lopatín es un poco con lo mínimo. Es decir, investiga las keywords, gerárame un artículo con estas keywords para posicionar que va a haber estrategias más sofisticadas y prolentes. Habrá gente que puede encontrar su hueco en ese mundillo que es el de crear proyectos muy de nicho que pasen desapercibidos y tienen unas cuantas perras al final de mes.
A ver si yo puedo aprovecharlo también para trabajar menos, que es uno de mis objetivos vitales. Pasamos al tema principal de la semana, que como adelantábamos es, bueno, podríamos decir la inversión de Microsoft en OpenAI, pero ya habían invertido, solo que ahora pues han tirado la casa por la ventana. Cómo puede afectar esto al futuro de Microsoft como proveedor de servicios y también a Google como principal actor en este mercado, que de repente puede que le esté viendo las orejas al lobo, los colmillos al lobo.
Ya no me sé bien las expresiones. Necesito que Chad GPT me recuerde cómo sé expresiones españolas. ¿Qué está pasando, Antonio? Bueno, está el tema calentito, emocionante y esto, bueno, yo creo que es el Shakira contra Piqué de la inteligencia artificial actualmente, Mati. Es una cosa que da mucho que hablar. Vamos por pasos.
Lo primero, lo que sabemos seguro, porque hay anuncios oficiales, es que Microsoft ha dicho que va a integrar Chad GPT en Bing y que en principio iban a llegar a marzo 2023 para esto. Una integración relativamente rápida y además ha dicho que acabará integrando Chad GPT en el resto de servicios y software de la empresa. Todo lo de Office, en Outlook, en Word, pero también en Teams.
Ante esto y ante la multitud de mensajes de gente diciendo, he estado probando y me resulta más satisfactorio buscar o preguntar a Chad GPT que buscar en Google. Aquí se ha aliado algo de lo que hay mucha gente que tiene muchas ganas, porque gusta mucho esa narrativa de vamos a destronar al líder. Esto en los 90 y en los 2000 era vamos a destronar a Microsoft y ahora pues en este caso vamos a destronar a Google.
Un artículo del New York Times decía que se ha activado el código rojo en Google. Están ya en medio de una amenaza fuerte y claro, uno puede decir aquí se están pasando de tener ganas de beef entre Google y Microsoft, pero es que el propio creador de Gmail en Twitter dijo algo que voy a intentar decir literal, es Paul Bukate y dice Google está a un año o dos de la disrupción.
Es decir, ya no es cualquier papanata con Twitter que podamos poner algo en que nos flipemos. Este tío es el creador de Gmail y ha estado ahí dentro. Dos años de la disrupción, pero a favor o en contra, porque Google también tiene productos de IA que pueden disruptir el mercado.
Claro, el tema es que hay un poco de sensación aquí que es como en el MEPE, el MEPE de chat y el Virgin. Pues el chat en IA ahora mismo es Microsoft porque va a tope, va a integrar, va a sacar, invierte en OpenAI y el Virgin es Google porque tiene muchos modelos pero me da miedo enseñarlo, me da miedo que la gente lo use a ver si hay algún escándalo. En general las grandes corporaciones son burocráticas, son miedosas y Google está siendo muy mediosa porque además hemos empezado casi el podcast con eso.
La posibilidad de que te demanden cuando eres un gigante como Google, sabes que tienes mucho dinero, es muy fuerte. Pero esta misma mañana, antes de que creáramos el podcast, Mati, otro anuncio de Microsoft. Digamos en la API de Azure de su plataforma como servicio, pues van a abrirla ya a que cualquiera puede usarla y que puedas acceder a GPT 3.5, que es el avance sobre GPT 3 con el que se estrenó chatGPT con DALI 2 y también con chatGPT.
Es decir, van a ir muy fuertes a la hora de posicionarse como si quieres entrar ya en inteligencia artificial tienes que ser con nosotros porque los demás no se atreven. Es verdad que de nuevo hay una estrella con la prudencia. Cuando quieras darte de alta para usar chatGPT tienes que explicarle primero a Microsoft o a OpenAI, según por dónde vayas, para qué vas a usar, cuál va a ser tu caso de uso.
Lo estudiarán y lo aprobarán o no. Pero bueno, el caso es que ahora mismo hay un contraste muy fuerte entre la agresividad de Microsoft y la prudencia extrema de Google, porque hay dos debates ahí. Uno es si Google tiene herramientas y modelos para contraatacar y si realmente chatGPT es bueno para búsqueda, que es algo que podemos discutir. Claro, es que tú de hecho sacaste hace muy poco una especie de opinión en Error 500 sobre por qué chatGPT como buscador no lo veías tan claro.
El propio nombre es GPT donde la P es de pre-trained, pre-entrenado con unos datos que no está añadiendo continuamente porque no tiene conexión a internet y porque no funciona así. No es que continuamente esté ampliando su información, entrenando con nueva información. Y donde la T es de transformer, que tampoco está diseñado un transformer para la búsqueda.
Entonces está la duda, y planteabas tú la duda, de cómo se podía integrar esto en un buscador. Es que lo has clavado, Mati, porque el GPT entero te dice, o en mi opinión informa, de que Google está en mucha mejor posición de lo que el debate actual sobre Microsoft, Bing y chatGPT indica. Lo has dicho muy bien. Es decir, el pre-trained es que no está conectado a internet, la búsqueda es muy dependiente de la actualización de la información, del tiempo real.
No puedes competir en búsqueda si no tienes, no estás indexando actualmente internet. Por tanto, no parece muy apropiado. La G de generativo también nos dice algo, es decir, no está pensado para la búsqueda, está buscado para crear algo nuevo. Es decir, realmente lo que hace el GPT es inventarse. Entonces tenemos ese problema de las alucinaciones, de que te responde con convencimiento cosas que se están inventando, de que no tiene trazabilidad, que no te dice dónde lo saca y sobre todo que no
sabe que no sabe y no sabe cuando sí sabe, lo cual es un problema para la búsqueda. Y la T de transformer es que aquí hay una cosa alucinante. Es decir, el transformer es una gran innovación sobre el mundo del deep learning, porque otro día hablaremos de él, pero al final la gran innovación que introdujo fue que no le entraban palabra a palabra los textos, sino que cogían grandes bloques, con lo cual era más fácil de alguna manera para este procesamiento de lenguaje
natural a la hora de entender o de trabajar con los contextos en los que se dicen las palabras. Pero es que el transformer se inventó en Google. Es decir, tú coges el paper, los investigadores eran empleados de Google. Es decir, estás jugando a un juego que inventó Google. Es como decir, le voy a ganar a Vigo a las luces de Navidad o le voy a ganar a Madrid a tener las terrazas abiertas. No puedes porque en algún momento dado convertirán toda la ciudad en una gran terraza y te vencerán.
Google tiene Landa, tiene Pants, el paper más importante del año pasado, el más importante de 2028, es de Google. Han avanzado mucho más que OpenAI y mucho más que Microsoft en tener un hardware propio orientado a la IA, basado en el Tensor, que es el Tensor Processing Unit, las TPUs de Google.
Es decir, Google tiene mucho más datos que los que tienen OpenAI y Microsoft. Tienen la marca del buscador. Es decir, se pueden dormir, pueden colapsar en una locura burocrática y de cobardía, y que de repente le adelanten. Bueno, yo creo que le pueden adelantar un poquito. Puede ser Microsoft más agresiva, más valiente, tiene menos que perder en búsqueda, porque no es ni es un gran negocio, ni tienen una cuota de mercado tan grande.
Pero a la hora de tener armas para competir en IA y para competir en integración de la IA en la búsqueda, pues Google está mejor. Es verdad que si vamos a un mundo en el que es una IA la que te responde las consultas de búsqueda, hay un dilema del innovador para Google.
Es decir, su duda es, con el listado de resultados tengo un punto de un negocio muy bueno, porque hay unos resultados orgánicos y otros resultados de pago. Cuando esto se pase a otro paradigma en el que realmente una IA te responde todo, tengo que inventar un modelo de negocio ahí. Entonces, es un poco el dilema del innovador. Claro, y con esto podemos hacer la contra a todo lo que comentabas, porque no hemos hablado de ese reportaje, el New York Times, en el que supuestamente es un derpichay dentro de Google,
pues dio ese código rojo de vamos a ver en qué acaba esto, porque al final Microsoft puede llamar mucho la atención si integra chat GPT o algo parecido en Bing, que Bing es un actor completamente secundario en comparación con Google. Pero si de repente la gente, que ya hay una fatiga importante con los resultados de Google, yo personalmente ya no veo a Google como una herramienta tan útil como lo era en el pasado.
Cada vez es cierto que los snippets ayudan a contestar preguntas rápidas que puedas hacerte, al igual que chat GPT, pero chat GPT obviamente es mucho más profundo el nivel de respuestas a las que puede llegar, pero lo que son los enlaces orgánicos que te presenta la búsqueda de Google en general son artículos de muy baja calidad o de empresas que han logrado posicionar ciertas keywords y no es información útil.
Yo si quiero saber algo sobre un televisor que me quiero comprar tengo que ir directamente a una fuente que yo considere fiable. Tengo que poner el Wirecutter, tengo que irme a Reddit, tengo que saber que me voy a poder fiar de lo que se está comentando porque no sé, por ejemplo quiero irme de viaje, pues la mayoría de los artículos que voy a encontrar son gente que va a acabar intentándome vender una agencia de cualquier cosa, de alquiler de coches, de guías, etcétera.
Entonces esa falta, esa decadencia de la calidad en los resultados de Google por el juego que están haciendo la gente del SEO puede hacer que Microsoft ya ve la atención y de ahí el código rojo de Google de vamos a tener precaución porque tenemos muchos modelos entrenados como Lambda del que hablábamos o del que se oía hablar más por temas un poco turbios y polémicos o como el chinchilla que has mencionado, etcétera, pero vamos a ver
cómo lo vamos implementando y la cautela se debe a lo que decías de que ChatGPT te puede estar mintiendo y lo hace con una seriedad y una naturalidad que no te estás dando cuenta y Google no se puede permitir eso como imagen de marca meterlo en el buscador. De hecho vamos, el mundo de las búsquedas es un sector relativamente conservador pero por razones, por motivos, tienen motivos para ser conservadores porque es una cosa de la fiabilidad y del acceso a la
información que es un tema frágil y es delicado. Yo tengo curiosidad por ver cómo Microsoft va a integrarlo en Bing porque no puedes responder a todo con ChatGPT. Tienes que seleccionar muy bien en qué contextos puedes integrar ChatGPT y lo segundo es que creo que no va a ser como, no sé si has probado las extensiones de Chrome.
Hay una extensión de Chrome que tú dices que cada vez que hago una búsqueda en Google que ChatGPT me responda lo mismo. Yo creo que como la interacción con ChatGPT no es la lista de Keywords con la que solemos buscar en Google, no suele dar resultados muy buenos. En mi experiencia al menos no es demasiado favorable. Creo que necesitarán una integración más sofisticada.
Yo creo que va a ser algo relativamente prudente a la hora de integrar que es, mira, sabemos de estos contextos en los que ChatGPT da respuestas más o menos defendibles, potables y ChatGPT solo aparece en esos contextos y el prompt se lo tocamos. No le enchufamos directamente la búsqueda del usuario, sino que habrá cierta complementariedad con el prompt para convertir esa búsqueda en una pregunta que se acomode más a la experiencia de chateo.
Hay una gente que se llama Perplexity con X y con Y, la última griega, la primera latina, que han hecho un primer intento y que además tira de Bing. Integran ChatGPT, integran Bing y han jugado un poco y el resultado es curioso. No es tan malo. Creo que por ahí se puede empezar a investigar. Y para mí el gran dilema de Google es si todo este corriente y todo este movimiento te fuerza a que cada vez tengas que dar más respuestas directas y menos lista de enlaces.
Si te fuerzan a ir a eso, pues sí que te pueden hacer daño en tu modelo de negocio del buscador. Y también no sé hasta qué punto es conveniente que toda la información que busquemos en internet sea una respuesta generada por una IA en lugar de una serie de enlaces, como decías tú en tu artículo, de diferentes puntos de vista. Noticias me imagino que seguirán siendo un departamento aparte en las búsquedas de internet, pero cuando al final, cuando buscas algo y te está contestando siempre la misma IA, pues a saber cómo han entrenado esa IA o la censura
que le han ido metiendo artificial para evitar cierto tipo de respuestas inadecuadas. Sí, sí. Sobre todo porque esa IA se ha cocinado desde una empresa con unos intereses y bajo, digamos, los parámetros culturales ideológicos dominantes en la sociedad en la que está esa empresa. Básicamente, las culturas y la ideología dominante en Estados Unidos.
Y eso tiene muchísimo peso a la hora de qué tipo de respuestas te va a dar. Si con ChatGPT vamos a referencias culturales más locales o más propias de donde estamos, vemos que difícilmente se maneja con ellas y sin embargo, digamos, las referencias culturales estadounidenses están muy presentes. Aparte de eso de qué tema censura, qué colectivo protege, bueno, aquí tenemos otro debate.
El punto es que va a haber mucha ideología y va a haber mucha política, mucha visión cultural del mundo codificada en modelos largos de lenguaje. Y esto va a estar ahí y por lo tanto, como tú dices, yo lo pienso así, es mala idea que las respuestas a nuestras búsquedas o que la centralización en la inteligencia artificial nos lleve a que la mayoría de las respuestas estén dadas desde un único sitio. Bueno, volviendo a la noticia de la semana, no sé si te acuerdas cuando nos reíamos de Microsoft,
creo que fue en 2016, por la IA esta que lanzó en Twitter, que era y se entrenaba con los propios mensajes en Twitter y acabó siendo fascista y siendo apologista de Hitler y tuvieron que cerrarla. Bueno, nos reíamos de Microsoft entonces, pero lo resume muy bien un mensaje del LinkedIn que vamos a dejar enlazado, que es que en 2019 Microsoft invierte mil millones de dólares en OpenAI, luego pues compra GitHub, lanza Copilot, veremos en qué acaba esa demanda, también integra
DALI en el creador de imágenes de Bing, impulsa también Bali, que es un generador de voces de inteligencia artificial en base a una muestra que puede ser de tres segundos y ya genera tu propia voz. Va a integrar GPT en Excel, Word, PowerPoint, Outlook, veremos cómo lo hace, puede ser interesante.
Ya estamos acostumbrados en Gmail, por ejemplo, a que se autocomplete lo que estamos escribiendo o a las respuestas inteligentes. Me imagino que en Word puede ser un autocompletado similar, en Excel te ayuda a programar un macro o algo así, me imagino que por ahí irán los tiros. Luego el tema de Bing del que estamos hablando, impulsado en cierta manera por GPT o por chat GPT, veremos cómo acaba eso y cómo afecta a Google.
Y ahora la noticia de la semana es la inversión de 10.000 millones de dólares por un 49% de OpenAI, pero un 75% de los beneficios. ¿Cómo funciona exactamente el trato? Bueno, de momento lo que tenemos son rumores, filtraciones de cómo podría ser. No ha trascendido un poco los detalles reales concretos contrastados, así que tenemos que trabajar sobre estos anticipos, esos rumores.
Bueno, como tú decías, Microsoft ya es uno de los inversores en OpenAI que tiene una historia curiosa, porque empezó como una organización sin ánimo de lucro, muy idealista, que filántropos nos den dinero para investigar esto de la IA, de repente empiezan a alquilar y a comprar tarjetas gráficas, se dan cuenta de que no iban a ir muy lejos con donaciones y si querían más dinero, pues los inversores le pedían otro tipo de acuerdos de propiedad y de búsqueda de beneficios.
La parte filantrópica se hizo muy chiquitita en OpenAI. Bueno, lo que se plantea ahora con Microsoft sería el de invertir 10 billones, claro, si lo decimos en numeración americana 10 billions, para nosotros son 10.000 millones de dólares, a una valoración de 29.000 millones, de 29 billions. Con eso Microsoft se haría con el 49% de OpenAI, sumando el porcentaje que ya tienen a esta inversión, pero se quedarían con el 75% del beneficio futuro de OpenAI hasta recuperar estos 10.000 millones, después se
quedaría en adelante al 49%, pero hay una cosa interesante más, que tal como lo tienen planteado la inversión en OpenAI, tienen capado el máximo beneficio que pueden obtener los inversores y éste son 100 veces las inversiones realizadas. Pues ahí, haciendo algunos números, nos saldría que OpenAI debería llegar hasta 190 billions de beneficios para poder satisfacer el retorno de la inversión de Microsoft, bajo esta lógica de las 100 veces máximo y después, una vez que se cumpliera
esto de los 100 veces el retorno de la inversión, se volvería la propiedad a la organización sin ánimo de lucro. Claro, yo a lo que tenía pensado Matías, proponerte algo parecido para nuestro podcast, para los Estocásticos, una vez generados 190 billions, 190.000 millones de beneficios, volver a ser una ONG.
Nos declaramos ONG, no sé cómo lo ves, te has sorprendido seguramente. Pues sí, muy curioso esto de ser una ONG que temporalmente está esperando ganar 190.000 millones de dólares. O sea que, bueno, mucha confianza también en OpenAI, que Microsoft espera que sea muy muy grande y por eso ha invertido tanto dinero. Y mucha confianza en que vayan a poder competir contra, pues eso, actores mejor posicionados como Google.
Te diría que el alcalde de Vigo tiene su propio Google, que es el alcalde de Málaga. El alcalde de Málaga también apuesta muy fuerte por las luces de Navidad. Así que, aunque Satya Nadella, el CEO de Microsoft, sea visto como el Michael Jordan de los CEOs de las grandes tecnológicas, tiene un alcalde de Málaga, mirándolo de cerca, que es un derpichai, que veremos cómo reacciona y a ver si van abriendo el Lambda para que podamos probarlo más a fondo.
Tú eres muy pro Málaga, no tanto porque vivas ahora en Málaga, sino porque el alcalde se hizo una foto contigo, ¿no, Mati? El alcalde es mi amigo personal, se hizo una foto conmigo, me siguió en Twitter y, por supuesto, que las luces de Málaga, aunque a veces sean un poco horteras, son mejores que las de Vigo. No, no, no.
Yo estoy a favor del barroquismo de las luces de Navidad, Mati. Tiene que ver exuberancia, tiene que ver espectáculo, tiene que ver ahí… Yo creo que ahí la contención y el minimalismo no casa bien con las luces de Navidad. Cada estética tiene su… Voy a ver con mi hermano la proyección esta que hacen, el mapping que hacen en la fachada de la catedral y mi hermano que tiene 11 años me dijo, imagínate que vives en la era medieval y construyes una catedral para que cientos de años más tarde estén proyectando payasos y cosas raras en la
fachada. El caso es que, bueno, por cerrar nuestro tema con Microsoft y Google, yo creo que Google está mucho mejor de lo que ahora mismo el debate en el mundo tecnológico está señalando, está situando. Yo creo que Microsoft le está haciendo un poco el truco a OpenAI. No sé quién está engañando a quién.
No van a engañar, es una palabra fea, pero de alguna manera la pasta que pone Microsoft es como decir, esta gente de verdad va a ser la inteligencia artificial general, va a ser la repanocha, se va a usar en todos lados para todo y por lo tanto aquí es el negocio del siglo, no lo puedo perder. Por otro lado, OpenAI, yo no los veo tan fuertes, tan convencidos en su discurso, en sus mensajes como antaño.
Por lo tanto, lo mismo ahí Microsoft está jugándosela. Microsoft ha jugado sus cartas como Shakira con la canción. Bueno, Piqué también ha jugado sus cartas presentándose en un Twingo, así que el marketing es muy importante en este tipo de debates y en este tipo de guerras abiertas. Yo creo que seguiremos hablando de esta guerra abierta durante muchos episodios más, porque este ha sido sólo el primer episodio de Monos Estocásticos.
¿Te lo has pasado bien, Antonio? Bueno, ha estado divertidísimo, divertidísimo, Mati, y más que lo va a estar. Espero que al menos haya estado entretenido este repaso a las noticias de la semana. Volvemos la semana que viene con más noticias y con algún tema destacado. Podéis escucharnos en todas las plataformas, en monosestocásticos.com y también seguirnos en Twitter en arroba monospodcast.
Somos Antonio Tiz y Matías Zavia y nos despedimos hasta la semana que viene. Chau, chau, chau.