monosestocasticos.com
0:00 Escenas de un matrimonio con IA
6:40 Sam Altman y Satya Nadella se hacen la cama mutuamente
15:20 Larry Page quiere fabricar cosas con inteligencia artificial
19:12 Texto a imagen con Veo 2 en Freepik
22:58 Investigamos profundamente con Deep Research
33:28 Manus es un nuevo nivel de agente inteligente
45:30 Ahora sí, el buscador de Google va full IA
59:01 Mozilla cambia de opinión sobre tus datos
1:03:13 Puerta grande o enfermería
Patrocinador: Freepik lo ha vuelto a hacer. Ha sido la primera empresa en incorporar la herramienta de texto a imagen de Veo 2 de Google en su suite de herramientas de IA. La mejor IA generadora de vídeo, ahora con mucho más control para los usuarios de la empresa de IA más potente, hecha en Málaga freepik.es/pikaso
monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Sacamos un episodio nuevo cada jueves. Puedes seguirnos en YouTube, LinkedIn y X. Más enlaces en cuonda.com/monos-estocasticos/links
Transcripción
Matías S. Zavia: A todos, los monos estocásticos, bienvenidos al podcast de inteligencia artificial favorito del gorro de Chema Alonso, a quien mandamos un afectuoso saludo desde aquí, Antonio Ortiz, ¿cómo estás?
Antonio Ortiz: Matti, la inteligencia artificial está llegando a donde no esperábamos. De repente, en relaciones de pareja, en momentos importantes de la convivencia, está interviniendo y de una manera preocupante, Matías. Te voy a dar un ejemplo para que veas a la situación a la que estamos viéndonos abocados. De repente, yo tenía una conversación con mi esposa, con con mi mujer.
Matías S. Zavia: Sí.
Antonio Ortiz: En la en la que, pues, bueno, estamos porfiando sobre cierto argumento. Ella me hizo una defensa de que las naranjas que que habíamos traído a casa eran naranjas guachintonas. Y yo le dije, por favor, cariño, no te inventes expresiones nuevas, ¿no? No inventes cosas que no existen, ¿de dónde has sacado, de dónde has sacado eso? Eso nunca se ha dicho en Málaga y eso no es no es correcto, y ella defendía que era un localismo, un una suerte de expresión popular para cierto tipo de de cítrico de de naranja, ¿no?
Entonces, eso en el mundo del siglo veinte, en la vida antes de la inteligencia artificial hubiera quedado ahí Batías, ¿no? No no hubiera no hubiera escalado más. Pero, de repente, aparece en mi despacho, móvil en mano, y me pone delante de la cara a ChaGPT explicando que es correcto que existía la expresión naranja washintone y que eso es un un un localismo malagueño que tiene que tiene décadas, sino siglos de antigüedad. Mathi, yo creo que, no es por la conversación en concreto, ¿no? Pero yo creo que la inteligencia artificial puede estar dándonos aquí una pista de la obsolescencia del hombre, no del hombre como el género humano, sino el género masculino dentro de el homo sapien sapiens.
Te voy a decir por qué. Porque mira, si al hombre en su psique masculina, en su caver mind, le quitas la sobreconfianza en su intelecto y en que sabe más, aunque no lo sepa, ¿qué nos queda, Matías? ¿Qué nos queda? Nos queda, a lo mejor, el trabajo físico, lo más duro, pues también te digo una cosa, los robots de Unitry, chinos, estos que aparecieron en el en el baile, en el baile de de de fin de del nuevo año chino, fíjate fíjate cómo bailaban y fíjate cómo los chinos plantean el futuro del siglo veintiuno, solo mujeres y robots, ¿dónde están los hombres? No hay, es decir, los hombres ya si si pierden esta sobreconfianza en su capacidad intelectual y quedan derrotados.
Si, además, en los bailecillas más importantes y en cargar y descargar cosas también hemos sido superados, ¿qué nos queda? Obsolescencia, tías, obsolescencia.
Matías S. Zavia: No lo había visto desde el prisma chino, es cierto que ver a un montón de mujeres bailando con robots que están articuladas de una forma bastante masculina, por cierto, da esa sensación, ¿no? A lo mejor China está buscando solucionar sus problemas demográficos de esta forma, ¿no? Y es que yo veo muchas pistas en este sentido de lo que estás comentando. El vídeo este que compartiste en arroba monos podcast de una chica llorando mientras hablaba con Chag GPT, porque Chag GPT, pues se acordaba de una anécdota que ella le había contado, ¿no? Porque lo había almacenado en memoria.
Entonces, veo al género femenino como predispuesto a sustituirnos por por inteligencias artificiales, y creo que los hombres no nos estamos dando cuenta de esto, porque el otro día en el box estábamos tú delante. De hecho, eras tú el que estaba enseñando como un profeta a la gente las ventajas del modo de voz avanzado de chat GPT, ¿no? Y nuestro monitor, nuestro entrenador, Víctor, tuvo un take que todavía resuena en mi cabeza. Esto es como hablar con tu mujer, ¿no? Para esto hablo con mi mujer, porque al final tú le estabas preguntando unos temas de nutrición y el chajepete te decía, no, es mejor que comas esto otro, que es más nutritivo, que es más saludable, y Víctor contestó, pues para eso tengo a mi mujer.
Cuidado, Víctor, porque se empieza así y a lo mejor, acabamos siendo sustituidos por robots bailarines, como está pasando ya en China.
Antonio Ortiz: Sí, yo, mira, yo cuando cuando Bruno era pequeño, yo dije, voy a aprovechar la etapa dos a cinco años para sentar unas bases de de su de su mentalidad para para la vida adulta. Y yo le dije, Bruno, mira, ¿no? Tenía cuatro años, estamos allí, ¿no? Jugando a los Pinny Pong, y le dije, Bruno, el siglo veintiuno es el siglo de las mujeres y de los chinos. Tú no te ha tocado ser mujer, de momento, a ver si se puede elegir en el futuro, pero parece que no.
Y Chino tampoco eres, así que vas a tener que espabilar en la vida. Y yo lo veo clarísimo, mira, el otro día mi hija, Daniela, que si si aparece un niño en el podcast y la otra no, se se pelean, ¿no? Quedan como intentes igual, tengo que tengo que hablar de Daniela. Me ganó otro debate sobre Bad Bunny y Elvis Crespo, Matthew. ¿Por qué?
Porque ambos tenían versiones de las mismas de las mismas canciones, ¿vale? Y yo, claro, le dije a Daniela, obviamente, Bad Bunny está versionando a Elvis Crespo, que es el músico de de referencia bachatero ahí, ¿no? Con con clásicazos, ¿no? Y ella me dijo, no, no puede ser, porque en la en la canción cita viendo TikToks, eso no lo diría Elvis Crespo, eso es de Bad Bunny. Y y, de nuevo, consultando la inteligencia artificial, jaque mate, mate.
De nuevo, fui derrotado, el el el papel de padre Saviondo ha quedado ya, he quedado destronado de esa de esa posición, y y con la inteligencia artificial es que sobramos, está clarísimo.
Matías S. Zavia: Sí. Pero, bueno, vamos a seguir hablando de matrimoniadas, porque hay un divorcio que se está viendo claro. Tienen un acuerdo hasta dos mil treinta, pero la relación de OpenAI y Microsoft tiene ya avisos de divorcio inminente y de que cada uno está haciendo los planes por separado para quedarse uno con el coche, el otro con la casa. Mira, me recuerda un poco, ya que hablábamos del vídeo de la de la chica esta que se enamoró de ChatGPT, a la respuesta que nos dio Dot CSV en el tuit, que puso todo muy bien, ¿no? Esta chica está impresionada con ChatGPT, pero que le pregunte si ochenta y cuatro coma cuatro es mayor que nueve coma once, porque al final, con los decimales parece que se lía un poco todavía el modelo de lenguaje.
Entonces, a mí esto me recordó un poco a Sam Alman versus Attianadela, porque Sam Alman dice, GPT cuatro punto cinco se siente ágil, ¿no? Esto es como hablar con una persona ya. Satia Ana Dela es un poco más Carlos Santana y quiere que las cosas se midan más objetivamente, pero no es la única de las muchas discusiones que están teniendo dentro de OpenAI y de Microsoft para ese futurible divorcio.
Antonio Ortiz: Y te
Matías S. Zavia: voy a contar una.
Antonio Ortiz: OpenAI,
Matías S. Zavia: se lo leo a Javier Pastor, acaba de firmar un contrato de once mil novecientos millones de dólares con una empresa que se llama CorWeave, ¿vale? ¿Qué es CorWeave? Pues tienen data centers treinta y dos centros de datos con doscientas cincuenta mil gráficas de Nvidia especializadas en IA. Hicieron mucho dinero con cripto y han invertido en esto, tienen los chips de la arquitectura Blackwell nueva incluida, y van a salir a bolsa. Entonces, se vino un capital importante.
Previamente cierran este acuerdo con OpenAI, que se va a beneficiar de tener esos servidores, pero ¿qué pasa? Que OpenAI ya estaba con Microsoft en los centros de datos de Azure y tenían ese acuerdo. Pero parece que esto permite que cada uno vaya independizándose.
Antonio Ortiz: Esto es como, en los divorcios cada uno está viendo dónde dónde viviremos solitos, ahora que ya no pipitemos juntos. Pues, Microsoft, hasta ahora, tiene tiene dos vertientes. Uno, como plataforma, como Azure, pues es agnóstica, tiene los modelos de OpenAI, pero tiene modelos de muchos otros desarrolladores. Entonces, tú ahí en Microsoft puedes ejecutar un Jama o puedes ejecutar un Mistral, ¿no? Cualquier cualquier proveedor que quiera que quiera estar en Azure puede estar.
Entonces, esta esta fidelidad, entre comillas, es desigual. Microsoft dice, claro, es que yo soy el que ha dado los miles de millones, pues yo puedo ir por libre, pero OpenAI no. El caso es que para sus productos, es decir, para Copilot, sobre todo, o para todo lo que hace en Github, ¿no? Hasta ahora, si no al cien por cien, en un altísimo porcentaje ha dependido y utilizado los modelos de OpenAI. Esto, de alguna manera, le sitúa en una alta dependencia.
Como vimos en Alexa Plus, en el capítulo anterior, si tú te casas con un modelo, pues ese modelo tendrá momentos o esa familia de modelos o ese desarrollo de modelo tendrá momentos en lo que es el mejor y, digamos, casos de uso para los que es el mejor, pero puede ser que haya otro momento u otros casos de uso en los que se ha superado. Hasta ahora, Copilot a mí me está dando las vibras curiosas porque siempre decían, utilizamos los últimos modelos de OpenAI, pero el nivel de la respuesta, de las calidades, etcétera, en general, yo lo he venido sintiendo por debajo de lo que tenía uno en la aplicación de de ChatGPT. El caso es que Microsoft fichó a a a al amigo Mustafa Zuleiman, que es, pues, básicamente, un un totem, un histórico del del sector y, claro, con esto ya, de alguna manera, se indicaba que Microsoft empezaba una línea, pues, si no completamente independiente, sí más más, con con mucha prioridad, también para los modelos propios. ¿Qué es lo que hemos visto estar ahora en Microsoft? Pues, muchos mucha investigación que han que han compartido, la familia de modelos fee, en las que ellos han hecho muchas pruebas de concepto interesantes para modelos pequeñitos y modelos entrenados con conceptos sintético, pero lo que ha sacado de information y lo que parece que está dando a entender el propio Suleman, es que Microsoft va a ir a los propios modelos razonadores.
De alguna manera, con esto podrían plantearse la autonomía o la independencia, o al menos tener una alternativa propia a los modelos de OpenAI.
Matías S. Zavia: Fíjate, yo lo que sientes tú con Copilot ya lo habías sentido porque, por ejemplo, ¿qué sería más cómodo que desde el propio navegador y yo uso Edge, resumir los artículos que estás leyendo con la side bar que tiene Copilot integrada. Pues sería lo más cómodo y lo natural, pero sobre todo a partir de GPT cuatro punto cinco, que ya me ha agotado la cuota que tenía, resumir texto con ChatGPT, Yo noto un nivel de alucinaciones y, pues, una precisión en los resúmenes, y y al final, una capacidad de síntesis mejor que con Copilot. Y eso, que Microsoft siempre viene integrando los modelos más recientes y acaban de de implementar gratis en Copilot para todos los usuarios el O tres mini high, el O tres mini high, que es el modelo más caro que pueden usar ahora mismo los usuarios de ChatGPT, que esto viene después de muchos lanzamientos como el el Think Deeper de Microsoft, que también tiene que ver con modelos razonadores de OpenAI por detrás. Y al final Copilot tiene las de ganar por estar integrado en el sistema operativo, pero no lo sé, no lo sé si
Antonio Ortiz: De todas maneras, yo creo que el punto de fricción más fuerte, Matti, va a estar en lo que tú has dicho antes, en el tema de la AGE. Recordemos, lo que salió del acuerdo entre Microsoft y Oppininai es que había una suerte de exclusividad en la que los modelos de OpenAI estarían disponibles en exclusiva, que no sé con qué subterfugios se pueden sacar salir para lo de corewave, este que has comentado, pero, bueno, el punto era que la exclusividad tenía un límite de tiempo o si se alcanzaba la AGI, si se conseguiría una inteligencia artificial general de nivel humano, como OpenAI era una empresa dentro de Ops o o o sometida a una organización sin ánimo de lucro que buscaba el bien de la humanidad blablablá, pues decían, claro, si se consigue la AGI, esto no puede ser exclusiva de Microsoft, tiene que no puede ser monopolio de una empresa la AGI. Por lo tanto, entonces, se rompería la exclusividad de los modelos de OpenAI con Microsoft, una vez alcanzado la AGI. ¿Por qué el Suavón de Sant Allman dice cosas como, uf, cuatro o cinco, se siente muy ágil ya, esto, casi estamos, casi, ¿no?
Sant Altman es un poco el el niño que empiezas un viaje de de de seis horas en coche, arrancas, sales del parking, llevas dos kilómetros y dices, queda mucho. Entonces, ese niño es es San Altman, es un poco de una manera subabona diciendo, ya estamos llegando, esto esto está hecho, ¿no? Penta, Satia, Anahedad, cuando ha tenido que dar declaraciones, ha dicho una cosa muy interesante. Dice que eso esos eso que se está hablando de la de llegar a la AGI son non sensical benchmark hacking, es decir, trucar o hackear o, de alguna manera, engañar a una serie de benchmarks sin sentido, y que alcanzar la ágil es algo del tipo hacer crecer el diez por ciento del del de la riqueza mundial, del del del pin mundial. Claro, Nadella tiene un argumento, es decir, nosotros perderemos la exclusividad cuando se haya crecido el diez por ciento del PIB mundial gracias a la inteligencia artificial y nosotros, Microsoft, hayamos capturado gran parte de ese crecimiento, o sea, yo ya tenga los millones en mi cuenta, y entonces ya me cuentas tú lo que quieras de la AGI, pero mientras tanto aquí aquí no me vengas con con chorradas, ¿no?
Matías S. Zavia: En fin, el tema OpenA y Microsoft, yo creo que vamos a seguir hablándolo durante años hasta que finalmente se divorcien, pero ¿qué está pasando en la puerta de al lado? ¿Qué está pasando en Google? Y concretamente, en qué anda metido Larry Page, cofundador de Google, antiguo CEO. Pues fíjate, siempre decimos, mientras nosotros estamos aquí resumiendo PDF, charlando con la IA, por encima hay farmacéuticas descubriendo cosas con las IAS especializadas en los pliegues de proteínas, pero también muy interesante, la inteligencia artificial aplicada a mejorar la producción, la fabricación de cosas. Y en eso anda metido Larry Page con una empresa de inteligencia artificial llamada Dyneatomics.
Antonio Ortiz: Sí, yo yo te voy a hacer una tech seria y una y una un poco menos seria, la seria. Es que yo creo que toda esta gente que vivió la explosión de Internet y la gran oportunidad que sabría hacer, productos, startup, de cambiar las cosas, de tener impacto, está viendo que con la inteligencia artificial se habrá otra etapa y quieren volver a jugar. Sergi Brin, Larry Page, Eric Smith, Mark Zuckerberg, que no se va ni con agua caliente, toda esta gente, ¿no? Quiere quiere, digamos, es como lo los grupos de cincuentones que que que siguen dando giras para facturar de música, ¿no? Entonces, verdad, ¿no?
Me parece que esta etapa tendría que ser la de los ventañeros que quieren comerse el mundo, pero no, aquí están los viejos rockeros también, ¿no? Y luego, qué poco valoramos, Mathi, al fundador de MySpace. El fundador de MySpace vendió antes de que su empresa se sufra y era pique frente a Facebook astutamente, era amigo de todo el mundo en las redes sociales, era un tío muy amigable, y luego no ha dado no ha no ha sido nada plasta ni ha dado la vara, vendió, se fue a sus cosas de sus yates y sus barcos, y y no molesta. No está por ahí diciendo, hacerme casito, mirá qué importante, lo sigo petando. No, no, él, simplemente, pues, se pues se dejó fluir, ¿no?
Nunca cambió la fuerza. De Chema Alonso, está la duda. Chema Alonso, ¿qué? Bueno, un español que puede estar aquí, ¿no? En esta liga, pues tendrá que elegir el camino, el camino a Myit Page, échale le sacaré las perras a Payet y a a Telefónica, pues ya puedo vivir guay, o o vuelvo al vuelvo al rock and roll y y aprovechando la IA, pues pues hago una nueva empresa y y os vais a enterar y le callo la boca al confidencial, ¿no?
Qué cabrón elegir a China.
Matías S. Zavia: Jueves, qué qué buen planteamiento, ¿no? Por ejemplo, por ejemplo, PewDiePie, que fue el youtuber más popular y seguido durante mucho tiempo, tiene la vida bastante resuelta, ¿A qué se dedica ahora? A ser padre, a cultivar su cuerpo. Mientras tanto, Mister Beast, que ya tiene la pelvis cubierta de vello púbico, sigue, bueno, vamos ahora a reventar un tren contra un yate. No sé, son dos formas de de vivir la vida, supongo.
Antonio Ortiz: Luego está la tercera vía, que es J Pelirrojo. Pero, bueno, no podemos entrar ahí porque sería demasiado demasiado polémico este podcast.
Matías S. Zavia: Bueno, por cerrar, Dyn Atomics de utiliza la inteligencia artificial, incluidos los modelos de lenguaje, que tienen mucho que decir, para diseñar todo tipo de productos de una forma que sea sencilla de fabricar, lo cual puede tener unas repercusiones económicas muy
Antonio Ortiz: importantes y tan importantes. Otra cosa importante, Matty. Dime. ¿Qué lanzamiento, qué cosita, qué novedad nos trae nuestro patrocinador de esta semana, Matty? Que es FreePeak.
Matías S. Zavia: Lo han vuelto a hacer. Han integrado en su suite de herramientas de inteligencia artificial, antes que nadie, la opción de imagen a vídeo del mejor modelo de vídeo que existe, que es BO dos de Google. O sea, esto te da unas posibilidades de controlar el resultado final, y yo ya estoy viendo gente que hace cortos con veo dos, que que hace cositas bastante cinematográficas por por las posibilidades que habilita esto, que en nada vamos a empezar a ver. Ha ganado tal premio, un corto hecho con veo dos, y ahora de aquí a los Oscar, ¿no? Pues ya está integrado en free pick esta opción de imagen a vídeo en veo dos, pero te tengo que hablar también de otras herramientas, porque todas las semanas sacan como dos o tres cosas, y lo último que yo he probado es la opción de controlar los colores en las imágenes que generas con ThreePit, ¿vale?
Esto es muy chulo, muy chulo, porque te da un control artístico muy guay, como aquí Juanca, que hizo estas fotos en morado. Y mira lo que he hecho yo, en una paleta de colores así como cálida, una foto mía rollo John Travolta en gris, que me me gustó bastante. Pero me está pasando una cosa, Antonio. Esto ya como anécdota aparte de Flipping, gracias por patrocinar este este episodio. La gente ya no se cree que mis fotos reales son reales, porque he gastado tanto el límite que tengo de subir fotos de IA antes de que la gente se arte, que me pasó esto.
El otro día actualicé mi foto de perfil después de tres años, ¿vale? Tres o cuatro años. Y es esta foto. Es una foto real mía, ¿vale? Dos personas diferentes me comentaron, esa foto no eres tú, la has hecho con Ia.
Y yo, ¿por qué soy yo? Me dice, no, tienes más pelo en esta foto. O sea, la gente, como sabe que yo me pongo pelo en las fotos hechas con Ia, que hago con un free pick con la opción de personajes, de caracteres, ha asumido que mi nueva foto de perfil también está está hecha con Ia. Y bueno, una cosa que se viene repitiendo, mucha gente empieza a subir, sobre todo a LinkedIn, imágenes suyas generadas con herramientas como la de la de FreePick, pues te dan unos resultados que parece que lo han hecho en un estudio de de fotografía, ¿no?
Antonio Ortiz: Es que estás adelantando, yo creo que una crisis con respecto a la realidad, que que tiene dos dos grandes visionarios que lo han anticipado, ¿no? En este caso, tú, con tu experiencia de de fotografías generadas con Ia, y luego Philip Kadic. Y Kadic es el gran novelista de la distorsión y de la visión y de la de de de la percepción distorsionada de la realidad, ¿no? Y que nos, en sus personajes y en sus novelas siempre hay una confusión entre lo que es real y lo que es virtual, imaginado, distorsionado. Bueno, Philipshi tenía un un, bueno, tenía una visión personal también muy afectada por la psicodelia y el consumo de ciertas sustancias, y, bueno, luego estás tú que, pues, de en ese tema no no voy a revelar nada por por muerte del del secreto de nuestra amistad, ¿no?
Y la conciencia. Entonces, bueno, no es no es un tema que podamos sacar porque, bueno, quién sabe, a lo mejor está tu reputación en juego, Mati.
Matías S. Zavia: ¿Sabes lo que he gastado también, aparte de de mis créditos de FreePeak y de mis créditos de GPT cuatro punto cinco? El Deep Research. Desde que nos pusieron el Deep Research en ChatGPT Plus, lo he usado, pero vamos, se han desecado todos los pantanos, ha estado lloviendo toda esta semana en Málaga, en toda la península, están los pantanos que han tenido que desembalsar alguno, pues yo he desecado varios pantanos, porque me he tirado dos semanitas exprimiendo al máximo la opción de investigación profunda de Chagete.
Antonio Ortiz: Es que es, es que es muy bueno. Es que es la caña. Yo, no sé, no sé qué qué ejemplos más ponerle, cada vez que entro en un tema, por ejemplo, y quiero desarrollar un tema importante en los guiones de monos, pues pido un view research, cuando voy a escribir en error quinientos, en la causa César es algún tema, pido un es que, digamos, la capacidad que tiene este sistema de de de buscarte fuente, estructúarte la información, organizártela, es es una pasada. Podría compartir como decenas de caso de de uso, y te te voy a dar dos que, bueno, a mí me han sorprendido, sobre todo porque con con el deep research y la inteligencia artificial, a veces puede pasar como con el periodismo. Tú, esa sensación compartida de mucha gente que es, oye, qué curioso es, son los medios de comunicación, que cuando tocan un tema del que yo sé muy poco, son fantásticos, pero cuando tocan un tema del que yo soy experto, se equivocan muchísimo, son son muy malos.
Entonces, con la inteligencia artificial pasa pasa algo pasa algo similar, pues he he estado con un arquitecto, amigo del del podcast, que le ha pedido a a Deep Research que asumiera el rol de perito experto analista de informes periciales, de manera que, pues, le pasaras informes periciales, vea si se ha planteado correctamente, detectar bien el el informe, el origen de la causa de los defectos, blap, ¿no? Y y, de alguna manera, la conclusión que que me ha dado es que, aunque tiene que ser, está más pensado para él buscarte las fuentes y devolverte la respuesta, incluso, en este caso de uso en el que él pasa un informe, etcétera, y que tiene de contenido, le ha resultado utilísimo, de notable para arriba, bastante, es decir, es ese de que funciona, ¿qué voy a decir? La la cita, funciona la misma maravilla y te da un documento de treinta folio que ningún otro modelo te da. Es decir, es una cosa asombrosa. Tenemos el caso que que estás pasando por pantalla de de de Julián Isla en LinkedIn, en el que el el caso de uso es es médico, Bueno, el el de Juan Islas es es impresionante el uso de medicina de de Tripresert.
Novo Northeast, la farmacéutica, ha pasado un equipo de cincuenta personas redactando informes clínicos a solo tres, y aquí no usan Tripresert, usan Cloud, y va el Cloud tres punto cinco del anterior, es decir, han aumentado la productividad y, además, usando RAG, si queréis, lo lo explicaremos con detalle, usando RAG, lo consiguen que las alucinaciones y errores del modelo sean muy pequeño. Con el RAC lo que haces es que que que el que el modelo inteligente, antes de responderte con lo que ha aprendido de su entrenamiento, es decir, con la información que está en los pesos del modelo, lo que hace es acudir a una base de datos de conocimiento fiable y añadirla al contexto de manera que se circunscriba mucho más a lo que encuentran en esa base de datos, ¿no? Entonces, esta técnica del rack hace que, si tú orientas, y eso es lo que hace Neurodix, al modelo a escribir a partir de la base de conocimiento farmacéutico y médico que tiene la propia empresa, los resultados son mucho más fiables. Entonces, pasas para hacer el mismo trabajo del equipo de cincuenta a un equipo de tres, ¿no? Entonces, la la la parte de de deep research, bueno, hay hay un punto en que hay que tener cuidado porque lo el modelo sigue alucinando y sigue cometiendo errores, pero el valor que está entregando es tremendo.
Y te voy a decir una cosa, Matte, lo que se ha filtrado de OpenEye es que están tan convencidos del valor de de que este primer agente ha triunfado y le ha ido bien, que ir con los próximos agentes, plantean lo siguiente. Va a haber agentes de dos mil dólares al mes. Ahora mismo Deep Pursearch tiene algunos usos en el plus, lo que tú has utilizado de veinte dólares al mes, muchísimos más usos en el Pro, que es el de doscientos dólares al mes, es el que yo con el que yo probé esta herramienta, y luego OpenEats dice que tendrá gente de dos mil dólares y el nivel sería equivalente a trabajadores del conocimiento con altos ingresos. Es decir, periodistas no, se tiene que ser consultores y cosas así, ¿no? Y luego va a haber agentes de hasta veinte mil dólares al mes para, que serían agentes de investigación de nivel doctoral.
Y, claro, Aupenia, ella tiene, les gusta mucho el dos, veinte, doscientos, dos mil, veinte mil.
Matías S. Zavia: Yo no sé lo que tienen internamente. Yo no sé lo que tienen internamente. Pero, por ejemplo, tú eres una farmacéutica como Norbornordis, Yo como usuario, o sea, yo me puse las vacunas del COVID, no entré en ningún tipo de negacionismo, fui un ciudadano ejemplar, pero si sustituyen a cincuenta empleados por tres, por ahora para escribir informes clínicos, ¿no? Pero esto, aunque paguen la tarifa de veinte mil dólares, ¿acaba siendo una vacuna o como unos CEMPIC? Yo ya no estoy seguro, porque yo soy un usuario hardcore de la investigación profunda de ChatGPT, de GROC, de Google, y yo sigo viendo muchas alucinaciones y cositas que es cierto que se reducen gracias al tiempo que pasa investigando y y pensando la respuesta, pero yo no sé si está preparado para sustituir fuerza laboral a esos niveles, ¿no?
Antonio Ortiz: Es la gran pregunta. Claro, ya sabemos, le hemos explicado mucho a la audiencia de que este año va a ser el año de los agentes inteligentes, que estos agentes, parte de sus, importante, sus características, la capacidad de automatizar el trabajo intelectual, trabajo creativo y del conocimiento. ¿Cuál es la idea de OpenAI? Es algo en lo que he profundizado un poco en error, quinientos, que que he soltado ahí un un buen tocho. Claro, el índice OpenAI, si vamos a automatizar parte del trabajo de cuello blanco, trabajo, ¿verdad?
Del conocimiento y la creatividad, esto supone un ahorro, un valor que alguien va a capturar, crecimiento económico a capturar. ¿Quién va a capturar ese crecimiento económico? Pues, Novo Nordis ha ha dicho esto. Bueno, pues le doy veinte dólares al mes a Anthropic, bueno, tendrán más cuentas, ¿no? Pero, bueno, uno uno del orden del de doscientos o lo pocos miles, pero he amortizado decenas de puestos de altísimo valor.
Entonces, en ese ahorro, pues, ¿quién lo va a capturar? Por lo pronto, dice, yo puedo ahorrarme costes, es decir, despido a la gente y tengo un menor recurso humano, aunque la farmacéutica ha dicho que va a redirigir, va a contratar por otros lados, también como empresa capturas ese valor, porque hacen más cosas que antes no hacía con el mismo coste, que es otra manera sin despedir a nadie de, o manteniendo, digamos, aunque no aunque no recoloques, manteniendo el el mismo nivel de empleo o mismo los mismos costes salariales o parecidos, pero puedes hacer muchas más cosas, puedes invertir muchos en productos futuros, en marketing, en lo que tú quieras. El punto es, Novo Norris con Cloud, con una inteligencia artificial económica, dice que soy yo la que va a capturar esto. Los empleados tienen alguna posibilidad de capturarnos diciendo, oye, ahora soy mucho más productivo, pues soy tres empleados, hacemos el trabajo de cincuenta, ¿no deberíamos cobrar más? Pues, la posibilidad de los empleados de capturar parte del valor de los aumentos de productividad no dependen tanto de los aumentos de productividad que tenga cada empleado, sino su poder de negociación.
Ahora parece que, como se están disminuyendo y se están automatizando tareas, yo sospecho que el poder de negociación de los empleados va a ser muy débil en esta etapa para capturar esa mejora de productividad a no ser que el estado imponga imponga que así sea. ¿Y qué es lo que dice OpenAI? Vamos a verme hoy yo. OpenAI dice, oye, si tú tienes trabajando un doctorado, pero no un doctorado español en universidad con un sueldo precario dando clases ahí de mala manera, casi me me me lo viste perdido, no, eso no. Es decir, estamos de los doctorados que investigan en una empresa farmacéutica, ¿no?
No no los que hacen los informes, sino el del el investigador. Te voy a automatizar el trabajo de un doctorado que a ti te cuesta cien mil pagos al año, ¿no? Como coste de empresa total. Pues, coño, sí, no no te voy a vender eso por veinte dólares. Yo, como OpenEye, esos cien mil que tú dices que que ese valor generado, quiero capturar mucho más.
Entonces, te te digo, como tú pasas de de gastar de cien mil a un coste mucho inferior, no te va a doler pagarme veinte mil a mil, porque vienes de gastar de cien mil. Entonces, tú estarás contenta como como empresa. Pero, claro, esto OpenEyes lo podrá conseguir una empresa al lado que te venda lo mismo mucho más barato. Si alguien te vende el agente de OpenEye o algo muy parecido a mucho menor coste, entonces, aunque tú estés generando mucho valor, aunque la empresa diga plazo de cien mil a gastarme mucho menos, pues, en vez de dárselo a OpenAI y darle veinte mil, le voy a dar muchísimo menos dinero a ese otro proveedor,
Matías S. Zavia: diez. Juan, esto que estás diciendo me viene genial porque da pie a uno de los temas de la semana. Se esperaba que fuera como un momento deepsic dos punto cero, no ha tenido tanta repercusión, no obstante, fue fuerte. Y estoy hablando del lanzamiento de Manus. Me recuerda a nuestro compañero Manus, de aquellos
Antonio Ortiz: ¿Manus? Sí, sí.
Matías S. Zavia: Meros años de la blogosfera, que será de Manus. Me pregunto si es oyente de Monus Estocástico.
Antonio Ortiz: Gallequeando, callequeando estará.
Matías S. Zavia: Sí, allí en Pontevedra. La cuestión es que Manus es quizá uno de los agentes de IA más potentes que hemos visto nunca. ¿Vale? Tuvo su momento de ostras, los chinos lo han vuelto a hacer, luego se vio que por debajo no usa modelos fundacionales propios, sino que está construido encima de Cloud y de Quent, pero puede hacer muchas cosas, Antonio.
Antonio Ortiz: Bueno, la gente que lo ha probado, yo creo que ha pasado también por este ciclo, es que los ciclos del hype cada vez son más más más estrechos, ¿no? Entusiasmo inicial, valle de la decepción, están pasando a una velocidad que que el otro día nos lo decía Trífero por Twitter, estoy empezando a estar agotado, ya, en tu montaña rusa con las noticias de inteligencia artificial. Bueno, vamos a decir qué es, ¿qué es? Manus es un agente inteligente que se parece a muchas cosas que hemos visto, pero tiene una diferencia fundamental, que es es todas ellas a la vez. ¿Qué es lo que plantea esta empresa?
Que además yo creo es medio china, pero tiene una sede en Singapur, esta es un poco misteriosa la compañía que hace Manus, pues lo que hace es que junta lo que es un lead research, es una investigación profunda, ese tipo de modelo o ese tipo de funcionalidad de los modelo de inteligencia artificial que hemos hablado con Deep Research, tú le das un tema y él, Manus, en este caso, pues empieza a buscar las fuentes, empieza a genera, a sintetizar toda esa parte de del conocimiento y luego te desarrolla y te hace un informe a partir de de todo eso, pues muy profundo, muy detallado, etcétera. Y, bueno, aquí algunas de las primeras evaluaciones indican que tiene nivel de pre search de OpenAI, lo cual resulta prometedor. Luego, tiene una parte que se parece a otro agente de OpenAI, o o al o incluso al original que hizo Anthropic, que es Operator. Operator, Operator, no me Operator. Operator de de OpenAI lo que hacía era, pues, navegar, usar el navegador web por ti.
Y, entonces, al usar el navegador web por ti, siendo un agente, es decir, tú le das una meta, un objetivo a conseguir y él se busca la vida, ¿no? El típico ejemplo que ponemos siempre es comprarme unos billetes de tren, búscame los más baratos para esta fecha que que tengo que ir a Albacete. Y, entonces, él va, busca la web oportuna, consigue procesar toda la imagen, porque es multimodal, y a partir de que él es capaz de leer la imagen, pues, vas rellenando los campos y, al final, acaba comprándote el billete. En el caso de OpenEye, todo esto pasaba en un navegador que se ejecuta en los ordenadores de OpenEye y tú tenías que dejarle cosas como la tarjeta de crédito o el usuario de Renfe, lo que sea. Bueno, pues, también es capaz de hacer todo esto y, además, tiene un punto de creador de apps, mapas, vídeos, juegos, que mucha gente lo está asimilando a Global, que es un muy polémico porque los desarrolladores no son felices con estas cosas, es creador de apps de no code, es decir, de para gente que no que no programa, que no hace código.
Entonces, puede crear estas mini aplicaciones o minijuegos por sí sola. Entonces, casos de uso que la gente está buscando, pues, planifícame un viaje completo y, entonces, buscas por Internet, te busca los vuelos, los hoteles, te construye un itinerario, te hacen recomendaciones en función de tus presupuestos, de tu de tu a dieta que estás siguiendo, etcétera. Genera informes de inversión, crea webs o juegos interactivos, la gente que lo está probando, pues, está flipando con todos estos casos de uso.
Matías S. Zavia: Yo, que estoy pagando ya como cuatro suscripciones de herramientas de IA, no me sentí atentado, hay un sistema de invitación, incluso en eBay se están vendiendo por por mil dólares las invitaciones a Manus, hasta que vi a Min Choi en en Twitter, poniendo como ejemplo, manus para edición de podcast. Ojo, manus para edición de podcast, coge el archivo de audio, te lo corta, te extrae los momentos más importantes del podcast, o los o los más graciosos, y hace todo el trabajo por ti, no hace falta.
Antonio Ortiz: Pero, Mathún, ¿te añade de pelo en la versión vídeo o todavía no? Eso a lo mejor es un plus, no un add on que que hay que comprar.
Matías S. Zavia: Tengo que decir que en cuanto se abarate un poco el tema modelos de vídeo y podamos meter una hora y media de mejora capilar, en YouTube, a lo mejor, veis cambios. Sí, sí, sí. Habrá señales.
Antonio Ortiz: Dinero hubiera invertido. Hay una cosa que has dicho interesante, que es que hay hay gente que probándole, que le ha sacado información al al propio modelo, que han descubierto algunos pareceres, también esto está explicado por los propios fundadores de la herramienta, que que es, realmente, por detrás no hay un modelo fundacional, como tú decías, sino que están usando Cloud Andthropping. Aquí yo creo que no pasa nada. Es decir, si hay gente que en la capa de aplicación usando un modelo de terceros es capaz de hacer algo súper útil y súper valioso, pues ole ellos. Es verdad que que quiero que detrás de esta crítica de este decir, oye, es que están usando Cloud, está al punto de, pues, es una posición muy difícil de defender competitivamente, porque esto lo podía hacer la propiedad Anthropi, donde en un momento dado diciendo, si esto está el tuyo chulo, la gente lo quiere y lo paga, pues vamos a entrar nosotros, o lo puede hacer un tercero.
Al parecer, es una arquitectura bultiagente, en la que para para cada para cada tarea o función o caso de uso están usando un sistema de agentes distinto. En todo caso, yo creo que no está siendo un model, un momento deep-Sick porque es beta cerrada. Entonces, solo súper fricazos de la IEA estamos por ahí suplicando que nos inviten y, por lo tanto, hasta que nos no lo pueda aprobar la siguiente oleada de usuarios, es probable que no que no se entienda. Pero yo creo que tú lo has dicho muy bien, Mati. Esto es un mensaje.
Si esta gente chino de Singapur, que todavía no me ha quedado claro, es capaz de montar un sistema de agentes inteligentes sobre Cloud o cualquier otro modelo, De un nivel que compita con DreamResearch, que tienes muy pocos meses, entonces, podemos valorar esta hipótesis. En la etapa chatbot agentes conversadores, OpenAI no tenía MOATS. MOATS es, bueno, la traducción habitual es un foso. Un foso, en términos de emprendimiento y negocios de Internet, viene a ser, es algún tipo de funcionalidad, de tecnología o de elemento estratégico que te distancia muchísimo de la competencia y te da una posición privilegiada. El caso histórico que que suelo poner de ejemplo para esto es la arquitectura X ochenta y seis de Intel.
Como Intel tenía X ochenta y seis, y sobre X ochenta y seis se hizo Windows, y y Windows se convirtió en el start de facto de la computación personal del ordenador personal para el noventa y mucho por ciento del de los usuarios, incluso, pack, acabó pasándose también a arquitectura Intel, teníamos una situación muy difícil de de cuestionar a Intel, es decir, teníamos un socio defensivo, teníamos un MOAT que era el control de esa arquitectura. Mientras controles esa arquitectura y Windows no funcione sobre ninguna otra, en ordenadores personales intenta estar en una posición cojonuda. Google también, ¿por qué? Porque Google, aunque parezca que el buscador tú puedes, estás en una pestaña distancia del competidor, entró en un círculo virtuoso de, cuanto más datos tengo y más información tengo de los usuarios, de qué les gusta, de qué clican, de cómo funciona, cuanto más usas Google, más difícil es que un competidor igual el nivel de Google, porque Se basa mucho o se basa, o sea, se ha venido basando mucho en todo el conocimiento adquirido por su propio funcionamiento. Entonces, hay una una posición difícil de luchar.
O iPhone, iPhone está en una buena posición. ¿Por qué? Porque sobre iPhone se ha creado muchísimo valor de aplicaciones. Tú lanzas un nuevo sistema operativo, lo intentó Blackberry, lo intentó Windows, lo intentó Firefox, lo intentó todo el mundo, mucha gente, ¿no? Opalp, pero aunque tú tengas un sistema operativo muy chulo, muy bien diseñado, con ventanitas súper cookie, un usuario dice, me falta la aplicación del banco, otro dirá, me falta la aplicación de escuchar podcast, otro dirá, me falta la aplicación.
Es decir, toda la pila de valor generada sobre iPhone es un foso protector, al margen de otras consideraciones. Entonces, ¿OpenAI tuvo foso, tuvo MOAT, en lo en los chatbots? Pues no, a los pocos meses todo el mundo lo igualó. ¿Tiene OpenAI FOSO en los modelos razonadores? Pues, nadie ha igualado o tres, eso es correcto, pero a O uno y a los O tres mini, pues tienes ahí, como alternativa, Cloud tres punto siete es razonador y el chatbot a la vez, bueno, todos son siempre chatbot, pero, bueno, se me entiende.
Krough se ha puesto al nivel, bueno, de alguna manera, parece que tampoco tenían Foso en los modelos razonables. ¿Lo van a tener los agentes? Pues, si, Manus, la gente no es, los que lo están probando y lo que empezamos a probarlo ahora, no estamos exagerando, pinta Mati a que no lo tiene. Entonces, olvídate, Sam, de cobrarme veinte mil pagos por el doctorado, este, esta guía docorada, ¿por qué? Porque si va a haber gente que lo consiga dentro de unos pocos meses, entonces acabarán bajando los precios.
Matías S. Zavia: Y aunque exista un foso, un mode, vamos tan acelerados que los mode se pueden desecar rápidamente, se pueden invertir, como pasó con los procesadores, había ganado CISC, y ahora parece que la batalla la tiene que ganar los RISC, ¿no? Con los procesadores de ARM, que se están integrando ya en el escritorio.
Antonio Ortiz: Bueno, hay un solo un apunte, todos los mods son, ningún moto es eterno. Intel, ¿qué qué ha visto pasar? Pues, ha visto pasar que dejó saltar el móvil y luego dejó, perdió también la computación para IA, y eso son, ahora mismo, las plataformas principales, entonces, se queda atrás. Google, pues, a buscador no le ha no le ha ganado nadie, pero los modelos basados en inteligencia artificial generativa que procesen Internet, pues, son una alternativa y ahora hablaremos de eso. IPhone, pues, está muy bien instalado, pero si el futuro decisor es mucho más la IA, pues, pues los de Apple se han quedado un poco dormidos, no sabemos si ese foso que valía hasta ahora seguirá valiendo para para la próxima década.
Así que los MOAT y los fosos es todo una cuestión de grado, te pueden durar décadas, pero nada, es eterno, Matías.
Matías S. Zavia: Es como mi opinión de la semana pasada que yo decía, ojo, porque en Europa tenemos la posibilidad de hacer grandes wrappers, de hacer grandes suites de herramientas construidas por encima de modelos fundacionales que sean chinos, estadounidenses, de código abierto. Pues, ahora te voy a decir lo contrario, creo que hay una empresa que está haciendo las cosas de una manera que le ha llevado a que la critiquemos habitualmente, pero que, en realidad, tiene las de ganar, que es Google, ¿vale? Porque Google es utilizada por miles de millones de personas, entre otras cosas, para la búsqueda. Y la búsqueda parece que se está reinventando con los modelos de lenguaje, parece que Perplexity, pues, podría tener una oportunidad, a pesar de ser una pequeña startup, porque está haciendo una cosa, está dando un servicio que a mucha gente le gusta, pero Google tiene una mejor oportunidad de actualizar su buscador para integrar los modelos de lenguaje de una manera que siga manteniendo ese dominio que tiene en en la búsqueda. Ia, por ello, ha ido con el lanzamiento de el modo Ia del buscador, que en Europa todavía no no podemos probar.
Es
Antonio Ortiz: que hay algo que dijo Nadella, y tiene razón, que que, oye, pase lo que pase, lo que sí podéis ir contando es que pusimos a bailar a Google. Hay tantos casos de uso, Matthew, y yo creo que la gente que estamos muy metidos en la guía, que hemos quitado al buscador y le hemos dado a la guía generativa. Leía yo a Javi Paz un artículo con el poco ambiguo titular en su blog, Javi Paz punto com, aunque el blog se llama Incogitosis. ¿Qué qué sembrada estuvo Javi cuando le puso el nombre? Incogitosis.
Bueno, pues el titular de los artículos de su post era, adiós, Google, hola perplexity. Y es que tiene un argumento, Javi. Como usuario, la capacidad de sintetizarte, mirarte la fuente, hacerte un breve resumen para cualquier tema que le plantees en términos de productividad es es diferenciador. Para Google, esto es un problema que hemos venido hablando. El problema es, he basado mi negocio y mi valor en devolverte listas de enlaces.
Entonces, yo te di la lista de enlaces, tú los visitas y los lees, los consumes, lo que sea. Con ChatGPT buscando en Internet el Bing y sus respuestas. Perplacity como startup. Pues, la propuesta de valores de estas otras es muy distinta, no te doy, quizás el enlace te doy la respuesta. La respuesta con enlace, si quieres profundizar, vas a ir a ver, pero te doy ya la respuesta, que es lo que tú, como usuario, realmente buscas.
Entonces, Google dice, bueno, pues tengo que reenfocarme, porque o o cambio y respondo y soy mejor haciendo esto que la competencia, o los usuarios los vais a ir perdiendo. ¿Qué es lo que pasa? Que todavía este voy perdiendo usuario no se está notando en los resultados de Google. Los resultados trimestrales de Google son buenos y búsqueda no baja en ingresos. Es este uno de esos procesos en los que, ¿cómo escribió Heming Way?
¿Cómo sucedió esto? Pues, primero, poco, poco y luego de repente. Es decir, es algo que se está larvando y luego será muy rápido y, por lo tanto, Google hace bien en estos, ¿no? Primero es, tenías las los over views, ¿no? De ciencia artificial, y este modo ya es, básicamente, pasarte a Perpresenionity, y paso a que me des respuesta.
¿Hace bien Google en hacer esto? ¿Tiene más opciones? Yo es que creo que no tiene opción. Creo que no tiene opción.
Matías S. Zavia: Efectivamente. Empezamos diciendo, buscar en un chat GPT, en un perplexity, es como cuando nos reíamos de la abuela que le pregunta a Google, por favor, ¿me puedes decir qué tiempo va a hacer mañana? Gracias. Y ahora todos usamos, todo lo que estamos metidos en más en las herramientas de IA, vemos valor en hacer búsquedas con ChatGPT, con Perplexity, con todas las herramientas que lo permiten. Tengo tantos takes, tengo tantos takes sobre esto.
Primero, la búsqueda de una forma semántica permite llegar a cosas que Google no te permitía fácilmente. ¿Ese es el ejemplo que da Javi Pass? ¿Puedes darme ejemplo de declaraciones de banqueros en España que criticaron a bitcoin y a las criptomonedas? Porque él está haciendo un artículo sobre BBVA, integrando bitcoin, etcétera. Evidentemente, la capacidad que tiene Perplexity y el modelo que hay por debajo, Cloud o GPT, tiene la capacidad de entender la pregunta e ir a las fuentes a encontrar la respuesta.
Esto Google solo lo puede hacer si renueva el buscador, que es lo que está haciendo, con Geminite. Eso ya añade utilidad. Luego, todavía no hay SEO para chatbots o que yo sepa. Entonces, las respuestas de los la gente que tenemos esto como buscador pueden tener más calidad dependiendo de de las búsquedas. También están muy limitadas por las fuentes.
Yo suelo preguntarle en inglés porque siento que las fuentes en español a veces no son, no me convencen. Y luego, el problema de las alucinaciones, yo que he tenido el Perplexity durante una semana por defecto, de hecho, tenía el Perplexity Pro porque me apunté como usuario croata, y luego Perplexity me escribió y me dijo, oye, tú no eres Luka Modric, te voy a te voy a cancelar la cuenta Pro. Pues, las alucinaciones son un problema. Le pregunté, ¿se han desbordado, por ejemplo, el río Campanillas? Y me dijo, sí, se ha desbordado.
Y me voy a la fuente y era una noticia de dos mil dieciocho. Entonces Ya. Las alucinaciones siguen siendo un problema, pero Google va va a por todas y esto lo va a integrar igualmente en el buscador.
Antonio Ortiz: Muchísimas tags. Una importante para este nuevo personaje del podcast, ¿quién invirtió en perpleciti? En perpleciti invirtió Telefónica, que es un una data que a veces se olvida. Entonces, claro, yo creo que, y si dentro de cinco años, Telefónica como teleco se ha ido a pique, porque, claro, te vas a apagado todo Internet en Telefónica para para que nadie vea el fútbol pirata y ya los usuarios no pueden navegar nada, o se han gastado todos los datos, toda la pasta en hacer una una nueva tele, tiene que fichar a muchos froncanos y cosas así, ¿no? Y Telefónica se llena a pique, y lo único que les queda es Perflecity.
No sería el momento de reivindicar a Chema, ¿no? En el momento que Chema Alonso podía sacar, mira, en este correo yo recomendé darle darle perras a Perflecity, que es lo único que ha quedado y es el nuevo Google. Ojo, ojo, porque eso yo no lo descargaría. Bueno, hay hay que hay que hay que decir una una una cosa, que hay un estudio del Touch Center for Digital Journalist que dice que, comparando ocho motores de búsqueda de inteligencia artificial, todos estos casos de usos, dicen que todos son bastante malos citando noticias. Bueno, claro, tú lees el estudio y, bueno, tienes una parte de argumentos que coinciden con tu diagnóstico.
Le pregunté, alucinó, no no procesó bien la información, le faltaba inteligencia para darse cuenta de que esto no era reciente, pero fíjate, lo que Evil One es que se recuperen justo la URL correcta, identificar la fecha de publicación, es decir, le le piden datos que muchas veces no son nucleares el en el el consumo del contenido, ¿no? Entonces, es un estudio que a mí me ha convencido un poco a medias. Luego, un otro estudio que titulado, creo que de manera poco ambigua también, nuevos datos demuestran hasta qué punto OpenA y Perplexity están jodiendo a los editores. Un nuevo report de la de la plataforma de licencia de contenido Tolbit está indicando que, lo obvio, cuando te dan la respuesta, como hace Perplexity, como hace ChatGPT con buscador, aunque en la respuesta haya luego enlaces, la gente no clica. Y, entonces, volvemos a este debate de la nueva economía de Internet que se genera cuando se rompe el ecosistema entre agregadores y creadores del contenido.
Volvemos a la idea de Google. Google indexa tu página, se la sabe, la recomienda en algunas búsquedas. Claro, se ha leído tu contenido y se lo ha aprendido para darle un servicio al usuario, él gana perras porque hay anuncios en ese buscador, pero es simbiótico, te manda al usuario y, además, te manda un usuario muy valioso, que estabas buscando algo relacionado con lo que tú has escrito y, por lo tanto, es como un círculo, pues, que es más o menos virtuoso. Es decir, el usuario está contento, Google hace su negocio, que es mejor negocio que el de ser editor, pero, bueno, es es es su punto en la cadena de valor, pero tú como creador de contenido, al final tienes audiencia que puedes monetizar. Le puedes poner publicidad, puedes intentar convencerlo de que se suscriba, etcétera.
¿Qué es lo que pasa con el modelo de los chatbots que que peleen la página y te dan la respuesta sin necesidad de que tú vayas a visitarlo? Pues sucede lo obvio, que la gente no visita la página y, entonces, este ecosistema se ve roto y el editor dice, claro, Google, yo estaba ahí un poco regañadiente, no me gustaba a mí, intenté sacarle más dinero con con las tasas Google, con tiene que pagarme por enlazarme, cosas de ideas de editores, ¿no? Pero esto es mucho peor, esto es mucho peor porque ni siquiera me manda tráfico, pero él genera un valor a partir de mi contenido. Por lo tanto, esto no es simbiótico, esto es parasitario. Y, claro, ¿a qué nos vemos abocados o de que vamos a tener que empezar a hablar?
Pues tenemos que empezar a hablar de que las empresas de inteligencia artificial piensen en licenciar contenido, que es algo en lo que OpenAI ha avanzado y es algo de lo que Peracessity ha hablado. Es decir, si yo al final acabo respondiendo el usuario en base a tu contenido, parece razonable por dos motivos que yo acabe pagando al creador del contenido como empresa. Los dos motivos son, uno, porque estas empresas tienen influencia, sobre todo los medios de comunicación tienen influencia política y van a ir a por ti, tienen influencia de la opinión pública y van a ir a por ti. Y dos, porque como empresa inteligente artificial, a mí me conviene que haya un ecosistema generando contenidos, porque no me puedo inventar si el pantano de campanilla se ha inundado o se ha desbordado o no, el río de campanilla se ha desbordado o no. Necesito que haya un periodista en Málaga que vaya y lo mire y lo sepa, y eso solo puede existir si hay una economía por debajo que lo sostenga, Y, por tanto, a mí, como OpenAI, me interesa que exista ese ese periódico.
Matías S. Zavia: Tal cual, es que te te iba a poner el mismo ejemplo. Esto no no es lo mismo que un buscador, porque Google ha ido incorporando los snippets, que son esos resúmenes de noticias, pero, a cambio, los medios que viven de publicidad reciben de Google, pues, millones de visitas a través de el buscador, de Google News, de Google Discover. Si esto se sustituye por chatbots que te resumen la noticia, que no es lo mismo que un resultado de búsqueda, te extraen la información de lo que ha escrito un periodista que ha ido a mediar si el río se ha desbordado o no, o que le ha preguntado a la policía, le ha preguntado a los bomberos, hay que solucionarlo. O sea, hay que hacer algo, licenciar contenido o lo que sea, pero es que es un problema que al final necesita solución, ¿no?
Antonio Ortiz: Claro, y demás, fíjate, lo lo los viejos de Internet, que siempre digamos, Internet tiene que ser abierto, libre, tal, como vas a pagar por enlazar, los viejos editores que no entienden, tal. Yo creo que hay que hacer una reflexión. Es decir, el el mundo del agregador con enlaces era un mundo simbiótico, pero el agregador, y y aquí entran otras consideraciones que, a lo mejor, cuando Twitter cambió el algoritmo y decidió joderte, perdón, disminuir tu alcance, si ponías enlaces afuera de Twitter, eso fue una decisión terrible. Para mí está el cierre de Google Reader y esa decisión de Twitter como cosa de las más nocivas para el ecosistema público de contenidos de información, porque metí una cultura de superoptimización a mensajes dentro de Twitter que tiene que ser corto o, peor todavía, hilos, y y cosas de este estilo, narrativas, pues, simplificadoras y narrativas un poco sobresaturadas como los hilos, que algunas también, no, no quiero ser hater. Pero el punto es esos agregadores, como Facebook, Twitter, ya que también están quitando el el enlace afuera de ellos porque tienen sus incentivos a más tiempo de uso de la plataforma.
Si Google también lo hace, a los medios de comunicación le queda ahora mismo como gran fuente de tráfico el directo, y como segunda gran fuente de tráfico, Google Discover. Y optimizar para Google Discover es optimizar mucho para el CTR y tiene la problemática de los enfoques y los titulares. Bueno, dicho esto, hay una nueva economía de Internet, yo lo relaciono también con el cambio de el cambio de de de términos y condiciones de uso de Firefox, que ha sido una pequeña gran tormenta entre el mundo del del Internet libre, abierto, etcétera, o derecho de los de los usuarios, porque, claro, Firefox, de un momento dado, la Fundación Mozilla dijo, esto de que te prometíamos que nunca vamos a vender tus datos Bueno, vamos a decirlo de otra manera, ¿no? Ellos cambiaron la fax sobre privacidad de datos explicando que, oye, eso de que yo nunca íbamos a vender tus datos, pues no, a lo mejor sí, a lo mejor sí que los vendemos, ¿no? Luego se han justificado, dicho, no es que en algunos sitios vender, hacer un mínimo uso simplón se les llama vender, y por eso nos hemos hemos tenido que que que cambiarlo, ¿no?
Entonces, bueno, han dado marcha atrás, pero hay una cosa que que es irreversible también para la Fundación Bocilla y para para Firefox. El juicio contra Google en Estados Unidos está poniendo el ojo en el posible abuso de posición dominante en prácticas como las de que Google pague a terceros por ser el buscador por defecto. El caso más famoso siempre es iPhone. Google paga a Apple por ser el buscador de efecto de iPhone, y no le paga unos unos segurillos, ¿no? Le paga miles y miles de millones de dólares al año.
Es un tipo de acuerdo que Google tiene con otros, como, por ejemplo, con Firefox. ¿Cuál es el negocio de Find Fox? Pues, el mayor fuente de ingreso es que Google le pague SER el navegador por defecto. Luego tiene otros otras vías, pero, sin eso, la la viabilidad de la Fundación Mozida, hace muchas cosas muy interesantes, puede ser cuestionable.
Matías S. Zavia: ¿Sabes a qué me recuerda a la Wikipedia? La Wikipedia a mí me sigue salvando, las castañas del fuego. Hay un tío, o varios tíos y tías, que se dedican a seguir cuál es el cohete exacto que SpaceX está reutilizando esta vez, y yo me voy a ese artículo de la Wikipedia y lo utilizo para mis reportajes. Vale, la Wikipedia está en problemas financieros porque la gente se está pasando a los chatbots y porque les faltan manos para hacer ese tipo de trabajos manuales sin inteligencia artificial, que es lo que están intentando. Y entonces, un proyecto tan importante para lo que es Internet como la Wikipedia, está quedando un poco deslucido.
Pero yo necesito que esos voluntarios sigan ahí, porque hacen un trabajo que para mí es crucial. Entonces, estas grandes asociaciones, como Mozilla o la propia Wikipedia, están en una situación complicada ante esta nueva economía de la que habla.
Antonio Ortiz: No sé si el el el el el problema de Mozilla es que en la nueva economía interna que están haciendo, pues será muy descolocada, será muy descolocada, y tenga que acabar siendo una suerte de spaward, tal vez, para indexar datos para la inteligencia artificial. Quién sabe, quién sabe. No sé no sé qué solución puede tener la Fundación Bocillas, pero se se nos acaba el tiempo, Mathey, ya aún mucho tiempo de podcast, estamos abusando del de la paciencia de nuestra audiencia. Solo te voy a dejar un teaser, me gustaría que en el próximo episodio hablemos de inteligencia artificial y programación, porque está revolucionado el sector, porque se viene el bype coding, Matías, la programación con vibras, y los programadores clásicos no están contentos con esta trend, Matías.
Matías S. Zavia: Para mí es mi momento, yo soy muy de vibras, desde que hago yoga, sobre todo. Así que nada
Antonio Ortiz: Te hago un teaser. Mira, el futuro es de los programadores que sean muy fuertes en la ideación, en mi opinión, y de los programadores guapos. Bueno, no
Matías S. Zavia: sé no sé si entro en esa categoría. ¿Qué me traes? ¿Qué me traes?
Antonio Ortiz: Pues vamos, a ti, nos hemos presentado la sección.
Matías S. Zavia: Cierto, perdona.
Antonio Ortiz: ¿Puerta grande o enfermería? Ahora sí, ahora sí. Matías, qué difícil es el amor. Povistos San Alma ni Satia Ana Tela, Bayete y Chema Alonso. Los caminos, a veces, en la vida se separan, pero lo bonito es cuando se vuelven a unir como la chica mexicana de nuestro vídeo Concha GPT y su amor por sus recuerdos.
Bueno, alguien ha tenido una idea brillante, una idea audaz de cómo podemos encontrar a nuestra futura pareja, a la persona con la que mejor encajaríamos, al posible amor de nuestra vida, Matthew, es una persona que ha pensado que la aplicación de citas debería emparejarte con personas que tengan un historial de conversaciones con Klopp similar. ¿Cuál es la tesis de esta aplicación? Que, de momento, solo tiene una landing, solo ha tenido esa idea y pone un como una un una familia, una familia que que, bueno, es curiosa la familia porque no sabes si tienen una hija mayor o son o o que son de Utah. Bueno, el el punto es que, ¿cuál es la tesis? Porque, claro, en nuestras identidades y nuestras narrativas online y en las aplicaciones de de citas no somos sinceros, mami.
Fingimos, pretendemos, jugamos con nuestra identidad, intentamos proyectar una visión de nosotros mismos que no es la real. ¿Dónde somos nosotros de verdad? Hablando con los chatbots. Entonces, tú le tienes que pasar tu historial de conversaciones con Klopp a esta aplicación, ella o él le pasará la suya y la magia de la IA os unirá para siempre.
Matías S. Zavia: Es que ni me voy a leer los términos de privacidad, es que no voy a ceder mi historial de conversaciones con ninguna empresa, no me fío, no quiero que alguien sepa que el otro día estaba en el baño y le pregunté a ChatGPT cómo puedo identificar si tengo almorranas. No quiero que nadie tenga esa data. No quiero que procesen esa data y que luego me segmenten y me vendan anuncios sobre cremas para las almorranas. No lo necesito. Muchas gracias, me quedo con mi monogamia, con mi fidelidad, mi mujer, y muchas gracias, Claudette punto club, por intentarlo.
Antonio Ortiz: Bueno, no, no puede ser una aplicación para todos, así que, bueno, lo siento, el embarcamiento y el romance a partir de del historial del chatbot, pues se va a la enfermería. Oye, bien olvidado, María. Es verdad que esta sección es muy muy sentimental y un poco sexual. Bueno, te voy a traer algo que que me ha sorprendido, que atención está pasando algo desapercibida, pero para algunas personas está siendo el gran momento de la IA, lo que siempre habían esperado, Mati. Atención al texto, menuda pasada.
Ahora puedes interactuar con tu voz con cualquier artículo en PDF publicado en Adsip, el repositorio de estudios, en el que también hay muchos preprints antes de que hayan pasado la revisión por pares estos estudios científicos, pero, incluso, en ese estadio de de la del desarrollo del conocimiento humano, tú ya puedes charlar con estos PDF, puedes entrevistarlo, puedes conversar sobre sus implicaciones. El usuario de Twitter, aulas inteligentes, lo ha flipado, es lo que siempre estaban esperando, y yo he hecho esta reflexión, Matthew. Si la chica se enamora de Chagete, la mexicana, ¿qué es lo que le va a pasar a los doctorados? Los doctorados ya no tendrán cosas que hacer, porque los agentes inteligentes hemos visto que van a tener el el trabajo de los doctorados. ¿Qué les queda a ellos?
Pues les puede quedar el consuelo de la amistad, ¿y quién sabe si el amor? Conversando con los PDF y con los estudios. ¿No no ves tú posible de que algún doctorado se enamore de un paper si este paper tiene la voz lo suficientemente sensual? Es decir, no sé, la investigación del desarrollo de polímeros en la industria del aluminio, ¿no? Bueno, de repente se cruza en tu camino ese paper y tiene esa voz, ese no sé qué, ese puntito que que en el que tú te sientes confortable y surge la chispa, Mati.
¿Cómo lo ves?
Matías S. Zavia: Pues fíjate, yo esto lo veo, no solo probable, sino un peligro para nosotros los periodistas y divulgadores, porque, por ejemplo, mi mujer tuvo un problema médico y yo, ¿con quién voy a querer hablar? ¿Con un post en Internet que te resume lo que ha tenido mi mujer o con el paper revisado por pares de los científicos que han investigado casos clínicos sobre lo que le ha pasado a mi mujer? Pues yo voy a acabar conversando con el paper. Y también va a pasar con todo, con el BOE. ¿Cómo accedemos a lo que sale en el BOE, el común de los mortales?
Pues porque un periodista o una periodista del país ha leído el BOE, lo ha interpretado y lo ha escrito en un artículo, y el de ok diario, pues habrá interpretado todo lo contrario y también te hará un resumen. Pues ya no hace falta, porque te vas al BOE, le das al botón de hablar con el BOE y le preguntas directamente al BOE. Esto para mí es el futuro y el mayor peligro para este tipo de periodistas que cubren estos densos textos que se publican en todo tipo de ámbitos.
Antonio Ortiz: Qué bonito, es decir, y además puedes empezar a tener sentimientos con el BOE, ¿no? Es decir, hoy te veo muy reglamentario, ¿no? Hoy te veo un poco autoritario, ¿no? ¿No? Un un buey un poco así, un poco más subiendo penas, ¿no?
Del código penal, ¿no? O, a lo mejor, vamos a desregular esto y vamos a permitir cosas, ¿no? Le ves un poco, tiene un día más liberar el buey, ¿no? Y tú ahí, pues, te sientes más tontonrón y empiezas un poco, ¿no? A flirtear.
Yo creo que ahí hay hay un camino, hay un camino, así que, bueno, puerta grande para el desarrollo de de sentimientos y conversaciones con los PDF de estudios y legislación nueva en el Boe. Y, bueno, estamos en en racha porque, además, la IEA piensa solucionar un problema, ¿Baty? Ese problema lo tenía el gobierno español. El gobierno español tuvo una idea que comentamos, ¿no? Y que era un poco esa búsqueda de establecer un un mecanismo por el cual se verificará la edad del usuario al acceder a páginas de contenido de entretenimiento para adultos.
Esta idea, más allá de debate técnico, fue derrotada por un meme. En cuanto alguien enarboló enunció la palabra pasaporte, ya eso estaba derrotado, ¿no? Es decir, ya no hay que debatir más, es decir, ha dicho pasaporte, eso eso ya, digamos, te te te ha dejado en el suelo del ring, no va a haber político que quiera ser el ministro del pasaporte, eso es imposible. Entonces, ahí parecía que esta idea estaba derrotada, pero ha llegado un agente que es, bueno, la industria española del entretenimiento para adultos que han decidido innovar. Kumloader, bueno, la la empresa tiene otro nombre con el con el que quieren fingir no ser tan porno, pero, bueno, Kumloader es una productora y una plataforma de vídeos para adultos, con contenido también de terceros, que ha introducido un test.
Este test te dice, oye, vas a entrar a esto del porno, te voy a dar dos opciones para que verifiques que era adulto. Olvídate de eso y decir, sí, sí, soy mayor de edad, g, g, g. No, esto no va a no va a ser tan fácil. Vamos a hacer dos mecanismos de verificación de que eres adulto. Uno es con una ID wallet, que se parecería al mecanismo del del estado, ¿no?
El de el estado, de alguna manera, tiene un aplicativo que le dice a la página, sí, sí, este es mayor de edad, aunque no te voy a dar sus datos personales, pero es es adulta, ¿no? Esa ID wallet. Y luego, ¿por qué no enciende la webcam o la cámara del móvil? Me dejas hacerte unas fotillos y se la paso a una inteligencia artificial que, a partir de tu rostro, estime tu edad. Y los resultados es que el ochenta y cinco por ciento, cuando ven este tipo de verificación, sale por patas, no se verifica, pero del quince por ciento que acaba cediendo Matías, un tres coma treinta y ocho elige la wallet, y un once coma siete le enseña la cara a la página porno para que la procesen y estimen con inteligencia artificial si son adultos.
¿Crees que es este el futuro?
Matías S. Zavia: Yo no sé cuál era la intencionalidad de Kumloader con esto. Es que no hay momento más humillante en la vida de un hombre que, cuando estás accediendo a un sitio pornográfico o ha terminado un vídeo, se va a negro y te ve reflejado en la pantalla en negro. Yo creo que no hay momento más triste y humillante que ese para para una persona adulta de, quizá para las mujeres también, ¿no? Pero en mi experiencia personal. Y el hecho de que alguien creyera que iba a funcionar la verificación con webcam en ese momento de la vida adulta o la vida adolescente a adulta, me hace pensar que esto no lo hicieron pensando que iba a funcionar.
A lo mejor, lo hicieron como mecanismo de presión para que se olviden las autoridades de implementar cualquier tipo de verificación de edad en los sitios pornográficos, ¿no?
Antonio Ortiz: ¿Cuál de ser, Mathis? Es que, claro, tenemos que al final esto de enseñarle la cara a la al director artificial confiando en que la empresa de la web no la va a guardar, no va a tener un problema de seguridad, no, no es confiando. Claro, que lo hace uno un poco más de uno de cada diez. Es decir, uno de cada diez usuarios de CoolRoader, de páginas por, está tan, va tan horny, Matty, cuando llega ahí, está tan en ese momento de calentura que le da igual, da igual, venga la cámara, el tag, tarjeta de crédito, todo para adelante. Yo creo que ahí está el factor, ¿no?
Hay un noventa por ciento que todavía tiene cierto autocontrol, dices, no, no, me voy a enseñar la cara aquí a la página esta de de esta de esta peña, vete a saber dónde acaban mis datos, ¿no? Y un diez por ciento que no es capaz de aguantarse. Las maneras, yo creo que si pierdes el noventa por ciento de la audiencia, o en el ochenta y cinco, esto no funciona, por lo menos para Count Loader, ¿no? Así que va a ser enfermería, me temo, es esta intento de innovación con inteligencia artificial. Te llegó el último caso, Matty, vamos a intentar salir del mundo sexual con inteligencia artificial, que parece la la monotemática del portagrado de enfermería, y vamos a hablar del futuro y de los niños, Matty.
¿Qué están preparando en China? Pues, China están sembrando para el futuro. El próximo curso empezará para los escolares de este país asiático la asignatura de inteligencia artificial. Han puesto en marcha un plan que, bueno, mete en el cole este tipo de conocimientos y van a empezar de una manera molesta. Es decir, las horas no van a ser muchas, ocho horas, ¿no?
De de inteligencia artificial para los los chavales, y también capacitarán a los profesores de distintas disciplinas con informática, matemática y tecnología para que sepan mucho de inteligencia artificial y puedan educar a los a los chavales. Y curioso, porque otro país que ha cambiado un paso similar era Estonia. Entonces, bueno, la asignatura de inteligencia artificial llega al cole, China, Estonia, ¿Cómo lo ves, Marías?
Matías S. Zavia: Pues, si no fuera tan monolítico y tan inflexible el el programa educacional que tenemos en España, el programa educativo, creo que esto debería llegar a también a España y a todo el mundo. Yo creo que mis hijos van a tener, a primera hora, inteligencia artificial y luego van a tener algún tipo de entrenamiento militar por si Rusia invade Polonia. Entonces, el tema de ponerme ahora a tener hijos, veremos en qué acaba, pero va a ser un mundo muy diferente.
Antonio Ortiz: Es verdad, yo creo que son las dos mejores acciones que se puede hacer a ningún gobierno, que es inteligencia artificial y que vuelva la mili.
Matías S. Zavia: Sí.
Antonio Ortiz: Que vuelva la mili. Es que, bueno, ya, estamos solucionando los temas geoestratégicos, entonces, bueno, sabemos que esto llegará a oídos de gobiernos y oposición, que nos escuchan mucho este podcast, y creo que con estas buenas recomendaciones, Matty, creo que podemos dar el episodio por por superado Puerta Grande a al regreso de la midi.
Matías S. Zavia: Pues nada, apagamos y nos vamos a a hablar con el boletín oficial del estado, que tiene mucho que decirnos hoy y que piropearnos, y nos vemos la semana que viene.
Antonio Ortiz: Chao, amix.