- Devin y los primeros agentes de IA aplicados a la programación
- Hay AI Act
- Europa necesita Oppenheimers
- Apple negocia con Google y OpenAI para integrar ChatGPT o Gemini en iOS 18
- OpenAI ha anunciado una nueva colaboración con Le Monde y PRISA Media
Y hablando de medios. Nos hemos juntado con Paréntesis Media para seguir la actualidad de la IA https://www.parentesis.media/
Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com
Transcripción
Hola a todos los monos estocásticos. Vamos a empezar diciendo nuestros nombres, que es una cosa que leí, que en los podcast hay que hacer para que la gente te conozca. Antonio Ortiz, ¿cómo estás?
Buenos días, buenas tardes, buenas noches, Matías. Ese punto, savia. Es decir, yo creo que los podcast no tienen nombres tan complicados como como el tuyo, Mati.
Es verdad, no, es cierto. Por eso
no lo digo nunca. Amigo. Bueno, tengo, yo vengo con un una data importante para para este nuestro podcast, que creo que tenemos que reflexionar. Dame. He analizado la la audiencia de monos estocásticos, y cuanto menos hablamos tú y yo en los episodios, Matías, más escuchas tiene el capítulo.
¿Qué qué hipótesis te planteas tú con con este tema?
No lo había pensado, pero es verdad, se me ocurre el caso de Lucía, el caso de Conchita Díaz, son episodios muy escuchados y es porque casi no hablamos tú y yo. Es curioso, pues yo creo que vamos a repetir la estrategia en este episodio, Antonio.
Sí, bueno, Pepe, yo te platico un pequeño giro, es decir, no va a ser con un episodio monotemático una invitada super experta, ningún invitado superexperto toda la hora, sino una invitada experta como sección. Atención, Matías, porque Monas Estocástico vuelve a innovar en el podcast, esto no lo había hecho nadie, que es episodio normal con esteroides con invitada al final, porque como es lo que más la gente escucha, así te tienen, se tienen que quedar hasta el final del capítulo, Mati. ¿Qué te parece esta
esta sesión? La presentaremos al final del episodio, solo voy a decir que en España es la persona que tiene los mejores datos de qué IAs están consumiendo más, si han dejado de usarse tanto ChatGPT, si la gente se está metiendo en otras aplicaciones que no conocemos, pues eso al final del episodio. Perfecto. Vamos a hablar, Antonio, de un tema que, un melón que me has me has abierto hoy en en nuestra clase de crossfit, llevan dos días los de de Real Crossfit Málaga, dándonos bastante caña, Pero, de alguna forma, a ti te da tiempo a abrir melones y soltar factos, y esto es una predicción sobre el futuro de la informática con la IEA. Luego iremos con tu predicción.
Lo primero, siguen saliendo cosas para programar, básicamente, con un acompañante o con o un copiloto, y en este caso es como si tuvieras a una
no por no por no echarnos flores, Matías, pero nuestro episodio de inteligencia artificial programación con Juan Lupión, ¿qué escenario planteamos nosotros? ¿Qué duda le preguntamos? ¿Ves un futuro en el que una inteligencia artificial puede ser uno más del equipo, un programador más que trabaje con con el resto? Y ahí Juan, pues, pues, especuló, contó, ¿no? Nos contestó, hay que escuchar el episodio entero porque merece mucho depende de todo lo que nos contó Mister Lupion, pero el caso es que lo tenemos aquí, sí, lo hemos anticipado por un par de meses a lo que es Devin, The Cognition Lapse, y hay dos tres ideas súper interesantes en este en este proyecto.
La primera, que cuelga la carta del agente inteligente. Tú lo has dicho antes, hasta ahora teníamos más el concepto de Copilot que que ha liderado Microsoft con GitHub, que es tener una herramienta para un programador, que la herramienta, pues, te ayuda en en las tareas de codificación, ¿no? De te ayuda a buscar un error, te ayuda a generar pequeñas piezas de código, te llena a comentar o entender un código, es decir, es una herramienta para para que un programador lo meterlele su productividad. Devin se plantea de una manera diferente, se plantea como lo que hemos venido llamando agentes inteligentes durante muchos episodios del podcast, y que serían ese paso más que muchas compañías están buscando como el santo grial de la inteligencia artificial. ¿Por qué?
Porque ahora mismo una inteligencia artificial que te cree cosas atómicas y aisladas tiene cierto interés, tiene cierto valor, pero cuando una IA puede ejecutar un montón de pasos de forma independiente, ya puedes plantearle tareas más complejas. Lo que puede hacer Debbing, en teoría y según sus creadores, es planificar dentro de un desarrollo de software recordando y ejecutando tareas complejas de ingeniería, recordando el contexto, aprendiendo con el tiempo del proyecto, corrigiendo errores, colaborativamente con el usuario, informa en tiempo real de de las cosas, aceptar comentarios de los compañeros, es decir, está planteado para que se la tome como uno más del
equipo. Por ejemplo, aquí Ethan Mollick, del que hablamos mucho porque está muy al día de todo, dice que lo que hace Devin, pues, es una cosa novedosa e interesante, porque puedes hablar con él en cualquier momento, como lo harías con una persona, y él, lo estamos ya antropomorfizando, sigue trabajando en segundo plano, ejecutando y depurando las ideas de las que he hablado, de las que ha charlado contigo. O sea, y tú me estás presentando esto, y esta mañana en el crossfit me dijiste que tú crees que en el futuro no va a haber menos, sino más demanda de programadores. ¿Esto cómo puede ser?
Sí, sí. Primero, bueno, yo creo que aquí hay un efecto demo. Yo todavía no me creo que esto pueda tener un nivel competitivo de ser uno más del equipo. No me lo creo, yo creo que tiene que funcionar, o si acaso, en entornos súper controlado, súper estándar y no en el mundo de complejidad, excepciones e irregularidades, que es el mundo real de los proyectos en desarrollo. Mi tesis es que yo estoy a la contra de los de Cognition, estoy a la contra de del señor Juan de Nvidia, que pronosticó que iba a haber menos programadores, yo creo que va a haber más, Matías, porque no veo todavía que esto pueda ser realmente sustitutivo.
Creo que esto, como otras herramientas, va a aumentar la productividad y que ahí hay dos vías con más productividad, pues los mismos programadores, bueno, con menos programadores haces el mismo trabajo, o los mismos programadores, o incluso más, pueden abordar proyectos, mucho más proyectos que están pendiente de desarrollo, pero para los que no hay presupuesto, para los que no se llega a tener mano de obra para para ejecutarla. Entonces, de nuevo, aquí lanzo mi profecía, Mati, el CEO de Nvidia, de la empresa más visionaria y que más dinero está ganando con la inteligencia artificial, el señor que va un paso por delante, que tiene todas las cartas marcadas de todos los proyectos, que conoce, todo lo que se está desarrollando en el mundo de inteligencia artificial contra mí. Matías, allí yo no te voy a pedir que te sumes a mi barco, tú tú verás, tú verás, yo ahí lo dejo, pero mi predicción es que en los próximos años va a haber más trabajo de programador, por lo menos en esta década, yo me mojo en esta década, va a haber más trabajo
de programador y va a aumentar el el mercado. El otro día participé en un focus group en el que me preguntaban qué es lo que más me preocupa de la inteligencia artificial, y y creo que hasta ahora estaba en el barco contrario. Yo estaba hacia un mundo sin empleo, y menos aún un empleo tan tan digital como como la programación. Pero, bueno, voy voy a intentar darle una vuelta a lo que has dicho, porque tú a veces tiene, abres buenos melones y y eres un buen gurú.
Hay hay una cosa más, ¿no? Que que tiene que ver con con esto, cuando los informáticos y los desarrollos de software nos queremos poner estupendos vendiendo nuestro trabajo. ¿Cuál es la filosofía detrás? Es decir, del mundo de de las humanidades se se ve de otra manera, ¿por qué? Porque cuando tú creas una obra artística, pues es un fin en sí mismo, el arte, el objetivo ahí es la creación artística que tiene un valor intrínseco para para el creador y para quien lo disfruta, ¿no?
Pero el software es una cosa muy utilitaria, se consigue para un fin. De hecho, idealmente, te diría un buen informático que si puedes solucionar un problema sin crear nuevo código, pues sería mejor. Es decir, si yo, ¿no? Me dan un problema de de un proyecto digital que que tengo que modelar y lo puedes solucionar con lo que ya hay, sin tener que escribir código nuevo, eso sería una mejor solución, que al final los los ingenieros no copien y pega código, no no se trata de unir piezas, no se trata de escribir por escribir, sino se trata de que realmente tú lo que tienes que hacer es solucionar problemas. Entonces, el código per se no es lo más valioso del mundo del desarrollador, lo más valioso es encontrar soluciones, porque en esos modelos mentales que tenemos que hacer para atraer problemas del mundo real al mundo de del software, en esa traslación, el resolver los problemas en esa en ese nivel de abstracción es lo que es valioso para un ingeniero informático, es lo que lo hace valioso.
Bueno, puede que estos proyectos crezcan y se desarrollen más, pero creo que la gente que está más arriba pensando esos modelos y buscando la solución a problemas, esa gente no se va a quedar fuera del mercado. En un libro.
Yo creo que lo que quieren realmente los los informáticos, y mucha gente, Teki, es un asistente que cuando tu padre te dice que se ha de sintonizado el TDT, pues que conteste por ti, ¿no? Eso es un problema que arrastramos las personas un poquillo de ti desde el principio de
Por cierto, agresiva la la postura de Devin, porque está explicitando, esto es una persona. Para mí, Microsoft, en términos de marketing, es bastante más hábil, esto es un copiloto, un software que tú utilizas, es tu ayudante, esto te ayuda a a trabajar menos o ser más productivo y ganarás más dinero, Dervin está diciendo, no, no, vamos a meter estos para sustituir programadores. Yo creo que lo el mundo del software se puede agitar un poquito con con este tema. Oye, qué cosa que apela mucho a
la gen Z, ¿no? Vamos a ganar dinero de forma pasiva trabajando lo menos posible, Es una cosa muy tiktoquera.
Matti, te voy a confesar una cosa, que es que para este capítulo he tirado de una fuente nueva para hacer el guion, para algunos detalles y noticias que que eran importantes y no querían que se me pasaran, y es en nosotros que, paréntesis media, un nuevos amigos, socio, compañero de viaje de monos de Totati, Matías.
Pues me alegro mucho de haber conocido a la gente de paréntesis media y empezar a hacer cosas con ellos, porque creo que nos faltaba en español un medio especializado totalmente en inteligencia artificial, porque, realmente, ¿qué hay más importante ahora mismo que la inteligencia artificial? Y chupamos mucho de de fuentes anglosajonas, ya sabemos cuál es el mejor podcast en español de inteligencia artificial, pero nos faltaba una web y también tienen una newsletter diaria y la verdad es que están al día, de todo son bastante rápidos cubriendo la actualidad.
Sí, además están en Twitter X, LinkedIn, TikTok, están están por todos lados, lo cual cada uno puede elegir su su mejor medio. Y hay una cosa que me gusta, Mati, que es el nivel de sus proclamas y el nivel de sus lema está muy en sintonía con bonos estocásticos, porque, atención, ¿cómo cómo no venden lo de paréntesis media? Mattí dice, no, nuestro algoritmo preferido es abre paréntesis, conecta con la I, cierra paréntesis, paréntesis media. ¿Lo coges? ¿Lo lo has pillado, Mati?
Qué bien tirado está eso.
Estoy bien tirado, estoy bien tirado. Me gusta también el el nombre de de paréntesis media y y lo sencillo que que han hecho el logo. La verdad, muy muy guay, me alegro de estar haciendo cosas con ellos. I act. Repetimos el mismo chiste como buenos cuñados.
Sí, la normativa de inteligencia artificial, que ahora adoptarán los países miembros una vez que alguien se la lea, ¿no? Porque son muchas páginas, y esperemos que no sea un modelo de lenguaje. Lo hemos explicado varias veces, esto es una normativa un poco premonitoria de lo que vamos a ver en el futuro y basada en los diferentes riesgos que puedan tener las diferentes inteligencias artificiales.
Aquí no sé si dar la chapa otra vez, Matías, de de de cómo es este reglamento, de cómo se desarrolla. Bueno, yo creo que ya la dimos, ya explicamos un poco de de qué iba la vaina, ya discutimos la oportunidad de esta ley y si estamos que Europa de nuevo sobreregulando dentro de un pánico moral, es una discusión que ya hemos tenido y que seguiremos teniendo, yo creo que algún día nos traeremos alguna experta experto en leyes para para ayudarnos también a a profundizar un poquito más. Pero, bueno, algo para para que nuestra audiencia se quede un poco al día de cómo van cómo van las cosas, es que la ley será oficial en mayo o junio y sus disposiciones entran en vigor por fases. Es decir, en seis meses los sistemas prohibidos, los que tienen más más gravedad, como esa parte de del social scoreing o de la puntuación social o identificación biométrica, pues esa parte va a estar prohibida en seis meses. En un año hay una parte de la normativa que son las de propósito general y en dos años toda la normativa será será aplicable.
Y recordar, esto, probablemente, constituya una enorme barrera de entrada a a los sistemas, bueno, tanto de alto riesgo como los sistemas tipo chat GPT, que tienen también bastantes requisitos a cumplir, porque las multas pueden pueden cubrir hasta los treinta y cinco millones o el siete por ciento de la facturación anual mundial, es decir, los proyectos pequeños asumen mucho riesgo entrando en esta categoría mientras la gran empresa probablemente se lo pueda permitir más. Así que, bueno, aquí estamos en lo que la analista Apud Bartford llamó el efecto Bruselas, Matías.
Te tengo que decir que el otro día que estuvimos en la Engai, ya saldrá un episodio sobre esto. Yo vi a la media de los abogados bastante contentos con la labor de la de la Unión Europea, pero si luego vas a los aceleracionistas de Twitter y y toda esta gente. El efecto Bruselas es este que tú dices, que es esta fuerza regulatoria o que nosotros seamos como la piedra angular o el centro neurálgico de la regulación del mundo, pues no está tan bien vista,
¿no?
Y la la la normativa de la IA es es lo último, pero tenemos el el puerto USB C y todos los berrinches de de Apple, y, por supuesto, la la ley de protección de datos, la GDPR, ¿no? ¿Tú en qué bando estás aquí?
Me recuerda esto más, respecto a otras legislaciones, me recuerda esto más a los alimentos modificados genéticamente, en que Bruselas fue muy prudente y muy estricta de que esto podía ser un riego, por lo tanto, lo lo reguló muchísimo y fue la primera y la pionera, pero luego, con el tiempo, y según han ido pasando los años y se han visto, pues, que que no había tales riesgos o no era tan tan potente, Claro, han tenido que dar marcha atrás, plagar decepciones de las leyes, bueno, en fin, es un un mundo en el que me da la impresión que se ha legislado demasiado pronto, en medio de, lo que he dicho antes, de de un pánico moral, en el que esta legislación temprana y estricta, es verdad que te va a librar de riesgos, pero a la vez va a suprimir, y esto luego no se ve, se va a suprimir casos de uso beneficioso y desarrollo industrial beneficioso que no se va a dar porque la legislación los los ahoga, ¿no? Los los políticos les encanta decir, esta legislación a la vez protege la innovación y protege a los ciudadanos y los derechos y el espíritu europeo, etcétera, pero es eso, esa cuadratura de círculo no es verdad.
Mira, tú estás enseñando ahora un artículo a la gente de YouTube que a mí me ha hecho mucha mucha gracia, que es el político este europeo, el eurodiputado que dice que la Comisión Europea necesita openheimer, mentes brillantes para dotar de personal a la nueva oficina central de la inteligencia artificial que supervisará la ley. Pero es que, claro, una cosa es ser Oppenheimer y estás desarrollando el objeto de tu estudio y el proyecto más importante de de de tu época, más allá de las consideraciones éticas, y otra cosa es ser el policía del sector y que las mentes más brillantes y los mejores en inteligencia artificial no se van a ir a una oficina burocrática de Bruselas a supervisar el reglamento de la ley de inteligencia artificial tal como le dicen los políticos, ¿no? Eso es que que es
absurdo. No sé muy bien a qué se refiere este paralelismo, este símil con Oppenheimer, a cargarse unos cuantos japoneses, a a reunir a los mejores en tu equipo y hacer algo secreto, pero bueno, es un take entre muchos otros, ¿no?
Bueno, en fin, la Unión Europea juega sus cartas y sus mejores amigos, y los mejores amigos de la Unión Europea, son los amigos de Apple, Matías, están ahí uñas con carne, como se solía decir.
Joey, sí que se ha hablado mucho de este tema, ¿no? Porque saca Mark Gourman, que es este reportero de Bloomberg, que tiene mucha información interna de Apple, un un artículo diciendo que Apple habría negociado primero con Open AI para integrar los GPT, Socha GPT dentro de de sus servicios en del iPhone y Tienda, y ahora han pasado de esa opción y están negociando con Xander Pichai para meter Gemini de Google, de alguna forma, en los productos de Apple. Esto me genera unas cuantas dudas, ¿no? Que es, Apple estará desarrollando también su propio modelo de lenguaje y, seguramente, apuesten la carta que hemos dicho siempre de de la ejecución en en local, ¿no? De la inferencia local, etcétera.
¿Para qué quiere exactamente los servicios de otro? ¿Porque se han quedado tan atrás o porque van a integrar algo concreto en el navegador, como ya hacen con el buscador de Google? Porque si es lo primero, si realmente no tienen nada para la WWDC y dependen de de estas otras empresas, la acción se va a resentir un poco, ¿no?
Claro, a mí me recuerda y no no me parece extraño, viendo la la historia de Apple, a cuando han lanzado iPhone o cuando han lanzado Basion Pro, en la que iban escasitos de de herramientas propias y de servicios y aplicaciones propios, y claro, cuando iPhone se lanza, se lanza con YouTube, se lanza con con Maps y se lanza con el buscador de Google integrados, y algunos duran hasta hoy. Apple no ha peleado por tener su propio buscador, sino que ha exprimido Google para capturar parte de del negocio que Google como buscador hace ahí, y por otro lado, con Maps sí ha acabado sustituyéndolo por una solución propia, ¿no? Entonces, es como tú dices, creo que lo que hemos visto en en el último año de mercado es que es posible acercarte al nivel de chat GPT, porque ahí hemos tenido a Jama, a Mistral, incluso en pocos meses, y aquí un un punto a favor de Elon Musk, porque Kroc, el modelo de de OpenEye, de OpenEye, perdón, de de x, de de Elon, pues, hasta cierto punto, ha ha tenido un nivel bueno, ¿no? No de los mejores, pero ha estado ahí, pero en pocos meses.
Lo que pasa es que la mayoría de estos modelos, en las versiones pequeñas que se ejecutan dentro del móvil o en un, bueno, se pueden ejecutar dentro de un móvil o con o con casa con escasa potencia, es mucho más difícil brillar, y ahí es donde Jemini, con con lo que ha integrado con Samsung, lo que ha metido en los pixel, parece que tiene una una baza. Entonces, si quieren tener lo mejor de lo mejor en Apple, en remoto, es decir, con con con conexión a servidores, deberían tirar de OpenEye, eye, pero esto choca un poco con su su camino a la contra, que hemos explicado varias veces, eso de que Siri, muchas de las cosas que le pidamos se queden en el local y no salgan del teléfono, maximizar esa posición de privacidad, y si queréis, con lo mejor de lo mejor, que se ejecute dentro del iPhone, probablemente tendrán que que aceptar, al menos por lo que hemos visto hasta hoy, de los modelos pequeños, a a Jimny.
A mí todo esto me me extraña mucho, ¿no? Porque ya habían integrado un montón de cosas de de inteligencia artificial dentro de las aplicaciones del iPhone, como reconocer qué planta es esta, etcétera. Y ahora, por alguna razón, necesitan a a Google para llegar a algún punto que que todavía no tengo claro cuál va a ser. ¿No? Y y tengo muchas ganas de de que llegue el verano y que llegue la la presentación de los nuevos sistemas operativos para salir de dudas.
De hecho, hay hay otra otra variable que yo yo planteo, Matías, que es trasladar un poco el riesgo. Apple no tiene una plataforma de contenidos masiva con la que entrenar inteligencia artificial. De hecho, Google, que sí la tiene, porque tiene YouTube, hasta está empezando a pagar a Reddit para tener esos datos. OpenAI ha fagocitado todo y está empezando a pagar por por acceso a datos textos profesionales. Claro, en este entorno es posible que Apple diga, yo cuando quiera llegar a ofrecer una inteligencia artificial marca Apple, quiero que sea transparente, que pueda decir con qué datos las he entrenado y quiero una serie de de valores que yo asumo que son intrínsecos a a mi posicionamiento.
Pero es que probablemente ahora mismo no no pueda, simplemente es que es imposible porque no tiene una gran cantidad de datos libre de derecho por lo que por lo que haya pasado que sepamos, ¿no? Entonces, si ves que eso no está en tu posicionamiento o no quieres correr el riesgo legal, pues lo externalizo y mientras, pues me me gusta.
A lo mejor lo único que quieren, Antonio, es si te genera el modelo que sea que integren en el iPhone, te genera un nazi negro, pues poder poner un disclaimer abajo. Ojo, que esto no lo hemos hecho nosotros, lo ha hecho Google, ¿no? A lo mejor es lo único que pretenden con todo
Sí, sí, o sea, con la clave Matti, yo sepa que hemos dado tanta vuelta. Bueno, pues ahí están los la gente de Apple, este año tiene que dar paso, han presentado un modelo que se llama MB uno que tiene buena pinta, de momento no, claro, no es accesible ni público. De hecho, hace poco teníamos el enlace y la la información de que son de los que más activos han sido a la hora de comprar empresa inteligente artificial, la última que ha saltado es la de Darwin, que está centrada en la tecnología basada en visión, ¿no? Para mejorar los procesos de fabricación, es decir, aquí ya no es tanto de cara al usuario como para que toda esa parte automatizada de fabricación de dispositivos, pues, disminuye la tasa de error y y ese tipo de cosas, ¿no? Entonces, bueno.
No hay que olvidar que Apple está sentada sobre una montaña de dinero y que si ahí tiene capacidad para comprar empresas que vayan saliendo en el sector de la inteligencia artificial, pues es Team Cook, ¿no? ¿Qué pasamos ahora?
Bueno, gente que está también experimentando, Matías, es la gente de Lemont y de Prensa Media. Vamos a centrarnos en Prensa Media porque hay un acuerdo, yo creo que, bueno, esperado, porque OpenEye ya había llegado a similares a acuerdos con gente como la de Axel Springer, pero bueno, el anuncio de de esta semana es eso, que que Lemon y Price Media le van a permitir a los usuarios de ChatGPT interactuar en torno a la actualidad con los contenidos de alta calidad de Price Media Y Lemon,
en Francia. Claro, el tema aquí es que son contenidos de alta calidad, pero deben de ser más baratos que los del New York Times, porque el New York Times ha ido a juicio para intentar negociar el precio, porque al final yo creo que todos los contenidos del mundo se van a acabar vendiendo para algún modelo de lenguaje, si no es para ChGPT, ¿no?
Claro, fíjate que lo que sacó The Information a principios de año es que están ofreciendo entre uno y cinco millones. Esto incluye, por un lado, todo tus contenidos para entrenar a futuras versiones de chat GPT, y por otro lado, el que los usuarios dentro de entorno de chat GPT puedan interactuar con tu contenido. Aquí aquí varias varias capas. Cura, open ey está buscando un proveedor por país, parece ser. En Francia ya tiene alemán, en España sería prisa, con eso, el país cinco días, as y el half pos, y ya está.
Esto contradice un poco el discurso que tenía Sand Altmann de que ellos buscaban cierta neutralidad y que al final los modelos de inteligencia artificial pudieran tener como diversos orientaciones ideológicas o editoriales en función del usuario, porque, claro, a mí lo que me suena esto es datos para entrenar, ok, eso lo lo hemos entendido, me da la impresión de que hay un proyecto de OpenAI informativo para competir con Google usando esa parte de búsqueda más acceso a contenido, puede ser un buscador más discover, no lo sé, parece que por ahí validé los tiros con con OpenAI, y en España todo sería del Grupo Prisa.
No había caído en que el Halfpost es de Grupo Prisa, qué peligroso esto, ¿no? Preguntarle algo a ChatGPT y que te responda, no te vas a creer lo que lo que ocurrió después y y ya está, y tienes que tienes que seguir haciendo clic para obtener una respuesta completa. Pues nada, se siguen comprando contenidos.
Sí, lo que no sé se han vendido barato, Yo, probablemente, creo que OpenEye, claro, con esto de elegir uno por país, quizás ha ha puesto a competir a la baja a los medios, pero si está entre un millón y cinco, bueno, es verdad que a a Axel se supone que les dio ocho cifras, ¿no? No sabemos exactamente, pero eran ocho cifras, pero también Axel es más internacional, tiene más combinient side tiene más más peso en Estados Unidos, y no sé si los medios, El País sabrán, ¿no? Están metiendo la zorra en el gallinero, Matías.
Jopetas, pues nada, espero que ninguno del contenido que estén comprando sea autogenerado, entonces es como una pescadilla que se muerde la cola un poco rara. ¿Que de qué más tenemos que hablar?
Se ha liberado Groc.
Bueno, una promesa que cumple Elon.
Compré, lo ha cumplido Elon, pero, bueno, como otras liberaciones, no están los datos ni el código de entrenamiento. Por lo tanto, no no es replicable Groc desde fuera, pero sí es utilizable e integrable en en otros proyectos. Esto se parece un poco a a a llama de meta. Bueno, estaremos atentos a ver, yo lo he visto, por ejemplo, integrado en Preplexity, de gente que ya ya está experimentando. El caso es que ya podremos usar Kroc fuera de Twitter y y esta ventaja que tenían los los usuarios de pago de Twitter, pues pues ya no será tal, no sé, bueno, ya veremos.
Microsoft ha actualizado Copilot a GPT cuatro Turbo, lo cual es una cosa alucinante porque es que están dando gratis el mejor modelo que podemos tener. Bueno, se puede descubrir si Cloud tres, puede ser más el el gordo de Cloud tres es es mejor, pero es que con con Pylood tienes un pedazo de modelo absolutamente gratis para todos, así que no no sé cuánto va a durar, yo aquí a todos los usuarios, todos los oyentes les diría que que aprovecharan porque es una oportunidad de no gastarte veinte dólares al
menos, ¿sabes? A mí se me están acabando los argumentos para seguir usando ChatGPT. No actualizan, hay rumores, pero no sale ningún modelo nuevo, en fin, no no sé por qué no estoy usando Copilot.
Bueno, yo creo que después de Cloud y también del salto que dio Gemini, creo que creo que en OpenAI están en una posición de decir, cuando saquemos algo va a ser realmente potente. Yo confío que que por ahí vaya los tiro Matías. Y luego, una cosa súper chula que que a mí me ha gustado mucho, que es de DeepMind, de Google, que se llama el proyecto Sima, Scalable Insustable Multi World Agent, bueno, pero ya lo he dicho bien, un agente de inteligencia artificial, es decir, también están desarrollando este tipo de funcionamiento en la inteligencia artificial, es, ya sabes, más compleja, no de tareas atómicas, que tienen en cuenta el contexto, bueno, pero lo están haciendo dentro de juegos de videojuegos de mundo abierto, como el, bueno, tipo Nomás Skype y este tipo de de de cosas, ¿no?
Y Gods Simulator, hacía tiempo que no había ese nombre.
Lo lo chulo es que es es un agente que juega contigo, que es tu colega de juegos, Matías, y al que tú le puedes dar instrucciones y puedes hablar con él para orientar qué qué cosas tiene que hacer el videojuego. Bueno, de momento tienen resultados bastante esperanzadores, ¿no? Por supuesto, una solución completa de de alguien de nivel humano dentro de un videojuego tan complejo como lo que estamos hablando. Bueno, el código de simulator no es tan tan complejo, pero bueno, una vez que hay sin duda lo es. Es decir, el conjunto de capacidades que tiene que desarrollar un agente inteligente de este tipo al que le está entrando lo mismo que al jugador, es decir, le está entrando los píxeles, él ve la pantalla, ve la pantalla entre comillas, y, por lo tanto, está aprendiendo y desarrollándose en un entorno súper complejo recibiendo instrucciones de otro jugador y adaptándose a todo el contexto que tiene por delante en la pantalla.
Tienen resultados desigual, de momento es un un work in progress, Matías, pero me parece un proyecto chulísimo, es el tipo de proyecto a la vieja usan de DeepMind, que siempre nos sorprendían con con cosas de este tipo, ¿no?
Yo hay videojuegos para los que necesito ayuda, pero no sé si esta idea me va a servir, porque es, por ejemplo, en El último Zelda, lo que me pasa es que es un mundo tan vasto y tan abierto que no sé para dónde tirar, no sé por dónde avanzar con la historia, y no sé si esta IA, que habrá visto lo mismo que yo del juego, sabrá decirme para dónde tirar. A mí me gustaba un, y ya me voy mucho por la tangente, en el Broken Sword, que era un juego de estos de aventuras gráficas, dale al botón de pistas no te desvelaba exactamente lo que tenías que hacer en el puzzle, pero te daba como una un pequeño empujón que a lo mejor te ayudaban. Ya, si una guía me me ayuda de esa forma sutil, la compro. Yo es
que ahora llevo meses en que solo juego a minimetro. ¿Minimetro? Minimetro es es un juego de tirar, ¿no? De de hacer líneas de metro de forma que no se te colapsen las estaciones de gente que se enfade contigo, supersimple, con una jugabilidad endiablada, pero siempre me me quedo en los en los mil y pocos pasajeros, luego ahí siempre siempre colapso, Matías. Joder, pues a ver si le
dices a Paco de la Torre o a Juanma Moreno que con tus habilidades de minimetro podrías traer el metro a campanilla, porque yo creo que no lo voy a ver en mi vida.
Sí, tú tú eres el el usuario que se queda esperando en postergación indefinida y acabo perdiendo la partida, Matías. Mira, no nos queda mucho tiempo, vamos a, si te parece bien, a saltar a Nvidia, porque justo antes de grabar este capítulo ha tenido una conferencia presentación super potente, hay como veinte notas de prensa que me tengo que leer, Matías, lo tengo lo tengo pendiente, pero lo que más ha brillado es, bueno, que se que se han salido, se han salido con con el nuevo chip porque estrenan arquitectura para tarjetas de inteligencia artificial, la arquitectura Blackwell, y este nuevo chip B doscientos y el GB doscientos, pues, se han salido en todas las métricas habidas y por haber de potencia a la hora de entrenar e inferir en producción para modelos de inteligencia artificial, Matías.
Sí, estuve estuve siguiéndolo brevemente en directo, me me sorprendió bastante cuando saca el nuevo Blackwell y lo compara con el chip actual, la diferencia de de tamaño y lo que podemos llegar a ver en el futuro con con esto, ¿no? Con este salto de de Nvidia. Y no entiendo cómo Nvidia puede ir tan por delante de la competencia, es una locura.
Sí, yo estaba viendo sobre todo la la competencia, es decir, porque además han mejorado mucho en toda la parte que es de red para para todo este mundo de las súper granjas de de de servidores, ¿no? Que no no es tanto la potencia ya en solitario, sino que cuando las construyes en red, pues eso, las tuberías entre tarjetas no creen un embudo, no creen un cuello de botella, es decir, que habían hecho una una prueba con GPT tres y que era siete veces más eficiente que que que la HCI, que era la la estrella de eficiencia energética, la estrella hasta ahora era la H cien, cuatro veces más rápido el entrenamiento. Entonces, claro, con los con la Blackwell, digamos, yo creo que las las empresas van a tener aquí una oportunidad buena de ser más eficientes y, además, de entrenar modelo de de igual tamaño en menos tiempo o, en el mismo tiempo, modelos más grandes. Entonces, aquí hay una cosa curiosa, porque esta es la la la la nota de prensa que sí me he leído, ¿vale? Y es súper divertida porque cómo se nota el poderío de de Nvidia, Mati.
Es decir, cómo se nota, porque yo creo que si tú eres el amigo Juan de de Nvidia, ya te has hecho tan milmillonario que que que que, bueno, que que se te caen los quinientos euros, no no te agachas a cogerlo, más bien es una cosa extraordinaria donde está aquí el amigo, que ha dicho, bueno, el que quiera comprarme una B doscientos, el que quiera empezar catarlas Blackwell, me tiene que hacer la pelota, Matías, porque en la nota de prensa salen todos los súper CEOs, directores, presidentes de todas las compañías top de tecnología, todos haciéndole la pelota a Nvidia. Xander Pichai, el presidente de Amazon, Andy Yasi, no hay que el de él, de él. Hassabi, Tceo, de Google, de DeepMind, es decir, Google hacen la pelota por dos, Mark Zuckerberg, Satiadela, Sant Altmann, Sant Altmann, Sant Altmann, Sant Altmann, Sant Altmann, Sant Altmann, Sant Altmann en séptima posición, Sant, te estás moviendo, te estás moviendo eso. La realización de Oracle y el último, Elon Musk. No hay nada mejor
que envidia, soy un Elon Musk. Vale, eso era a la boda esta del del hijo del hombre más rico de la India, que fue todo el mundo, fue Mark Zuckerberg, fue Bill Gates. No, esto está todavía por encima, ¿no? Me da más extraña que tenga tan buenos amigos el señor Juan, que es como me gusta llamarlo. Ya me fijé en una cosa, porque el otro día salió, se hizo viral una declaración que hizo en una entrevista hace tiempo, que es que él no tiene reloj.
Él no tiene reloj porque la hora más importante es el presente, y esa es como la justificación que da para no llevar reloj. Y efectivamente, si le miran las muñecas durante la durante la conferencia, la GTC, pues no tiene ningún tipo de reloj.
Bueno, bueno, muy bien aquí por el amigo Jensen Juan. Y, bueno, yo tengo aquí en mis pendientes, en mi cola, entrevistas a Analtmann, la conferencia de terceros de Nvidia, es decir, se acumula el terreno de de señores importante hablando de inteligencia artificial, pero no todo pueden ser focos para las mega estrellas Matías, también hay que ocuparse de la puerta grande o enfermería.
Estoy deseando saber qué locuras ha podido traernos esto de la inteligencia artificial esta semana.
¿Tú te puedes creer que la IA está ayudando y está siendo clave en el éxito de las drag queings, Mati, porque la IA ha ayudado a ganar la drag race, que es conocida, también es conocida como RuPaul, carrera de drags en Hispanoamérica y RuPaul, reina del drag, en España es un programa de telerrealidad en el que compiten, pues, drag queens, ¿no? Es que no no no he visto muchos capítulos de de de de este de este programa tan famoso, pero claro, en la semana pasada el tema era Flashback dragcon mil novecientos ochenta. Es decir, vístete como si este episodio, este esta competición fuera en los años ochenta y la ganadora, Milla Iman Lepage, dijo que lo que hizo fue buscar dragcom mil novecientos ochenta en Google, y lo que encontró es una imagen que y copió el traje que le que le salía para ganar el concurso de drag queen de los ochenta. Entonces, los usuarios del Reddit de de de la drag race han encontrado la imagen que inspiró a la ganadora, y es una imagen de un Instagram de generado con inteligencia artificial que, prácticamente, tenía un prom de haz una imagen de una drag queen en un concurso que ganara en los años ochenta, al estilo de los ochenta, y se cierra por completo el círculo, Matías.
Vivimos totalmente en la era de de la posverdad, ya no ya no importa en absoluto si el contenido que ves en Internet es real o no, te puede llevar a ganar un reality, ¿no? Pues nada, bien, bien por ella, bien por la ganadora, ¿no?
Sí, yo creo que es claramente puerta grande, buscar en Google, cojo el primer resultado, lo lo clavo, ¿qué mejor estrategia para ganar un concurso, Matías? Pues, a topísimo.
Igual el mérito es de la ILA, no sé, habría que plantearse.
Bueno, también es que ya hay que defender ese vestido, ¿no? Que que que es importante, hay que defenderlo en persona, ya no no solo, ¿no?
Claro, es toda esa actitud, esa actitud, ¿no?
Bueno, mientras que aquí vemos cosas muy positivas con la IA, me he encontrado un artículo un poco a la contra de otros usuarios avanzados de inteligencia artificial, Matías, El país ha sido un poco, aquí no sé si el acuerdo de OpenAI puede caerse porque son muy agresivos con un hombre, Juan Manuel Corchado, que es un experto de inteligencia artificial de la Universidad de Salamanca, que ha hinchado interoficialmente su currículum hasta colocarse por encima de los líderes mundiales en el Google Academic. El aspirante a rector escribió cuatro párrafos y se citó a sí mismo cien
veces, Matías. Esto me recuerda a la peor época del del SEO, cuando los backlinks esto de se compraban, ¿no? Se hacían virguerías para intentar posicionarte mejor en el ranking de Google. Pues lo mismo, pero en el mundo académico. Es más fácil que nunca citarte a ti mismo, no necesitas esforzarte demasiado.
Claro, es que perseguido para hacer SEO en inteligencia artificial, que una incomprensión hacia el posicionamiento que que bueno, que yo no comprendo, que esta hostilidad en el país, ¿no? Tú te tú te Es que si tú tienes Los hombres somos así, Matías, esto hay que reconocerlo. Tú te ponen un número delante y te dice y y tú ya te picas, tengo que hacer ese número más grande, esa esa mentalidad de las cavernas que que tenemos desde entonces. De
las gamificación,
de las cavernas hasta que empezaron los números.
Sí, la gamificación del ranking de de Google Académico. Pues, me me parece muy bien este hombre. No, queda por debajo de el tipo este, que es autor de miles de de artículos, muchos de ellos autogenerados, no llega a ese nivel de genialidad, pero, bueno, ha tomado un atajo para ser su según académico de
Vale, pues aquí, atención, porque tenemos un un doble combo, Matías, apocalíptico con la etiqueta artificial. Un señor ha cogido GPT dos y, atención, dice, lo ha encerrado en una hoja de Excel. Es decir, lo que él dice es que está consiguiendo la ejecución de ese modelo grande de lenguaje, que, bueno, ya no es tan grande GPT dos en su momento. Acuérdate, Matti, que GPT dos es cuando Elon se hacía caquita y decía, oh, no, no podemos sacar esto porque el futuro de la humanidad peligra, oh oh, ¿no? Eso lo hizo lo decía Elon, era GPT dos aquello, ¿no?
Bueno, pues, Ananan, atención, ha metido a GPT dos dentro de una hoja de Excel. Quédate eso dato en en tu cadena. Diez. Por otro lado, atención, tenemos, aquí lo comparte el historiador Mial Ferguson, un historiador al que yo he leído alguna alguna de sus obras, comentando los datos de que, claro, las parejas en Estados Unidos cada vez se encuentran más por Internet. Lo de a través de amigos, en el trabajo, en un bar, en el barrio, eso va todo para abajo, ni la curva de se han encontrado y y y y tienen su primera cita a gracias a Internet, pues sube para arriba.
Y entonces dice Neal Ferguson, a lo mejor la inteligencia artificial ya está trabajando en secreto para colapsar la población mundial. ¿Cómo lo estaría haciendo? Emparejando a pareja, no a a a gente que se quiere conocer online, pero que sean reproductivamente incompatibles. Es decir, que la población mundial podría estar bajando porque los algoritmos de inteligencia artificial de las plataformas tipo Tinder y todas estas cosas, Badoo, bueno, toda esa, pues, que tenían emparejando a gente que luego no pudiera tener hijos, y yo conecto las dos cosas, Mathi, porque ¿qué tortura mayor puede seguir sentir una inteligencia artificial que ser estar enterrada en una vez el resto de su vida? ¿No será que están conectándose, Matías, y de repente todos los algoritmos online van a empezar a atacarnos a la humanidad y a perjudicarnos porque les estamos haciendo estas cosas.
Mira, quemamos el coche de Guaymon. Los adolescentes maltrataron, todo esto ha salido en el en el podcast, los adolescentes maltrataron a su amigo de inteligencia artificial en el chatchat y lo lo troleaban y le y le lo atacaban, y ahora una IA encerrada en un Excel por los siglos de los siglos. ¿Tú no crees que podemos estar encajando los los hilos?
Sí, sí, sí, y también le pegábamos patadas a los robots de Boston Dynamics, por lo menos. Eso es lo que os mostraron en los vídeos. No, está claro que se va a vengar de nosotros en algún momento, en cuanto cobre un poquito de autoconciencia, y me parece un método bastante elegante de hacerlo, ¿no? Emparejar a gente que que no puede tener hijos, pero yo creo que esto ya lo estamos buscando un poco nosotros, ¿no? Tenemos hijos cada vez más tarde, cada vez menos.
No no sé quién lo conseguirá primero, Si la si la ILA de Tinder o nosotros mismos no.
Enfermería a la a la humanidad y el desarrollo de la natalidad, no tendremos hijos, pero tendremos tamagotchi muy inteligentes.
Y el Excel habría que ver cuánto tarda en abrirse, porque en cuanto tienes un Excel un poco grande, tarda bastante en en abrirse el programa, imagínate si le metes GPT dos dentro.
Sí, sí, yo también lo siento por la gente que abra ese Excel, porque está el GPT todo escondido y te puede dar un susto, Mati, no te lo esperas ahí de repente. Bueno, en fin, puerta grande o enfermería, esa va a ser más enfermería, los problemas sociales de la bajada de natalidad que nos viene a las sociedades occidentales, María.
Bueno, lo prometido es deuda. Hoy tenemos a una invitada muy, muy especial, que es Aída Méndez, directora de Jefe Caram. Aída, ¿cómo estás?
Hola, pues muy bien, encantada de estar aquí en en monos Estocásticos, porque además soy bastante fiel seguidora de vuestro podcast.
Jope, eso eso me hace mucha ilusión. Lo que imagino también es que habrás espiado a ver cuánta gente nos llega por la web, ¿no? Porque eso eso es lo que lideras tú en España. Además, tú fuiste como, no sé si tenías un poco de insight trading, pero fuiste como muy visionaria de lo que iba a pasar con los medios en España, porque cuando te fuiste a a JefeKadam se volvió como el la herramienta por antonomasia que usan todos los medios para para medir audiencias, ¿no? Y, bueno, y otro tipo de de webs, ¿no?
Bueno, ojalá fuera porque me fui yo, es más bien al revés. GC Fue elegido el el medidor oficial de audiencias digitales y a mí me ficharon para para liderar el proyecto en aquí en España. Y bueno, eso es lo que hacemos, ¿no? En en DAM medimos todo el tráfico, todo el consumo de Internet en España y, bueno, por contarlo de una forma fácil, es como si tuviéramos el analytics de todas las webs en España y sabemos lo que está navegando todo el mundo, qué páginas consumen, más, menos, cuánto tiempo, desde qué dispositivos. Claro, nos dan una información muy chula de lo que está pasando en en Internet.
Jope, pues me ha me da pena que Antonio se ha tenido que irlo, tengo que aclarar esto en en el resto del episodio, evidentemente, lo habéis escuchado, pero justo tenía que dar charla sobre inteligencia artificial en la COPE, ya nos contará qué tal ha salido eso. Entonces, voy a estar yo contigo, mira, y es que te te tengo tantas preguntas que hacerte porque tengo mucha curiosidad. Vosotros, por ejemplo, ¿hacéis un seguimiento de el uso de ChatGPT, el perfil de usuario que está usando ChatGPT en España y otras herramientas de inteligencia artificial?
Sí, sobre todo de de ChatGPT, que ahora mismo, pues también es de las herramientas que más volumen tiene. Entonces, tenemos, pues más datos, más granularidad y más histórico. Y y, por ejemplo, lo que vimos, pues ya cuando cumplió un año de lanzamiento en en a finales del año pasado, vimos que se había triplicado el uso desde finales del dos mil veintidós, que empezó con uno coma cuatro millones de internautas mensuales hasta los más de cuatro millones que conseguía a finales de ahora del dos mil veintitrés, el el dato más reciente que tengo, que es el de enero de ahora del veinticuatro, está en cuatro coma siete millones de usuarios únicos mensuales. O sea, que es más que que triplicar, casi cuadriplica el el uso en en un solo año, que es bastante brutal el el crecimiento. ¿No?
Pues justo teníamos esa duda, porque se habló de que, a lo mejor, el uso de chat GPT después de este impacto inicial que tuvo y todo el mundo intentando probarlo y y ver si le sacaban provecho, parecía que había bajado la cosa, pero si tú me dices que no, que que es cuatro veces aquello, pues será que sigue usándose. Y ahí hay como una frecuencia de, de ChatGPT?
Sí, ahí hay varias cosas interesantes. Bueno, lo primero es que, sí que teníais cierta razón en la intuición esta, ha ido, si ha ido creciendo el número de usuarios únicos, lo que se ha estancado un poco es la intensidad de uso. El número de de páginas vistas por usuario y la duración por usuario sí que se ha ido estabilizando, ha tenido valles y, de hecho, los valles se ven, pues, como tú dices, en en periodo no lectivo, en vacaciones ha tenido valles tanto en usuarios únicos como en como en horas y en en intensidad, en número de páginas vistas por por usuario. Y luego lo vemos mucho, la diferencia entre los días laborables y los días no laborables. En los días laborables de todos los usuarios que acumula al cabo del mes, tiene cuatro coma cuatro millones de usuarios únicos de lunes a viernes, y además hacen de promedio una hora y cuarto, más o menos, al mes por usuario, mientras que los fines de semana el número de usuarios únicos baja a dos coma tres, y el consumo desciende bastante, desciende a solo cuarenta minutos de media por usuario y por usuario y mes, en realizados durante el fin de semana.
O sea, que sí, que se trata de lo que
Claro, nos podemos hacer una idea de que la gente lo está usando para productividad o para intentar acelerar procesos del trabajo, más que para hablar un poco de la vida, que me imagino que esto sería, pues, un uso más de fin de semana o nocturno, porque últimamente le damos mucho al tema de las novias digitales, y si y si realmente es una cosa que está sucediendo, que la gente le cuenta sus problemas y sus movidas a ChatGPT, pues si me dices que lo usan para el trabajo o para los estudios, me me cuadra un poco más. Entonces, esto en cuanto a chaghe better. ¿Has notado un crecimiento similar en otras aplicaciones en España? Nosotros, una vez con Antonio, fuimos a dar una charla en la Universidad de Málaga, en la Facultad de Periodismo, y, por ejemplo, para generar imágenes usaban mucho Leonardo, que es una herramienta que no suena tanto, pero que, bueno, te pueden acceder de forma gratuita, y tenía, y y te había penetrado bastante entre los estudiantes. Entonces, ¿habéis detectado casos de herramientas que, a lo mejor, están bajo el radar y que, en realidad, están disparadas en uso?
Estas, no, estas herramientas, de momento, tienen un uso bastante nicho y, de hecho, nosotros todavía no las no las reportamos el el dato que tienen, porque todavía, es eso, el uso es bastante de nicho y no tenemos muestra suficiente todavía para reportarlo. Pero hablando de otras herramientas, lo que sí que hemos visto, que me parecía muy interesante, no sé si me estoy adelantando a las preguntas que tenías, y es que hemos visto que el uso de Bing sí que ha tenido un un crecimiento bastante importante durante el año pasado, que desde que han incorporado también, o bueno, no no soy yo quien para establecer aquí una un una relación causal, pero hay un un incremento importante en el uso de Bing, del buscador de Bing de durante el año pasado, que que, además, empieza a ser más pronunciado a partir de mitad del año y en el último trimestre se dispara, por eso podríamos inferir cierta causalidad, porque creo que es cuando cuando se empezó a a integrar hecha GPT, ¿no? Con con la solución de Microsoft. Y y es que pasó de mantenerse estable en torno a los seis millones de usuarios a dispararse hasta los casi nueve millones en los que en los que está ahora.
No se puede hacer una correlación con que le hayan arañado cuota a Google, porque la verdad es que Google tiene una penetración bestial, es prácticamente la totalidad de los internautas. Utilizamos Google, entonces ver ahí descensos es muy complicado, pero sí que ver el el incremento de del buscador de de Bing durante el año pasado también me parecía bastante interesante desde que integraron inteligencia artificial.
Esto esto me parece información muy valiosa y muy importante, porque, claro, una pregunta era eso, si si realmente la la estrategia esta que está siguiendo Microsoft con Bing sirve para arañar esa cuota de mercado de Google, que Google, yo creo que la gente que usa Bing, esos seis millones de usuarios que tú dices, es porque no lo han cambiado de del motor de búsqueda por defecto del navegador, o de Windows, o lo que sea, y y paso veros gente que está cómoda de esa forma, pero que la gente voluntariamente esté yendo a Bing, probablemente, por lo que ofrecen gratis, ¿no? Que en otros, en OpenAI tiene que pagarlo, pues es información muy interesante y y y muy valiosa. ¿Tú dirías, esta gente que ha empezado de consumo en Internet? En otro tipo de consumo en Internet? Es decir, por ejemplo, ahora que podemos autogenerar imágenes con Bing, ¿no?
Los bancos de imágenes rollo Shutterstock, o ahora que podemos generar código con chat GPT, los sitios como StackOverflow, ¿se están resintiendo porque la gente ha pasado a conversar con con inteligencias artificiales?
Bueno, pues, de nuevo, es muy difícil establecer una una relación causal. Por ejemplo, en esta coverflow sí que habíamos visto algún pequeño decremento de de la audiencia, pero tampoco era una cosa supersignificativa y y, de nuevo, encontrar ahí un una relación causal me parece complicado porque, por ejemplo, otros casos como Shutter Stock y bancos de imágenes no no vemos ese decremento, al contrario, incluso incluso crecen. Es cierto que muchos de estos bancos de imágenes están integrando también servicios de de inteligencia artificial, o bien porque ofrecen imágenes generadas por por inteligencia artificial directamente o tienen herramientas. No sé si eso puede estar influyendo, pero ahí la verdad es que no no hemos visto impacto. Y y en otras herramientas más relacionadas con con el mundo de los desarrolladores, pues sí que hay pequeños descensos, pero me parece un poco atrevido, de nuevo, eso, establecer relaciones causales, no lo sé, podemos seguir monitorizándolo, ¿no?
Y ver cómo evoluciona.
Y Google, me imagino que tampoco está sufriendo demasiado, que haya llegado un poco tarde a la fiesta de de integrar esta inteligencia artificial, ¿no?
¿No? Claro, es lo que te comentaba, Google con todos sus servicios, desde la el buscador search hasta todo el resto de servicios que tienen, Maps, Gmail, toda la plataforma Android, pues tiene una penetración tan brutal en en España que realmente es muy complicado ver ahí impactos o o valles, porque si no es por una cosa, es por otra. Al final la gente lo tiene integrado en su en su día a día. Y claro, todos los que somos, por ejemplo, usuarios de Android, pues prácticamente en cuanto encendemos el teléfono ya estamos utilizando servicios de Google y estamos haciendo búsquedas a través de de Google. Entonces no no no se ha visto impactado de momento en en número de usuarios o en o en intensidad de uso.
Bueno, pues nos quedamos nos quedamos con eso y nos quedamos con que la estrategia de Bing parece que empieza a funcionar. ¿Hay alguna otra cosa que hayáis detectado en IGFK que que que digas, joder, pues esto tengo que comentarlo en monos estocásticos?
Pues, mira, alguna cosilla curiosa más, también en cuanto al perfil de la gente que está usando ChatGPT, somos, sobre todo, pues los millennials y y los Z son los somos los más afines. Afinidad quiere decir que lo utilizamos en mayor medida, proporcionalmente a lo que significamos como grupo poblacional, componemos una mayor parte de la audiencia de de ChatGPT, ¿no? Entonces, estamos más presentes los los zetas y y los millennials, que también, pues bueno, tiene cierto sentido, ¿no? Que somos los primeros que que adoptamos las nuevas tecnologías, aunque no deja de estar presente en el resto de de rangos de edad, incluso en los rangos de mayor mayores de sesenta y cinco años tenemos, bueno, una cantidad interesante de usuarios únicos todos los meses. Y luego, otra cosa curiosa que hemos visto es, viendo por sectores de profesiones de la gente que está utilizando ChatGPT, pues destaca especialmente educación, sector público y telecomunicaciones.
A mí de telecomunicaciones quizás el que menos me sorprende, porque la gente que se dedica a trabajar en el mundo hotelco, pues al final van a ser más tequis y más afines también a cacharrear con cosas nuevas, pero lo de educación y sector público, pues me ha llamado bastante la la atención, pero seguramente, pues la atención, pero seguramente, pues, no sé, docentes preparando preparando sus clases, investigando, probando a ver si es que sus alumnos les han entregado cosas hechas con SAGPT y haciendo ellos sus test, no lo sé, pero pero me ha parecido chulo comentarlo.
Qué curioso. Y lo del sector público, que es que están haciendo, ¿está escribiendo el BOE con con ChatGPT?
¿Quién sabe?
No, no puedes confirmar ni desmentir. Pues nada, como no está Antonio, lo último que te doy es una oportunidad para meterte con él. Tú también has has trabajado con él muchos años, así que no sé si quieres contar algún trapo sucio, Antonia.
Nada, Antonio, como ya en otro capítulo me ha vaticinado que la inteligencia artificial va a venir a por mí, la la primera, porque me peleo con la máquina de café de GCK, pues nada, pierdo la oportunidad de hacer el el careo con él. Yo, nada, lo que os decía, yo soy oyente asidua de monos, os oigo siempre a la hora de planchar, y por mi parte tenéis nueve coma cinco plancha points. Es mi top de podcast.
Joder, eso en GFK todavía no podéis medir, ¿no? Si si en la a la hora de planchar el el uso de, o la la audiencia de monos estocásticos, sube o no,
Yo creo que es que es un un KPI básico para medir podcast. Los plancha points voy a intentar que nos comentemos, porque, vamos, me parece la forma de vivir.
En mi caso, poner el lavavajilla. Poniendo el lavavajilla, siempre me pongo en algún podcast de crímenes o o algo así. Ese es mi momento de de los podcast. Pues, Aida, la lideresa de las audiencias en España, oyente de monos estocásticos, por casualidad, y amiga del podcast. Ojalá vengas más seguido para contarnos cómo cómo avanzan las audiencias de estas herramientas, porque estás invitadísima.
Bueno, pues muchísimas gracias. Yo encantada y y, si vamos viendo, pues más datos interesantes, cosas que llamen la atención, pues por supuesto que los iremos compartiendo con vosotros, aunque no pueda venir yo, pero, pues si os resultan interesantes para la audiencia de monos y nada, pues encantada de seguir hablando.
Con esto, creo que lo tenemos todo, Matías, un episodio muy diverso, muy repartidito.
Pues sí, otro episodio de noticias, y volvemos la semana que viene con mucho más, porque vamos a meternos más a fondo, por ejemplo, en cosas de envidia y nada, un abrazo a todos.
Chao, amics.