Antonio se enfada con unas galletas en Sevilla Para alcanzar la AGI hay que trabajar 60 horas a la semana Atentos al Big Friday porque son 130 millones en juego Vuelve Alexa con grandes promesas por parte de Amazon El modo de voz avanzado de ChatGPT tiene competencia A la Siri buena no se la espera hasta 2027 Llega GPT-4.5, el modelo favorito de Sam Altman Puerta grande o enfermería
00:00 /1h10

0:00 Antonio se enfada con unas galletas en Sevilla

05:10 Para alcanzar la AGI hay que trabajar 60 horas a la semana

11:28 Atentos al Big Friday porque son 130 millones en juego

13:14 Vuelve Alexa con grandes promesas por parte de Amazon

27:15 El modo de voz avanzado de ChatGPT tiene competencia

34:32 A la Siri buena no se la espera hasta 2027

42:49 Llega GPT-4.5, el modelo favorito de Sam Altman

53:50 Puerta grande o enfermería

Patrocinador: Este viernes 7 de marzo es el Big Friday, un sorteo especial del Euromillones en el que están en juego 130 millones de euros. Nuestros oyentes tienen una participación gratis para cuentas nuevas de Tulotero con el código "MONOS" desde el menú de Activar Promociones o la seccón de peñas Rocket. Si ya tienes cuenta, te puedes unir a la peña con una participación de 1 euro: tulotero.es

Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com

Publicado: 6 marzo 2025

Transcripción


Hola a todos los monos estocásticos. Bienvenidos al podcast de inteligencia artificial que escucha el Papa Francisco mientras desayuna. Antonio Ortiz, ¿cómo estás?

Hay gente que piensa que aquí los podcasters, hablamos de forma gratuita, que hablar es barato, decir las cosas, dejarlas ahí en el aire, pero que la mayoría luego no somos consecuentes. Esta semana pasada, tú sabes que que yo he estado de viaje y me ha tocado dar la cara, Matty, por los valores y las posiciones éticas que defendemos en monogitosca.

Todos los días vienen aquí, pues, estas largas diatribas sobre ética y moral, así que ahora mismo no estoy muy ubicado, no sé a cuál te refieres.

Estuve en Sevilla con la familia y, por supuesto, Matías, elegimos un sitio viral de Tik Tok para hacer la merienda, siempre hay que hay que hacer la ruta gastronómica con algo que te dé garantías, ¿verdad? Entonces, visitamos un establecimiento, el monstruo del laboratorio de las galletas, en el que disfrutamos también de una de una cola de de de media horita de espera para para comprar galletas, Matías. Y lo que me encontré allí dentro fue un momento de, pues, de de cuestionamiento generacional. Tú sabes que yo intento no ser el típico pureta, ¿no? Que eso juzga a la juventud.

De hecho, estoy a favor de usar literalmente cuando literalmente no significa literalmente, y estoy abierto a ese tipo de de de manifestaciones, yo las las adopto y y las

y las

tolero, ¿no? Pero allí me encontré con una posición de estos zetas, de estos chicas y chicos movidos por el deseo mimético de las redes sociales, en el que no pude no pude reprimir el alzar la voz y denunciar lo aberrante de la situación. Y es que Mathey, además de las galletas de pistacho, que fueron un gran acierto, está, puedes acercar las galletas de pistacho del monstruo del laboratorio de Sevilla, tenían galletas con lotus. Mattí, esto no se puede tonerar, no podemos aceptar cualquier cosa. No todo lo que se puede hacer debe hacerse.

Estamos confundiendo la libertad con el libertinaje, porque ahí tuve que parar y denunciar a las jóvenes que atendían el monstruo de Laboratorios de Sevilla lo contradictorio que era añadir galleta a una galleta, que cómo puede ser que a una galleta, ¿no? Con una cookie, le pongan un suplemento de cookie encima. Una de ellas, me me empezó un un debate ahí, no tan solo, sino amable, ¿no? Y y cordial, me defendió que también llevaban relleno por dentro. Y yo le dije, relleno de cookie, ¿habéis puesto relleno de cookie a una cookie?

Y ahí ya no supo qué responder, Matthew, y dejé un bastión puesto por Romones Estocásticos en la tienda más viral de galletas de Sevilla.

Claro, es que yo sé lo que está pasando, porque tú como informático debería, de alguna forma, hacerte gracia la recursividad, ¿no? Es una cosa que tienes muy estudiada, y el problema es que entra en conflicto con ser una persona a la que le gustan las cosas con lógica, las cosas con sentido, y es cierto que se pierde el sentido. También te digo, me hace gracia que la generación Z, la generación alfa vuelvan a caer en el mismo error de nosotros, los millennials, con los que se meten muchísimo, y es ir a los sitios que se recomiendan en Instagram. Me pasó una vez en Roma, no me pasa nunca más, que fuimos andando a un sitio que era famoso en Instagram. Me voy a meter en el establecimiento, que aparentemente no tenía mucha gente, me para un segurat en la puerta y me dice, me señala, no, no, la cola está allí, y estamos hablando de que tenían organizada a unos metros una cola de unos ciento cincuenta metros de longitud.

No vuelvo a ir a un sitio recomendado en Instagram y, sobre todo, a un sitio que intenta venderse por esos canales, ¿no? Como el establecimiento de Caracoles de Córdoba, que ahora tiene una unos caracoles con galleta Lotus, ¿no?

Claro, hay que parar. Hay que hay que parar en algún momento. Ahí no podemos seguir jugando a ser dioses y, bueno, entre la creación de la AGI y los caracoles con lotus, yo creo que la humanidad está jugando con fuego. También te digo, luego antes de irme me hice un selfie con la mascota de la tienda para ver, para compensar, ¿no? Para grabar que en un un intente cordial, ¿no?

Que no no sea una reunión trampista, la la nuestra, la mía con el laboratorio de las galletas este. Y y, bueno, yo creo que poco a poco vamos sembrando, vamos dejando ahí nuestra semilla de de racionalidad para que hagamos un mundo mejor. Adiós. Hablando de hacer un mundo mejor, tenemos a un a un hombre, a uno de los fundadores de Google, que yo tengo ganas de adoptarlo como personaje del podcast, Mati, porque le está diciendo cositas el amigo Sergei Brin.

Es un personajazo este hombre. Me hace un poco de gracia cuando la gente se asusta mucho de las condiciones laborales que Elon impone abiertamente en sus empresas, lo dice en público, ¿Pero qué pasa cuando le pones un micrófono a cualquier otro gran CEO o fundador tecnológico como Sergei Brin? Pues que dice que, a lo mejor, estamos trabajando poco y lo ideal, lo óptimo sería trabajar sesenta horas semanales.

Sí, sí, sí, sí. Bueno, Sergei tiene una trayectoria curiosa, porque fue uno de los cofundadores junto a Larry Page de de Google, y se mantuvo en el liderazgo de la de la compañía que, bueno, fueron metiendo deseo a Eric Smith, pero seguían como al frente de del del de toda la parte de producto y de estrategia de la compañía, pues, ambos durante muchos años, hasta que, bueno, llegado cierto momento, pues, de mucho después de la salida a bolsa de de Google, pasan a un segundo plano y se dedican, pues, a sus cosas de de multimillonarios, ¿no? El la famosa foto del Tesla rosa y cosas cosas de este tipo y sus excentricidades. Pero, Sergei se ve que no estaba lo suficientemente estimulado esta vida de de de prejubilación y, con la llegada de la inteligencia artificial se volvió a ofrecer a Google para comandar, arremangarse hasta los codos en la camisa y meterse otra vez en el fango, en hacer producto, en hacer, liderar parte del desarrollo tecnológico de Google e inteligencia artificial. Esto siempre puede ser un poco problemático, porque, claro, tú tienes tu DeepMind, que la compraste, Google siempre, intestinamente, ha tenido una cierta pelea y división entre los Google clásicos que tenían los de Google Brain, la gente de Dismind, luego, pues pues, bueno, ahí, al final, hubo una fusión, me parece que la de Dismind quedó al mando, pero, bueno, el amigo Sergei ha llegado a a remangarse y a y a volver a hacer tecnología, y, bueno, la, quizás lo más llamativo que que ha dicho es que, claro, si Google tiene al alcance desarrollar la inteligencia artificial general, ¿qué menos que trabajar sesenta horas semanales?

Claro, visto así, más bien decir, trabajar sesenta horas semanales para, no sé, cualquier tarea, bueno, bueno, mundana, ¿no? Cualquier trabajo, sí, ¿no? Para hacer podcast, ¿no? Pues pues no, ¿no? Eso tampoco merece la pena.

Pero, claro, dice, si vamos a hacer la AGI, ¿qué menos que dejarte la vida en ello, a tías?

Bueno, esto no es nada que no dijera antes el Xokas, ¿no? Xokas a veces lo hemos mencionado, él llegó a donde está porque hacía stream un mínimo de doce horas al día, ¿no? Y pedía comida al domicilio y luego la congelaba para no tener que bajar la basura. Pues el objetivo del Xokas era convertirse en uno de los streamers más exitosos y mejor pagados, y el objetivo de Sergei Brin es que sus ingenieros consigan la inteligencia artificial general antes que, pues, sus competidores. Ahora, si tú eres un ingeniero de Google y tienes opciones sobre acciones, y si lo consigues, pues esto va a afectar a tu patrimonio y a tu fortuna, qué guay.

Ahora, si tú eres la persona que entra a limpiar en la oficina de Google, yo no te recomendaría trabajar más de cuarenta horas a la semana o lo que diga tu contrato, o irte a tu casa a vivir la vida, porque la gente normal tenemos que cocinarnos, tenemos que recoger a los niños, tenemos que pasar la mopa, y ser gay probablemente no lo haga,

Claro, probablemente no, es decir, la persona que está ahí limpiándolo el polvo, los data center y tal, ¿no? Pasando el baño, probablemente tienes toda la razón. Pero fíjate, lo, creo que hay una parte más interesante del discurso de de Brin, que es un poco cuando se nos pone un poquito visionario, y él tiene aquí dos dos takes, ¿no? Dos posiciones que que creo que son también bastante interesantes. La primera es, deberíamos dejarnos de productos poco ambiciosos, aquí hay que ir por el premio gordo, por la inteligencia artificial general.

Es un poco cultura de super big tech, ¿no? Cuando estas compañías alcanzan este tamaño inmenso, solo le interesan los productos que puedan tener cientos de millones de usuarios, que puedan dar moverle la ficha en ingresos en los órdenes de miles de millones, y así vemos el historial muchas veces de las big tech, ¿no? Cuando cerraron mi amadísimo Google Reader, el el mayor error en la historia de de Google, pero desde su punto de vista, como era un producto poco de nicho para el tamaño de Google, pues tenía sentido. O el cierre de Skype, si Skype tiene decenas de millones de usuarios, ¿qué startup no se pegaría de tortas por conseguir decenas de millones de usuarios mensuales? Pues cualquiera, pero para Microsoft eso ya es percata minuta, no no le tiene ningún interés.

Y luego hay un una segunda derivada que tiene que ver, creo que también con el con el pendulazo que estamos viendo cultural, económico y de las empresas de tecnología, que es la posición de brinde, decir, a Google, deberíamos dejar de hacer productos que sean niñeras, es decir, esos productos que estén llenos de filtros, trucos, orientación, fintuneo, para que todo sea muy blanco, muy flanders, muy cuidadoso, que nadie se moleste, que nadie se enfade, etcétera, etcétera, etcétera. Entonces, él dice, bueno, confiemos en otros usuarios y quitemos todo este esfuerzo de poner filtros buenos y les, porque los usuarios nos puedan entender cuando cuando la IA, pues esté un poco más basada, ¿no?

La verdad es que en esto le tengo que dar toda la razón a a Sergei, y lo hemos comentado muchas veces, y y, sobre todo, nos hemos enfadado con muchos modelos de inteligencia artificial cuando nos tratan como a niños, ¿no? También te digo, Antonio, ¿tú sabes lo que es un Big Friday?

¿Un Big Friday? Pues, mira, esta, me vas a pillar, Matías.

Mira, un Big Friday es cuando en el euro millones se sortean más de cien millones de euros, que, en este caso, este viernes se van a sortear ciento treinta millones de euros. Va a ser un gran viernes para todo el mundo, menos para los ingenieros de Google que estarán ahí en la oficina todavía para cumplir con esas sesenta horas semanales. Y a nosotros nos patrocina en este episodio tu lotero, con un premio para los oyentes que estén escuchando esto y no tengan cuenta de tu lotero, porque si se dan de alta ahora mismo y utilizan en el menú de activar promociones o en el de las Peñas Rocket, el código monos, ¿sí? Como suena, monos, tienen una participación gratuita de un euro en el euro millones de ciento treinta millones de bote de este viernes. Las cuentas que ya sean viejas o que ya sean oyentes habituales del podcast, pueden participar aún así con esa participación mínima de un euro.

Pues sí, Matías, yo, la verdad es que desde que tu lotero nos acompaña y nos patrocina el podcast y está con nosotros con la lotería de Navidad, pues, de vez en cuando soy usuario, y hay una cosa que que a mí me ha gustado de la aplicación, que es la recarga por Bisum, que no la había probado hasta que la vi en Tutulotero, y es claramente cómoda, me resultó más fácil que que pagar por tarjeta, así que ya lo sabéis, euro millones, te hago prisa porque el podcast sale el jueves, el sorteo es el viernes, entonces, esto que así primicia para los oyentes más rápidos de Monserrat Toast.

Muy bien, tenemos que hablar mucho de voz, He estado conversando esta semana con algunos modelos, entre ellos con Groc tres. Pero, ¿quién era la reina de la voz hasta que llegó la IA generativa, hasta que llegaron los modelos grandes de lenguaje? Yo diría que era Alexa, yo diría que era Amazon. Y, bueno, ese ese barco ya zarpó, amigos, pero Amazon lo va a intentar de todos modos, ¿no?

Sí, aquí tenemos a la generación anterior, digamos, de existentes conversacionales, de chatbot con voz, que, bueno, fue una pequeña excepción para toda aquella revolución que se esperaba de poder relacionarnos con el mundo digital y tecnológico mediante la el lenguaje natural, y que, por supuesto, han visto en los grandes modelos de lenguaje, todo lo que ha aparecido a partir de ChatGPT, una oportunidad de hacerlo a estos productos muchísimo mejores, muchísimo mejores con ciertas, bueno, ciertos elementos más complicados, que ahora detallaremos. El punto es que, ya sabemos, lo hemos discutido el podcast, Amazon llevaba bastante tiempo cocinando el nuevo Alexa y, bueno, esta semana ha sido la presentación de Alexa Plus, la nueva generación basado, esta vez, en IA generativa, más, esto es, como lo explica Amazon, más conversacional, más inteligente y más personalizada, con mucha ayuda para hacer cosas, ¿cuál? Parece una propuesta de entrada interesante.

Vamos a hablar ahora de sus características, de sus opciones agénticas, de los modelos que hay por debajo, pero vamos a empezar por lo básico y lo que interesa a todo el mundo, dónde está disponible y cuánto cuesta. Lamentablemente, no lo podemos usar todavía en España, va a empezar a desplegarse en Estados Unidos y va a costar veinte dólares al mes, o se va a integrar con el el Amazon Prime, que en Estados Unidos, por cierto, cuesta mucho más que en España. En Estados Unidos ya van por ciento cincuenta, ciento cuarenta dólares al año, y aquí pagamos bastante menos.

Sí, bueno, aquí vamos a ver claro el punto de lo caro que es ejecutar inteligencia artificial. Cuando Amazon presenta este este salto, vamos a, de nuevo, a la nueva, a la con la generación de modelos de lenguaje, que ya sabemos que son muy intensivos en computación, cuyas APIs, pues cuestan bastante dinero, y que, por lo tanto, el Alexa Plus supone un un un aumento clarísimo de coste para ejecutarse respecto a la generación anterior. ¿Cómo dice Amazon que que va a funcionar? Hay dos elementos o tres elementos bastante interesantes. Uno es esa mejora conversacional, todos los que habéis probado, pues ChatGPT, el modo voz o modelos similares, ahora hablemos de de alguno más, pues ya habéis visto que ese punto de la conversación de texto se está llegando a unas versiones de voz en las que las entonaciones, las declinaciones, el tono, cada vez son más parecidos a los de un humano, y Alexa Plus va a jugar esa esa base de que los modelos grandes del lenguaje, pues, tienen esa conversación nivel humano.

Entonces, a nivel informativo de hacer consultas, preguntarle cosas, pues funcionará como un chatbot con con voz. Luego, hay una parte en la que empieza a hacer las cosas que yo, pues, de alguna manera, soy más escéptico respecto a lo que ha presentado Amazon, que es su capacidad de ejecutar. ¿Qué es lo que tenía Alexa? Alexa, pues, además de informarnos de cosas, era un control, es decir, era un sistema que ejecutaba algunas acciones, pues, el manejo de la domótica del hogar, el poner música, el poner algo de de vídeo en Prime Video, si tenías integrado, pues, también el el Fire TV en en la tele, es decir, era una manera de controlar la domótica del hogar. Y, además, Amazon explica que el Alexa Plus va a tener funciones de agente de inteligencia artificial.

Este es un tema que ha aparecido en en monos y que es la gran asignatura de la inteligencia artificial dos mil veinticinco, y que Amazon dice que ellos lo van a tener, lo van a tener casi desde el principio. Cosas que puede hacer Alexa Plus, supuestamente, pues puede encontrarte cualquier cosa en Internet y que puede hacer cosas como hasta reservarte restaurantes a través de la API de OpenTable, por ejemplo, y cosas similares. Es decir, no solo nos va a responder cosas, solo va a hacer un intercambio de información, sino que va a tener funciones de agente inteligente y, por tanto, va a ser capaz de ejecutar cosas en nuestro nombre de forma, como hemos hablado siempre de los agentes, pues, planeada y autónoma.

A mí lo que no sé si me convence es cómo lo ha vendido esto Amazon, porque textualmente dicen la el anuncio, la nota de prensa dice, la nueva Alexa Plus es muy personalizada y te da la oportunidad de personalizarlo aún más. Sabe lo que has comprado, lo que has escuchado, los vídeos que has visto, la dirección a la que envías cosas, cómo te gusta pagar. Honestamente, Amazon, no sé si eso es lo que queremos escuchar en el anuncio de la de la nueva Alexa, aunque tengáis toda la razón, porque Alexa tiene muchos datos que le hemos estado cediendo a Amazon. Esto se puede quedar, no obstante, porque yo soy un usuario de Alexa hace muchísimo tiempo, en una serie de acuerdos que Amazon ha hecho con el antiguo Alexa, como por ejemplo, con Burger King. Yo me acuerdo de que un día anunciaron a bombo y platillo que había, pues, una nueva nueva skill, creo que se llama, de Alexa, en la cual le puedes pedir que te haga, pues, un pedido de Burger King y te lo traen a casa.

Yo creo que esto lo ha usado en la historia, o una o dos personas para probarlo, porque es lo más incómodo que puedes imaginar hacer un pedido Burger King a través de un altavoz. También es cierto que Alexa Plus inicialmente solo va a estar en los dispositivos con pantalla.

Pues se ha hablado con con varias de las claves, es decir, esa personalización es una de las ventajas, supuestamente, que va a tener, pues Alexa, como también es algo que de lo que ha presumido la Apple Intelligence, ¿no? Es decir, que nosotros podemos aplicar la inteligencia artificial a partir de tus datos como usuario, tus contenidos, etcétera, ¿no? Cosas con las que soy escéptico, Matty. La primera parte, la parte de la gentica, es decir, ahora mismo la parte de agentes no la tiene bien resuelta nadie. Es decir, tenemos eso de operator, de de de Oponiai, tenemos el experimento que que presentó Anthropic, tenemos algunos algunos agentes muy acotados y muy concretos que hacen cosas muy determinadas.

La parte de de de que los LLM estén, los modelos grandes de lenguaje y esta guía generativa, esté madura, ¿cómo? Para delegar en ellos, pues, planes sofisticados de ejecución, que lo hagan de forma autónoma, que lo hagan de nuestro nombre de manera no supervisada, pues a mí se me antoja, pues, bueno, se me antoja que es difícil de creer, que lo lo me lo creeré cuando cuando lo vea, porque hay una parte no resuelta con los LLM, que es su pecado original de la alucinación y y que viene a partir de del del modelo científico técnico de cómo están entrenados. Es decir, son muy buenos aprendiendo el lenguaje, pero la precisión, la exactitud, la rigurosidad, la factualidad no son algo que que ese mismo sistema te te pueda garantizar. Entonces, yo soy escéptico de que el con la idea generativa tengamos los dos mundos. Es decir, si el Alexa clásico tenía una parte buena, que era muy preciso a a la hora de darles órdenes, por ejemplo, a la domótica, el salto a Alexa Plus con idea generativa va a ganar muchísimo en conversación, por supuesto.

Es decir, ¿va a dominar el lenguaje natural? Absolutamente. Ahora ahora hablaremos de qué modelos hay por debajo. Pero, ¿va a ser preciso y va a ser fiable a la hora de ejecutar cosas? Pues tengo mi duda de que Amazon haya conseguido lo que nadie hasta ahora ha ha ha conseguido.

Hay una cosa que es diferente, el de planteamiento de agentes de Amazon respecto a otros, y es que, si vemos el la aproximación de OpenA y Anthropy, la de estos dos es muy basada en que el agente de inteligencia artificial usa el navegador como si fuéramos nosotros, ¿vale? Entonces, realmente es un agente que navega la la red, navega la web, perdón, en nuestro nombre y ejecuta cosas. Claro, Alexa Plus lo que va a hacer no es usar un navegador, sino va a usar APIs de servicios. Tiene mucho sentido, de hecho, y tiene sentido también desde el punto de vista que tú has mencionado. Alexa es un interfaz de voz, pero hay que muchos Amazon Econ tienen pantalla, pero si Amazon quiere acabar llevándolo a todos los altavoces, excepto lo de los más antiguos que ya ha dicho que los ha descartado, pues para poder funcionar sin pantalla y sin que supervisemos por ahí lo que tienen que hacer en, ¿no?

En en un navegador que pudiera traer el lógico, pues, claro, necesitan realmente hacerlo de una manera distinta que

que el resto. Entonces, en esta parte es de la que soy un poco escéptico. Bueno, es que, por un lado, puede ser maravilloso decirle simplemente, es que con lenguaje natural se pueden llegar a conseguir cosas muy chulas, incluso en domótica, diciéndole, oye, te has pasado, tengo calor. Entonces, un modelo de lenguaje, a lo mejor, interpreta lo que quieres decir y luego decide a qué API tiene que llamar para hablar con el termostato y bajar un poco la temperatura. Esto, si se lo dices a un modelo clásico, con unos algoritmos más sencillos que no sean de inteligencia artificial, a lo mejor no te llega a entender y no baja la temperatura.

Entonces, yo creo que el potencial está ahí, pero depende de cómo lo implementen, puede haber no solo una latencia enorme, sino también fallos en esas llamadas a APIs y en esas llamadas a dispositivos de hardware, que es lo que Amazon tiene que demostrar que puede resolver bien y de forma fluida, ¿no? Por por lo pronto, aunque tengan modelos propios, se declaran agnósticos y y eso. Por ejemplo, Anthropic es una de las que ha anunciado públicamente el acuerdo con Alexa o con Amazon para Alexa Plus. Y luego tienen, en Bedrock, en Amazon Web Services, tienen cien modelos fundacionales, o sea, que quién sabe todos los que van a usar, ¿no?

Sí, esto es muy interesante. ¿Por qué? Porque nos indica también, yo creo que una pista. Amazon, ¿qué dice? Pues, realmente, no me voy a casar con un modelo en concreto, sino que Alexa Plus va a ser muy listo, ¿no?

Va a ser un servicio tan inteligente que, para según qué función, va a ser capaz de decidir qué modelos es el mejor, ¿no? Si si, bueno, de alguna manera le preguntamos algo sobre, ¿no? Que puede ser una consulta de Internet tipo, bueno, cualquier cosa de salud, deporte, historia, lo que sea, pues un modelo de lenguaje clásico le le le irá muy bien y le funcionará perfecto. Si pedimos otro tipo de pregunta, pues puede utilizar otro tipo de modelo. En fin, que esta parte estratégicamente es muy interesante, porque, al no casarte con ningún modelo, pues puedes ir incorporando los mejores que vayan que vayan saliendo.

Ahora bien, como son los que están en Amazon Web Services, uno que te puedes olvidar son los de de los GPTs y de los modelos de Open AI, que tienen esa exclusiva con con Microsoft, ¿no? Pero Anthropic o o Loysama, por ejemplo, podrían usarse, pueden usarse también, bueno, también su lista, los de Bistrack. Bueno, en definitiva, me da la impresión de que el gran protagonista va a ser Claude, que, por cierto, gracias al al oyente que nos, me dice que nos corrigió, que me corrigió, porque yo, digo, Claude, pero, bueno, es Claude, mejor dicho, va a ser un protagonista, la inversión de Amazon en en Anthropike es fue fue muy alta. Y una última consideración de la de la estratégica, Matthei, Es algo que venimos preguntándonos y debatiendo en el podcast, y es que Amazon, yo creo que tiene una postura, que es el valor o gran parte del valor va a estar en la distribución, es decir, en quién tiene capacidad de llegar a los usuarios finales. ¿Cuál es la ventaja de Amazon?

Que tiene cientos de millones de usuarios de Alexa repartidos en esos altavoces que están en las casas, que están, se están utilizando, etcétera. Le leía hoy, le leía estos días a a Javi Pastor que, al hacer esta estrategia, él tiene la sensación de que es una manera de perder, de perder la la guerra de la de la inteligencia artificial, ¿y por qué Amazon depende de otros? Yo no lo tengo tan claro, yo creo que es posible que la capa de grandes modelos de inteligencia artificial acabe siendo un poco commodity, en el sentido de que es bastante intercambiable, porque lo venimos viendo. Alguien saca un modelo, destaca, pues, al mes, a los dos meses, a los tres meses, alguien le iguala, le supera, en ese sentido, no parece que ahí vaya a haber la gran diferenciación de unos y otros, y que la gran diferenciación para triunfar puede ser la distribución que ahí esté gran parte del valor. Pues Alexa, con sus cientos de millones de dispositivos repartidos por el mundo, pues va a jugar esa baza.

Jo, no puedo estar más de acuerdo contigo, ¿por qué Perplexity usa Deep Seak, una versión propia destilada, Microsoft también lo ha anunciado con su propio ajuste, pues porque es más barato, es más eficiente, y el resultado a la gente que lo está utilizando le parece razonablemente similar a lo que está ofreciendo OpenAI. Y esto está pasando también con productos que OpenAI tenía la delantera y ya no tanto como la voz. El modo avanzado de voz de chat GPT, yo diría que era el mejor, pero es que ahora, de repente, sale una empresa, una herramienta que se llama Sysamy, Sésamo, y todo el mundo está flipando por cómo ya estamos en Her, ya nos está hablando una una persona que parece que tiene sentimientos y que parece que nos vamos a enamorar, ¿no? De de esta inteligencia artificial. A mí me da un poco de pereza todavía ese tipo de interacciones, no sé a ti.

Sí, bueno, es que lo que sí se me hace bastante espectacular, nos hemos colgado en nuestras redes, en LinkedIn, por ahí, en Twitter, y merece la pena darlo escuchada, por lo menos. Es decir, en términos de calidez, de cómo, aparentemente, a nuestros oídos, a nuestra manera de entender las cosas, se muestra una personalidad, una manera de sentir las cosas, esas inflexiones de voz, ese parecer humano. Aparte de lo que hemos colgado, el el vídeo, por ejemplo, de de Santana, de doce CV, que hice una prueba y que la la subió en YouTube, es bastante impresionante, es decir, el nivel que que que ha llegado, y la gente está súper, súper sorprendida de al nivel que ha llegado. Entonces, esto tiene consideraciones en el término de, bueno, nuestro nuestro punto más personal de usuario, ¿no? De cómo esta simulación de de la personalidad humana nos puede encandilar, por un lado, también el en el campo profesional tiene tiene un peso que es, bueno, hay muchas profesiones alrededor de la asistencia con voz.

Bueno, yo te tengo que decir una cosa que que he estado escuchando Sísame, la he probado un poquito, y la encuentro absoluta y totalmente insoportable, Matías. No la aguanto, tío.

Por el tema de cómo cada cosa que dices parece que le impresiona y y y parece que eres el mejor.

Sí, tan enrollada, tan guay, oh, no es que, oh, qué interesante, oh, oh. No, ese ese puntito entusiasta, tan guay, tan enrollada, no lo aguanto. Es decir, es una cosa en la que yo soportaría creo que tres minutos, pues, de hecho, probando si se me no no he aguantado tres minutos. Bueno, también en parte, porque ahora mismo es muy difícil llevarla a hablar en español, es es, o sea, muy muy fuente unidad para hablar solo solo en inglés, y en español no no lo hace nada bien. Esa esa persona, esa simulación de la persona guay enrollada que te hace la pelota y quiere que estés en ese flow superpositivo, tal, tal, tal, no lo aguanto.

Y, además, cuando luego te pega el el el bloqueazo de los temas en que no se quiere meter, en que tal, en que esa apariencia de que tú llevas la conversación, pero luego, pum, estoy fantuneada para que esté tema bloqueado y aquí mando yo, me me me revienta. Es decir, es que es un es una cosa que, a mí personalmente, yo creo que no voy a caer en la guerra de esta desarrollo de afectos con los modelos de voz, porque es que no los aguanto, María, no hay que hacer cosas.

Yo sé yo sé el potencial que tiene esto. Me preocupa incluso la cantidad de gente a la que se puede estafar con esto, si a estas mujeres que les mandaban montajes de Brad Pitts absolutamente rudimentarios, caían y y donaban todo su dinero a a los estafadores, este tipo de modelos de voz son peligrosos para cualquiera, de cualquier edad. Entonces, por un lado, eso por me preocupa ese en ese sentido. Por otro lado, me da pereza, también me siento un poco Sheldon Cooper. Yo cuando le hablo al modo de voz avanzado hecha GPT, lo que quiero es que me responda con información y con el mejor acento en español, castizo que tenga, que todavía no lo tiene muy bien controlado, y no quiero que si le digo algo de una enfermedad, me me diga, oh, qué pena que estés enfermo, deberías acudir a un médico.

No, sáltate esa parte y dime si tengo o no cáncer de colon, ¿no? Pero también te digo, soy un poco Elon Musk, soy un poco Elon Musk. ¿Por qué? Porque Elon Musk lleva dos semanas que allá donde va le enseña a la gente, estuvo en Joe Rogan, se lo ha enseñado a Trump, se lo ha enseñado a gente en Mar al Lago, enseñándole a todo el mundo el modo de voz de GROC tres.

Ah, ¿qué quiere decir las pruebas de cáncer de colon?

El modo de voz de GROC tres. El modo de voz de GROC tres ya se puede probar para todo el mundo con la aplicación de Groc en el iPhone. Creo que todavía no está en Android y

Ah, yo yo no la he podido probar, Mary.

Tiene un modo anheimhed, solo se le puede hablar en en inglés. Ella te dice que él o ella puedes poner la voz masculina también, te dice que que controla el español, pero no lo controla, no le funciona español. Y el modo anchinge, que es lo que él lo han estado enseñando por ahí, básicamente, se vuelve absolutamente demencial y empieza a insultar a todo el mundo. Entonces, la primera prueba que hice fue, le pregunté por Pedro Sánchez y y se pone, pero se tira como cinco minutos echando pestes sobre Pedro Sánchez, este que nada más que se mira al espejo, te cobraría impuestos incluso por el último tampón de tu abuela, pero así cinco minutos. Entiendo la gracia que puede tener momentáneamente para enseñarlo en en una mesa con con con colegas así un poco más fachosillo, pero pero ya está.

Yo de esto no le encuentro utilidad más que el juego temporal en WhatsApp de hombres hispanos.

Me quedo me quedo a cuadros, Mati, con tu experiencia de de Grove tres, que a mí nos nos autorecomendaría poner un pitido sobre algunas de las expresiones que has utilizado, pues bueno, es verdad que Grove tres puede estar así, un gingue, pero nosotros somos un poco respetuosos, no no alentamos esto. Y, bueno, para compensar, pues tendrás que hacer alguna prueba con Javier Miley o algo así, Matthew, para que también tengamos insultos de Que haya diversidad de insultos, ¿no? Que no seamos demasiado centrados en un tipo de población. Nada, a mí es que yo creo que tampoco tampoco me sirve la aproximación esa, yo estoy estoy de acuerdo contigo, porque incluso aunque me diera la razón en, bueno, en rechazar lo que yo rechazo, esto es es totalmente innecesario, ¿no? Es totalmente ¿Para qué?

¿No? ¿Para para qué quiero una un un chatbot que con el que charlar y reafirmarme en que lo despreciable y asqueroso que es lo que yo considero como tal? No sé, lo veo igual que tú, Mati. Pero quien podría sacar una guía conversacional, pues, digamos, diferente, no lo va a hacer pronto, porque teníamos que volver a hablar un poquito de de Apple, un Apple que traía un nuevo city, es decir, está anunciadísimo para el esta edición de de iOS dieciocho, si no me equivoco, Paty. Sí.

Y que iba a tener ese nuevo city que mejoraba en la conversación y que, cuando le hiciéramos preguntas muy difíciles, pues, incluso, iba a a tirar de de chat GPT. El caso es que, bueno, en las en las vetas, pues parece que está tardando en llegar ese ese nuevo city, y lo que ha filtrado Gourman es que, incluso, parece que la división de inteligencia artificial de Apple cree que una versión conversacional totalmente moderna de city, del nivel conversar con el lenguaje natural y que eso fluya y podamos manejar al existente con con la voz y nos comprende y nos pueda responder a cualquier cosa, no llegaría hasta iOS veinte. Es decir, que incluso iOS dieciséis, que sería que, ay, perdón, iOS diecinueve, que sería el de dos mil veintiséis, tampoco sería el gran salto, sino que sería dos mil veintisiete, Matty. Esto es lejísimo, esto es, pues, bueno, yo creo que el propio Kurma está diciendo porque esto es muy preocupante para para el mundo Apple.

Sí, a ver, la ya habíamos hablado de lo tibia que es la apuesta de Apple con iOS dieciocho para el bombo que le dieron y pusieron el la pegatina de Apple Intelligence en todas partes. Ahora, de repente, esta semana han lanzado un iPad que no tiene Apple Intelligence, porque no tiene suficiente RAM, no tiene tal. No entiendo muy bien a qué están jugando. Es cierto que tienen una cuenta bancaria que les permite funcionar con relativa calma porque, en un momento dado, te compran lo que sea, no obstante, no entiendo muy bien el foco de Apple ahora mismo. Es cierto que Siri lo están mejorando, no es que Siri no lo vayan a mejorar de ninguna forma y no vayamos a ver un Siri un poquito más inteligente de aquí de dos mil veintisiete, pero muchas de las mejoras vienen de invocar a ChatGPT.

A mí esto ya me está sirviendo. Yo tengo la beta instalada, el otro Anoche estábamos mirando el documental de Aitana, todo el mundo está mirando el documental de Aitana, de Aitana, a mí medio fomo y me puse a ver el documental de Aitana. Un momento dado te surgen dudas, ¿no? Como, ¿qué diferencia de edad tienen Aitana y Sebastián Yatra? Este señor con el que estuvo saliendo, que dijo en el podcast de Vicky Martín Berrocal que él no sale con mujeres más de un año porque se aburre.

Pues, en un momento dado, te entra esa duda y le preguntas, tenía el teléfono en la mesa, yo estaba en el sofá. Oye, Siri, ¿no? Eso activa Siri, cosa que con ChatGPT no puedo hacer. ¿Qué diferencia le da ahí tal y tal y tal y tal? Entonces, ahora Siri es más inteligente, invoca a ChatGPT o lo que tenga que hacer por debajo.

Vale, ahí me está hablando Siri. Esto es lo que Mala idea siempre

El asistente de Apple, dejémoslo ahí.

Nada, y te contestan. Entonces, ya ya hay ciertos visos de mejora, pero dos mil veintisiete es muy tarde y le pueden comer la tostada por todos lados, por todos lados futuros.

Claro. El punto yo creo que Apple piensa, la gente no va a dejar de comprar el iPhone por eso, porque si quiere una guía a comprarse muy avanzada, porque que se instale en Gemini, que se instale en ChatGPT la aplicación, y que puedan funcionar ahí. Porque el asistente sea mejor y esté más integrado en Android, ¿la gente va a dar el el salto de una plataforma a la otra? Pues yo creo que no creo que a priori va a ser un gran decisor de venta. Yo yo, por ejemplo, que soy, que quiero estar en el último inteligencia artificial, sí, sí sería, pues, carne de cañón de ese tipo, pero, como también será que no soy usuario de iPhone, pues, mira, ITIN Cook puede dormir tranquilo esta noche.

Y, bueno, yo creo que hay dos consideraciones estratégicas, por no arrepentirnos mucho, con Apple. Creo que su empeño en el control completo del stack tecnológico, pues, le puede venir un poco a la contra. Querer hacerlo todo en local y con mucha privacidad le puede venir a la contra, porque entre entre ambas cosas confluyen que parece que los ritmos de Apple son demasiado lentos comparados con el ritmo de la industria de inteligencia artificial, y, por lo tanto, bueno, claramente, se puede llenar de connotaciones de empresa que en en, bueno, en los desarrollos de IA, se esté quedando un poco atrás y que, pues, sea como de la generación anterior, ¿no? Yo creo que en términos de marca y en términos de del marketing del producto, esto sí puede ir a sanar un poco la la imagen de de Apple, ¿no? Hasta Alexa parece ir bastante más rápido.

Parece que, bueno, esto es una una una carrera de de largo plazo, y yo, bueno, si si Team me permite, te voy a dar un consejo a Apple, que es que el camino que ya has abierto, es decir, has abierto un camino de en esto me voy a apoyar en en terceros, ¿no? Cuando se apoya, como tú dices, en en ChatGPT para la consulta que Siri todavía no da. Yo tiraría fuerte por ahí. Creo que Alexa tiene razón, tú tienes el iPhone y una una serie con con un chat GPT de voz integrado, pues ahora mismo sería sería la caña, se te estarías en el en la punta de lanza de de de la, bueno, de la interfaz con lenguaje natural, de las conversaciones, y creo que podría tener mucho sentido. De hecho, ahora mismo se están metiendo en algunos líos porque, ya contamos el caso de la BBC, ahora han tenido un pequeño pequeño problemilla con el nuevo presidente de Estados Unidos, porque el sistema de dictado de voz transcribe la palabra racista como Trump.

Eso le ha pasado a algunos usuarios que lo han denunciado y lo recoge el New York Times. No es el mejor momento, parece, para las grandes empresas tecnológicas el el abrir estas estos pequeños conflictos con el con el poder ejecutivo, dada la anticrrecicionalidad y la impulsividad del nuevo presidente, y por qué están justo ahora mismo bajo el radar de de un momento super regulatorio. Entonces, bueno, pues una crisis de imagen que arreglarán, pero que muestra que los sistemas propios de Apple están en un en un nivel, pues, bueno, cuestionable.

Sí. Yo, después de grabar el episodio anterior, en el que te decía, bueno, yo es que las notificaciones las tengo todas desactivadas, lo que hice en pos del humor fue activar las notificaciones de todos las aplicaciones y, bueno, ahí me llega mensajes demenciales de gente de threads, y Siri los resume, ¿no? Entonces, por ahora no he recibido algo especialmente gracioso. Sin embargo, el otro día, al salir del crossfit, recibo un resumen de una notificación de Siri que decía taller cerrado por inundación, espera del perito del seguro. Y esto, Antonio, no, es que no se lo cree nadie, pero es verídico, es un giro argumental demasiado forzado, ¿vale?

¿Te acuerdas el portátil al que le tiré un café encima y entonces llevé al servicio técnico por daño con líquido? Bueno, pues con las lluvias que ha habido en Málaga y en la península, se ha inundado el taller, se ha inundado el servicio técnico, y ahora están a la espera de que llegue el perito para luego poder arreglarlo. Yo ya no sé si prefiero que se hayan mojado mi portátil y, entonces, el seguro del taller cubra un reemplazo, o si lo dejo así como uno de los episodios más divertidos para contar en una vez que se me pase el cabreo en en futuros reuniones, ¿no?

Sí, yo creo que ese portátil, probablemente, claro, tú tú no lo sabes, pero lo guardaron en el almacén del cortejo jurado, y eso ya lleva el malditismo a tu a tu portátil, y, claramente, yo te voy a decir una cosa, todo esto de que se, ¿no? Se mancha con el café, se llena de líquido, luego lo llevas a una tienda que se inunda, esto con con Linux no pasa. Con Linux, cualquier usuario de Linux te dirá que, claro, que te metes en sistemas, más propietarios, tal, y te lo mereces, te lo has buscado un poco, ¿no?

Bueno, nos vamos a quedar sin tiempo para hablar de GPT cuatro punto cinco.

No, hay que hablar. Hay que hablar de GPT cuatro cinco.

No te ha gustado. Yo sé que, yo no lo he podido probar porque para los usuarios plus todavía, todavía, pero parece que esta semana sí, no está disponible.

Sí, aquí lo que usuarios a los que San Altman nos ha sacado las perras, hemos podido probarlo, hemos podido utilizarlo y podemos explicarlo un poquito a ti, rápido, y vamos a dar las takes de los críticos y las takes de los más partidarios de este nuevo gran modelo de OpenEye. Los datos clave para que lo podamos poner en el radar. Ya sabemos y hemos explicado varias veces que OpenAI tiene esas dos líneas de modelos de inteligencia artificial, los modelos grandes de lenguaje clásico, con lo que es Protach ChatGPT, que son los GPTs tres cinco, cuatro, cuatro o, que es el que usamos ahora la mayoría de usuarios, y este nuevo cuatro cinco. Es un modelo no razonador, porque la otra línea de modelos razonables son la línea o. GPT cuatro cinco, por lo tanto, es un modelo a lo clásico, sin sin cadena de de pensamiento ni ninguna de estas innovaciones que introdujeron.

Es un modelo realmente gigantesco, es decir, es un modelo mucho más grande que el cuatro o el cuatro O que veníamos utilizando en ChagPT. Esto significa que, en principio, tanto los costes de haberlos desarrollado como los costes de ejecutarlos son bastante más alto. De hecho, cuando los desarrolladores han mirado los precios de la API, quieren integrar GPT cuatro cinco en sus desarrollos, estás viendo que el coste es treinta veces el de cuatro O. De hecho, si recordamos el modelo DeepSick, ¿no? Nos lo compartía hace poco Dani Seijo, claro, es que el coste es cientos de veces más caro que DeepSick.

Entonces, ¿merece la pena este cuatro cinco, todo ese alto precio, todo ese tamaño gigantesco? ¿Ha sido un salto significativo que mejore lo que teníamos hasta ahora? Bueno, OpenAI lo ha presentado diciendo lo siguiente. Este no es un modelo para apretarlo en las pruebas de inteligencia artificial, en los pagemark, sino que es un modelo que en la conversación tiene un puntito diferente, te da unas vibraciones distintas, Matte. Es algo que, digamos, ahora mismo había una división entre los usuarios avanzados de inteligencia artificial en la que los chat GPT eran como mejores, muy buenos en los benchmark, los GPT, perdón, eran muy buenos en los benchmark, estaban muy buenos números, eran como ejecutivos, pero, ojo, es que como Cloud como Cloud, conversar con Cloud es otro rollo, es diferente, ¿no?

Te da te da un flow distinto conversar con ese modelo Bueno, pues, Sand Altman ha intentado posicionarlo ahí. ¿Recuerdas? Que cuando lo anticipaba, y todavía estaba en las en las pruebas anteriores a su lanzamiento, él decía que era el sistema que más más más cerca de la inteligencia artificial general le había hecho sentir, ¿no? Que lo de conversar con GPT cuatro cinco era una cosa, bueno, muy especial, Matías. Bueno, pues ha salido, lo hemos podido probar, y las críticas han sido bastante gordas.

¿Qué es? ¿Cuál son la posición de de lo de lo gente más crítico? Pues que esto es un modelo muy grande, muy caro, pero también muy lento. ¿Y qué hemos conseguido a cambio de pagar este precio? Pues apenas un rendimiento ligeramente superior a cuatro O, es decir, un coste treinta veces superior, un rendimiento un poquito mejor.

Entonces, claro, ahí se han encendido las alarmas y las alarmas apuntan en varias direcciones. Una, esto parece reafirmar que aumentar muchísimo el entrenamiento y el tamaño de los modelos en la fase de preentrenamiento ya está tocando techo. ¿Hay mejoras? Sí, pero son cada vez menos fuertes. Entonces, todo este coste nos ha dado una mejora, pues, ligerísima, casi inapreciable, y que en los Weimars se nota muy poco y que, bueno, de alguna manera, los que los estamos usando tampoco, y aquí te te incluyo mi experiencia, tampoco que yo haya notado ninguna vibración especial.

Es verdad que, a lo mejor, yo soy muy poco sentido con los modelos de inteligencia artificial que hemos visto con los modelos de voz, pero, vamos, que yo no veo ese cosquilleo de la persona ya de GPT cuatro cinco quizás afectado porque, a lo mejor, en español es menos majo que en inglés. A veces en los modelos pasa eso. Y la segunda consideración, Mathey, de los críticos es, ojo, ojo, open eye, que siempre cuando secabas algo nos ponías ponías el sector a bailar, que tú ponías una presentación y cundía el nerviosismo y era, esto no se había visto antes, esto es increíble, qué pasó adelante, no lo esperábamos. Bueno, las vibras de este lanzamiento, a la que estamos hablando de sensaciones, pues no son para nada esas, Matías.

Yo es que me quedo huérfano y con ganas de pagarle esos veinte dólares al mes a otras empresas, porque yo, de ChatGPT, el GPT cuatro O, estoy harto porque sé que los razonadores, sobre todo el O uno, con el O tres mini high tengo alguna alguna discusión, sobre todo el O uno, podían resolver algunas de mis cuestiones habituales mejor que GPT cuatro O, pero GPT cuatro O es ahora mismo, en la versión gratuita y en la versión de veinte dólares, la el modelo más conversacional que tienen y el que te recomiendan por defecto. Entonces, GPT cuatro punto cinco resolvería mucho mejor que GPT cuatro O muchas de las peticiones que yo le hago a EchaGPT y a los modelos de lenguaje por tener, pues, un conocimiento mucho mayor. ¿Qué pasa si es más grande, si es más pesado, si es más caro? No van a querer que lo use tanto como uso el GPT cuatro O, como, por ejemplo, como buscador. El GPT cuatro O yo lo suelo buscar como buscador, y me buscan un montón de fuentes, pues una serie de consulta.

Pero el GPT cuatro punto cinco, al ser más caro, más pesado, lo que te digo, que CGPT no lo va a poner como por defecto, porque ni les conviene a ellos ni al usuario, y va va a ser una experiencia un poco truncada. ¿Qué ocurre? ¿Qué ocurre? Yo sí he visto momentos brillantes en inglés de GPT cuatro punto cinco. Una cosa que se ha comentado muchísimo son lo de los Green text de 4chan, que es una especie de formato de post de 4chan con un poco irónico, un poco de con un poco de humor y con gente bastante autista detrás de esos textos, y por lo visto tiene bastante gracia, y lo y lo he podido comprobar, en inglés el GPT cuatro punto cinco.

Y luego, otra prueba interesante, un tío que le subió una foto de una ubicación que no era muy fácil reconocer dónde estaba, y GPT cuatro punto cinco fue, junto con Cloud tres punto siete, Sonnet, la única que reconoció exactamente dónde estaba. Y yo creo que esto se debe a ese conocimiento más grande de GPT cuatro punto cinco y a ese, pues ese ajuste también que le han hecho, que lo hace más conversacional que los razonadores. Pero hay que recordar una cosa, que este es el último modelo no razonador, porque luego van a fusionar las dos cosas como ha hecho Anthropic. Y no solo eso, sino que han demostrado que el muro existe y que hasta aquí se puede llegar con el paradigma original del chat GPT, y a partir de ahora hay que apostar por el time computing, hay que apostar por los razonadores.

Sí, pues, mira, por por resumir, este da puntos muy buenos, las partes de los bugs positivos con con este avance de GPT cuatro punto cinco apuntan a, cosa que tú has dicho, LM Arena, el page bar de qué bueno, qué tan bueno es conversando en una cata a ciegas comparado con otros modelos, pues, GPT cuatro cinco se ha puesto, el líder se ha puesto la referencia. A la hora de consultar la información sin buscar Internet, parece que es el más bueno de todos los modelos. En este aspecto, el tamaño importa, es decir, los datos de entrenamiento han sido tantos y hay tanta información y contenido que se le ha añadido al modelo que, a la hora de resolver informativamente cualquier tema de contenidos que haya podido estar en el data set, pues lo hace muy bien. Parece que esto también ayuda a que alucine menos todavía sin haber matado por completo el problema de la alucinación, de los errores factuales. Realmente, es el mejor hasta la fecha a la hora de minimizarlo, y luego ahí dicen que la gente que lo está usando para escribir como herramienta de escritura, que les da unos resultados mejores en el punto de no me hicieron una mayor calidad literaria, pero, bueno, en ese en ese orden de consideraciones de, pues, el carácter de la valoración subjetiva de la calidad del del texto.

Entonces, a lo mejor, la ventaja del cuatro cinco no nos están saldando de a primera vista de inmediato a a los usuarios que lo hemos probado, pero que en un uso más habitual y podemos ir viendo esas pequeñas mejoras, ¿no? Entonces, ¿qué nos cabe esperar? Pues yo creo que igual que el modelo cuatro lo han ido optimizando para cada vez ser más ligero, tener menos costes manteniendo el nivel, creo que ahora empieza una carrera de OpenAI para que el cuatro punto cinco, manteniendo esta pequeña mejora que nos ha dado, sea mucho más eficiente en en costes y computación. Así que, bueno, hay una cosa, se le ha dicho Shanarma, que también es muy interesante, y yo creo que lo discutiremos en en un futuro monos, que es que se están quedando sin GPUs, es decir, ¿por qué no lo dan a todo el mundo? Porque, básicamente, es, no tienen capacidad ahora mismo de ejecutarlos para los cientos de millones de usuarios de chat GPT, es decir, en términos de uso están triunfando y les va muy bien, pero se están quedando sin GPUs.

Aquí hay un un debate que tenemos que que que tener, porque es un momento un poco, bueno, sospechoso, en el sentido de que Microsoft parece que ha aportado parte de sus planes de creación de data centers, se está tomando con un poquito más de calma. Entonces, estamos nos están llegando mensajes contradictorios, ¿no? Envidia presentar resultados y, de nuevo, va como un tiro, crece muchísimo, Shand Altman dicen que le faltan GPUs, todo el mundo parece que que va por ese camino y, de repente, llegan, pues mensajes un poco contradictorios como este de Microsoft, que nos dan un poco de duda de, oye, es verdad que tú puedes querer usar más GPU, so, lo que no tengo yo clara es la rentabilidad de crear más data center. Entonces, bueno, los económicos de la IA habrá que echarle un vistazo a partir de de estas informaciones. Y, bueno, Mati, yo creo que llegando a cerca de la hora de podcast, es hora de aparcar las noticias y entrar en esa sección, que es el Puerta Grande o Enfermería.

Vamos con una noticia que yo creo que puede interesarle a muchas regiones del mundo. Ajá. De España, de Latinoamérica, porque estamos hablando antes de que, quizás, la inteligencia artificial sea el futuro de los centros de llamadas, ¿no? De de los call centers, parece que hay empresas que consideran que la IA no está todavía en condiciones de ser ese asistente que te atienda en nombre de una empresa, pero que sí puede ayudar alguno de los aspectos de de las mismas. ¿Qué es lo que está haciendo la empresa de call centers Teleperforman?

Pues, está haciendo marcha a un sistema de inteligencia artificial que no sustituye a sus teleoperadores indios de habla inglesa, sino que está añadiendo una IA que, en tiempo real, modifica el acento de estos trabajadores indios, de manera que, si tú llamas desde, o sea, desde Oxford, de Manchester, desde Londres, pues se adapta a el acento que te pueda resultar más familiar y cercano, y, si llamas desde Estados Unidos, pues te das un acento, pues, pues, lejano o New Yorker o lo que tú quieras. Fíjate, Mathy, tú dices, bueno, esto es esto es esto es despreciable, porque te están escondiendo, ¿no? Y y como apagando esa riqueza de acentos de los trabajadores por, ¿no? Algo al gusto del consumidor, ¿no? Me parece una cosa, pues, que que terrible el capitalismo tecnológico, pero ¿y si le damos la vuelta?

Y si tú llamas, no sé, desde Moclinejo, ¿no? O o tú llamas desde el sexmo, o tú llamas desde la acharquía profunda, ¿no? Y la inteligencia artificial del call center es capaz de adaptar el acento original al tuyo? Es decir, y si, por fin, ¿no? Los los los que llamamos de Andalucía, gente con acentos potentes, ¿no?

O o desde Murcia, ¿no? O, ¿no? O un señor de Almería que llama a un call center, y la inteligencia artificial consigue que, de repente, se sienta mucho más cómodo y mucho más a gusto llamando ahí, para acercarse de su factura eléctrica o de lo que sea, porque la IE ya es capaz de hablar en Albaceteño o en murciano o en Achargo. ¿No sería un buen avance interesante?

¿Sabes lo que pasa? Que de ese punto a que luego usemos la ILA para, en lugar de ser negros en una videollamada de una entrevista de trabajo, seamos blancos o seamos una chica rubia de metro setenta, honestamente, hay un hay un paso, ahí es es una distancia muy estrecha la que hay en hacer ese recorrido. A mí es un tema que me sublime ya mucho en lo de los acentos, porque, primero, en los anuncios de Andalucía, ahora que acabamos de pasar el día de Andalucía, ¿no notas tú que el narrador, el locutor, fuerza mucho el acento y queda mal el acento andaluz? Esto es lo mismo, pero aprovechando la inteligencia artificial para modificar el acento. Y a mí me pasa personalmente cuando hablo en inglés, que si lo hago con un acento cerrado, que esto lo dicen mucho los yanquis, que en España, España, Italia, etcétera, se habla el español, perdón, se habla el inglés con un acento así como muy muy castizo, pues yo noto que soy más fluido, y yo creo que el fin debería ser hablar más fluido, no caerle bien a un yanqui, igual que los franceses, que son muy suyos cuando hablas francés, porque nunca te entienden.

Aunque tengas el C cincuenta y cuatro de francés, los franceses prefieren que no les hables en francés porque para ellos no los estás hablando bien. Pues lo mismo, yo es que los acentos es un tema que me irrita mucho, Antonio.

Sí, yo cuando veo una empresa que que se promociona, ejemplo, localmente en Málaga, empieza a usar expresiones, pues más malaguitas, ¿no? Como muy coloquiales, muy de de la calle, yo me llevo la mano al bolsillo, gente me quiere sacar la pasta a a fuerza de intentar caerme bien por ser muy malaguita, y, por lo tanto, yo ya estoy un poco también a la contra de de esa corriente que, a lo mejor, el primero tuvo gracia, el número ochocientos veinticuatro, pues ya, pues ya tiene un poco menos. Entonces, bueno, en esta ILA que puede hablarnos en murciano y puede traducirnos el a a la jerga local de cada uno, no, No, mira, le vamos a dar enfermería, Mati, porque no no te ha convencido. Así que vamos a ir a a traparte que quizás te convenza más, que es la inteligencia artificial para el amor. De nuevo, el tema sentimental se hace se abre paso porque, me crucé con esta noticia, la inteligencia artificial sustituye a los novios en China y hace multimillonario al empresario Jiao Runao, Zion, porque hay un juego de estipulación de citas que está petándolo en China, se llama Love and Deep Space.

Es un gran éxito porque permite a los jugadores interactuar con novios virtuales impulsados, por supuesto, por interés artificial. La popularidad del juego resalta la creciente relación de, esta vez el artículo, la creciente demanda, perdón, de relación en virtual. Entonces, siempre ha habido videojuegos en el ámbito de lo personal, la simulación de de las relaciones personales, etcétera. Siempre ha habido gente ahí muy metida, mejor los Sims es probablemente el máximo exponente de de esta corriente, pero, claro, esta introducción de inteligencia artificial a los videojuegos de novias virtuales en los que puedes puntuar y te tienes como reto seducir y mantener esas relaciones virtualmente románticas, pues está haciendo explotar el género, al menos en China, y nos dan un ejemplo, que es jugadores como Alicia Wang, que están dispuestos a sumar, a gastar sumas considerable en sus relaciones virtuales, Mati. Ha invertido treinta y cinco mil yuanes, unos cuatro mil ochocientos dólares, para mejorar con sus interacciones con Zaine, su novio virtual.

Está dispuesta a pagar por compañía virtual y el valor emocional que está encontrando en esa experiencia. ¿Qué opinas, Matías?

Al final, enamorar, voy a hablar como hombre heterosexual. Enamorar a una mujer es un poco como jugar al ajedrez. Tienes que ser muy estratégico, porque tienes que ser interesante, pero tampoco pasarte de listo, tienes que tratarla bien, pero tampoco adular. Es un juego, ¿no? Un juego de suma cero.

¿Qué se le da bien a la máquina? Jugar al ajedrez. ¿Desde cuándo? Desde hace muchísimo tiempo, desde hace mucho, hace mucho tiempo, la máquina es mejor que el hombre jugando al ajedrez, y esto no ha hecho que la gente deje de jugar al ajedrez, como la maratón de robots que hay en China, eso no va a hacer que Antonio Ortiz deje de correr. Bueno, ¿cómo se ha aprovechado que la máquina sea mejor que el hombre para el ajedrez?

Pues hemos aprendido de ella, pues nuevas aperturas, nuevas jugadas, y hemos mejorado nuestro propio juego en el ajedrez y nos podemos divertir en el juego del ajedrez nosotros solos en casa con la máquina. Pero en el amor podría pasar lo mismo. Ahora mismo hay mujeres pagando para que su novio sea una guía, pero los hombres podríamos aprovechar esto para aprender de la máquina y ser mejores conquistadores.

Qué bueno, mi título. Yo también he estado pensando en esta noticia, y yo estaba pensando, oye, a lo mejor, como ¿tú te acuerdas de todos estos sistemas que dicen, somos inteligencia artificial, lo hacemos todo automático? Y en el fondo son mil indios en Bangalore, ¿no? Haciendo todo a mano. A lo mejor, lo los los hombres, nuestro futuro de trabajo es simular que somos inteligencia artificial, ¿vale?

Y ser los novios virtuales de mujeres solitarias y viceversa, ¿no? Es decir, igual que los hombres pueden consumir novias virtuales, pues una mujer podría estar ahí detrás, aunque seguramente también será otro hombre, fingiendo ser tu novia virtual y, por lo tanto, hombre, si si se ha gastado cuatro mil ochocientos dólares, hombre, yo por tres mil también lo hacía, Yo por tres mil estaba ahí, te respondí unos mensajitos, te decía lo que quieras oír. Ojo, ojo, que aquí puede haber business para todas las oyentes y oyentes y escuchantes de de monos y tocásticos, y, bueno, ahí está la tendencia, vamos a darle puerta grande a al a la IA como el ajedrez del amor. Otra otra gente que le está yendo bien, aparte de los que simulan ser novios virtuales, Mathi, es a unos inesperados ganadores del boom de la inteligencia artificial. Son gente que está haciendo un enorme negocio gracias a la expansión de los data center, porque, claro, hay perras, hay millones, hay miles de de millones para crear estos nuevos centros de datos, y ninguna empresa que se preci quiere, bueno, un centro de datos nuevo porque que sea, ¿no?

Inelegante o feo o, ¿no? O o que te ancle a una visión desfasada de de la estética y el estilo. Entonces, ¿quién es que que está ganando mucho dinero con la inteligencia artificial? Los arquitectos, los arquitectos que están diseñando estos nuevos espacios corporativos de data centers y que algunos estudios están contratando, dicen, decenas y decenas de nuevos arquitectos en un boom que, bueno, ya que en España no construimos vivienda, pues, en todos lados está, hay mucha menos oferta que la demanda de nuevos hogares, pues, por lo menos, los arquitectos tienen una salida, que es diseñar las nuevas catedrales del siglo veintiuno, Matías.

Es que los arquitectos últimamente tampoco me quedan bien. Si hay dinero, a lo mejor sí hacen cosas interesantes, ¿no? Hacen data sentes bonitos, pero yo no sé a qué están jugando los arquitectos. El edificio este, el mamotreto blanco con agujeros por ventanas, por balcones que han puesto enfrente del puente de los alemanes, ¿no? El otro día estaba viendo una retransmisión de los Oscar y dije, oye, eso es Málaga.

Y no, era un edificio igual, blanco, con balcones completamente minimalista y y diría que un poco aburrido, que han puesto aquí en Málaga, en donde antes se habían, pues, un edificio histórico, bonito, etcétera. Yo lo que quiero es que los arquitectos aprovechen la IIA, pero no para forrarse, ya muchos ya están forrados, sino para hacer cosas más interesantes, que uno vaya paseando por la ciudad y diga, joder, ¿a quién se le ha ocurrido esto? Pues, a lo mejor, a a un modelo de inteligencia artificial que han entrenado con toda la creatividad del mundo. Pero no estoy viendo que los arquitectos vayan por ese camino últimamente.

Sí, a lo mejor podemos reivindicar desde, bueno, estoy clarísimo la figura del aparejador. A lo mejor, claro, como en Europa tenemos menos capital riesgo, tenemos menos VCs dispuestos a gastarse dinero, cuando vayamos a competir la inteligencia artificial en ese fondo de la Unión Europea, ¿no? O los lanzamientos de de la Haya española, de del Estado, pues, claro, a lo mejor, ahí podemos optimizar un poco el presupuesto y, en lugar de ir a un estudio de arquitectos para hacer ahí un un edificio emblemático para nuestros data center, podemos ir por lo bajini, ¿no? Hablando con con un aparejador apañado, ¿no? De estos que con camisa de cuadros, con el lápiz encima de la oreja, ¿no?

Que no, ese tipo de, ¿no? Que lleváis y descuadrais y el cartabón siempre consigo, ¿no? Ese tipo de de profesional, y que, a lo mejor, nos puede hacer un apañillo, copypasteando algo que ya que ya haya hecho, y podemos ir tirando por ahí, ¿no? Puede haber una vía de la guía europea que se base en aparejadores en lugar de arquitectos, Matías.

Antonio, es que creo que has dado con un negocio importante, porque los aparejadores siempre han estado ahí como en segundo plano, con un trabajo que es muy técnico y muy importante, y es un momento, y van a dar el salto, voy a ver si contacto con con el aparejador que está haciendo la la reforma de la comunidad aquí en mi casa, para para avisarle de esto, porque se vienen buenos tiempos para él.

Bueno, y buenos tiempos también para persuadir, Matías, ya que vamos a dar puerta grande a los aparejadores con, ya veremos, dudas con los arquitectos en la IA, pues te traigo un estudio que que hizo OpenAI para analizar el poder de persuasión de la inteligencia artificial. En el subreddit de ChainMyView, es, bueno, un subreddit, una parte del foro dedicada a que los usuarios publiquen opiniones con la esperanza de, bueno, conocer otros puntos de vista y que otros usuarios, pues, entren en el debate para ver quién persuade a quién, ¿no? Es un poco un ejercicio de dialéctica, como de debate, ¿qué sucede en este en este ready? Pues, OpenAI hizo un experimento, que es utilizar Otres mini, cuando, esto fue justo cuando presentaron los los modelos de razonamiento de esta generación, y que, en este subreddit, pues, pusieron a la inteligencia artificial a participar y decidieron medir los resultados, un poco de de quién convence a quién, en en esta plataforma. Los resultados, según OpenEye, es que sus modelos de inteligencia artificial son un ochenta y dos por ciento, o son más persuasivos que el ochenta y dos por ciento de los usuarios de Reddit, es decir, que están, pues, en ese top dieciocho por ciento, y que, por lo tanto, en la capacidad de persuasión y de convencer a a otras, bueno, en este caso, no a otras IAS, pero sí, a usuarios humanos, es bastante alta, Matte, esto puede abrir un mundo de posibilidades.

Yo, es que a mí no se me da bien la persuasión. De hecho, primero, soy muy influenciable y luego me apuntaron de chico, no era un club de debate, era más bien un concurso de oratoria y caí en la primera ronda, lo hice fatal. Entonces, a mí lo que me conviene es que la IA, sobre todo la que yo tengo, me me asista en en esto que nunca ha sido uno de mis fuertes.

Sí, yo creo que se abren dos debates, uno que sería, a lo mejor, el más serio y razonable de tener, que que es, bueno, la los diseñadores de la IEA, pues tienen en su poder una herramienta, pues, de alta influencia en los valores, ideologías, convencimientos de la ciudadanía, es un debate muy serio que tener. Pero, por otro lado, Mati, a gente como tú le puede capacitar para cosas que nunca habías logrado. Es decir, tú con un modelo de este nivel podrías convencer a la gente de, por ejemplo, que te ayuden en una mudanza. Eso es un retras. Que claro, ¿cómo convencer a la gente que te ayude en una mudanza?

Porque ese día a todo el mundo le surgen cosas, ¿no? No puedo, es que tengo un equinze en el tobillo, se casan a Pria Mía en Logroño, en fin, lo típico cuando tú invitas a la gente a llevar tus muebles de un lado para otro. Pero es posible que si tú esto, primero le pides argumentos y lo pasas por por los modelos de inteligencia artificial, consigas gente que trabaje gratis para ti, Mati. ¿Tú crees que esto puede ser lo que necesitabas en la vida?

Sí, y es que además has dado, pues me has dado en una fibra muy sensible, porque yo no le pedí ayuda a nadie, ni familiares ni amigos para la mudanza, precisamente pensando en eso. Yo le pagué a una gente para que yo nos ayudara y lo mi intención era que nadie me pidiera ayudarlo en su mudanza. Y acto seguido, a los pocos meses, pues unos amigos que nos pidieron que fuéramos a ayudar en su mudanza, y nosotros, claro, sin excusa posible, pues accedimos y y tira, y nos tiramos ahí un día en esa mudanza. Esto es lo que me hace falta a mí, realmente, para no volver jamás a ayudar a ningún amigo en ninguna mudanza. Qué cosa más injusta.

Pues, no podíamos acabar de una manera más fraterna y positiva el podcast de hoy, Mati. Esperemos que la gente se lleve ese buen sabor de boca sabiendo que tú no estás disponible para ayudar en mudanza, pero, a cambio, les hemos dado aquí una oportunidad con tu lotero, nuestro patrocinador de hoy, de un un salto económico importante. Entonces, bueno, las gallinas que entran, por las que salen.

Pues nada, nos vemos la semana que viene con más noticias, señores.

Chao, mix.

Episodios recientes

Programas relacionados