Que los camareros sigan siendo guapos es una mala señal Barra libre de copyright y otras exigencias de las empresas de IA Vuelve la Guerra Fría, esta vez entre EEUU y China Pues si usáis nuestros contenidos, vais a tener que compensarnos La IA no se hace sola, hay que hacerla (Mistral 3.1 sobre Nvidia) Para este otoño, la IA escribirá el 90% del código Llega el vibe coding, programar por vibras con la IA Google vuelve a molar Una de cal y otra de arena con Google Sam Altman y su modelo bueno en escritura creativa La IA ya hace mejores memes que los humanos Puerta grande o enfermería
00:00 /1h24

monosestocasticos.com

0:00 Que los camareros sigan siendo guapos es una mala señal

4:50 Barra libre de copyright y otras exigencias de las empresas de IA

9:09 Vuelve la Guerra Fría, pero esta vez el arma es la IA

15:00 Si usáis nuestros contenidos, vais a tener que compensarnos

19:38 La IA no se hace sola, hay que hacerla con Nvidia

22:51 "En seis meses, la IA escribirá el 90% del código"

29:50 Llega el vibe coding, programar según tus vibras

37:08 Google vuelve a molar

52:37 Una de cal y otra de arena con Google

56:17 Sam Altman y su modelo bueno en escritura creativa

1:01:53 La IA ya hace mejores memes que los humanos

1:03:38 Puerta grande o enfermería

Autorresumen:

En este episodio de "Monos Estocásticos", Matías y Antonio hablan sobre el estado actual de la inteligencia artificial. Primero analizan la preocupación de que podría haber una "burbuja" en este campo. Comentan opiniones críticas como la de Alberto Iglesias Fraga, quien cree que la inteligencia artificial podría estar llegando a un momento clave. También recuerdan un evento en el que se notó claramente que muchas promesas sobre la IA aún están lejos de cumplirse, como camareros haciendo trabajos que podrían estar automatizados.

Luego hablan sobre cómo las grandes empresas de IA están pidiendo cambios en las regulaciones, especialmente relacionadas con el copyright. Esto es importante porque afecta directamente al uso de materiales protegidos en el entrenamiento de sus modelos. Además, mencionan la competencia global, sobre todo con el rápido crecimiento de la IA en China, y cómo las decisiones de los gobiernos serán cruciales para el futuro del sector. También comparan esta situación con otros sectores como el espacial, donde la burocracia podría frenar el avance tecnológico.

Además, comentan sobre la rápida aparición de nuevas herramientas de IA y cómo algunas han mejorado mucho últimamente. Matías comparte su experiencia usando la IA de Mistral, destacando que, aunque ha recibido respuestas útiles, también ha encontrado errores importantes. Antonio habla de la preocupación de los programadores por las predicciones que indican que la IA podría encargarse pronto de la mayoría del trabajo de programación.

Mirando hacia adelante, presentan las últimas novedades de Google, especialmente los modelos Gemma y Gemini, analizando cómo están cambiando el panorama tecnológico y cómo podrían utilizarse. Aun así, insisten en la importancia de mantener una actitud crítica y equilibrada frente a estas innovaciones.

Por último, en la sección "Puerta Grande o Enfermería", Matías y Antonio hablan sobre cómo la IA está impactando áreas como la cultura popular, desde la creación de contenido hasta la educación interactiva. Terminan el episodio con humor, comentando cómo los chatbots ya están transformando el servicio al cliente en sectores que antes eran conocidos por generar insatisfacción en los usuarios.

Este episodio invita a pensar sobre el momento importante que vive la inteligencia artificial y cómo podría cambiar nuestra vida cotidiana.

monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Sacamos un episodio nuevo cada jueves. Puedes seguirnos en YouTube, LinkedIn y X. Más enlaces en cuonda.com/monos-estocasticos/links

Publicado: 20 marzo 2025

Transcripción


Matías S. Zavia: Hola a todos los monos estocásticos. Bienvenidos al podcast de inteligencia artificial que se pone por las noches el bebé de Sam Alman para dormir, para conciliar el sueño. Antonio Ortiz, ¿cómo estás?

Antonio Ortiz: Matías, tengo la sensación de que tú y yo dejamos pasar una oportunidad, porque estas dos últimas semanas he visto cómo se han multiplicado las reclamaciones de que, oye, esto de la IA empieza a pintar a burbuja que explota. Leía yo en en El Español una pieza de, bueno, dentro de Invertia, que filmaba Alberto Iglesias Fraga, y él dice que la burbuja de la inteligencia artificial empieza a pincharse, y eso lo saca un poco de de las noticias que se han comentado de la parálisis de la inversión prevista de Microsoft en en Data Center, y que, bueno, se une a otras noticias de que los CEOs y los trabajadores, pues, ven que esto de la inteligencia artificial ejecutando tareas de alto valor, pues, pinta para largo. Y yo cuando leía este este artículo, Matty, me acordé de cuando tú y yo lo tuvimos delante y no lo quisimos denunciar, no lo no lo manifestamos ni lo compartimos en el podcast. No sé si te acordarás, porque fue cuando nos invitó el diario Sur a un evento. En el hecho y yo hicimos una intervención de, bueno, de cierto éxito de crítica y público, y en la que nos dimos cuenta del percal justo al terminar el evento y estar en el en el en el en el en el en el pickas, ¿no?

En el en el pica pica, ¿no? En el en el cóctel posterior. Porque, en ese momento, tú y yo vimos la realidad frente a nosotros, Mathi, y era aquellas camareros, aquellas camareras tan guapísimos todos, y en ese momento dijimos tú y yo, lo de la inteligencia artificial todavía no está llegando a la realidad.

Matías S. Zavia: Tengo que decir que esta teoría que, si no me equivoco, yo se la leí a Martín Barsowsky, yo me la he tomado como un dogma. Si el futuro es de la inteligencia artificial, entonces el futuro es de los guapos, de los guapos, de la gente con don de gentes, porque ya no te va a hacer falta menos con este paradigma de los modelos razonadores, que están dominando pruebas matemáticas, físicas, científicas de programación más difíciles que existen, no te hace falta todo ese conocimiento. Te basta para triunfar en la vida con ser guapo y ser simpático. Pero si seguimos viendo, camareros, pues de esta índole, es que algo todavía no está ahí, ¿no?

Antonio Ortiz: Exactamente. Claro, nosotros podríamos compartir muchísimas enseñanzas de estas experiencias. Bueno, esta es la las directas, ¿no? Tú y yo, pues ya tenemos muchos kilómetros de cóctel y de y de imitaciones, podemos dar buenos consejos, ¿no? Por ejemplo, ¿no?

El típico, Oye, cuando vengan ese ese pincho del tomate cherry con la bola de mozzarella, es el momento en que tú puedes hablar, lo ignoras, pasas, ¿vale? Entonces, tú te tienes que concentrar en la mini hamburguesa, ¿no? Que es una una enseñanza importante para la gente poco avezada en el mundo de de los eventos con con cóctel, pero la enseñanza fuerte estaba ahí. Es decir, si la gente guapa todavía está poniéndonos a nosotros la Coca Cola y la cerveza, entonces que la inteligencia artificial no ha llegado, y es más, la economía madrileña no va tan bien como nos quieren vender. Si la gente más guapa del de de la ciudad está sirviendo bandejas, entonces, es que esto no no ha acabado de cristalizar en el crecimiento que que nos habían vaticinado, Mati, y, claro, nosotros perdimos la oportunidad de ser los primeros profetas, en decir que la, o lo vimos antes que nadie, esto de el pinchazo de que la gurú de de la inteligencia artificial no iba tan rápido.

De todas maneras, no nos viene bien para el podcast estos mensajes, bueno, medio medio, habría que reconvertirse al metaverso otra vez, metías, recuerda nuestra estrategia. Así que vamos a ver las noticias de esta semana si nos dan para Puerta Grande de inteligencia artificial o pinchazo de la burbuja.

Matías S. Zavia: Tenemos que hablar de lo que las grandes empresas de inteligencia artificial están empezando a exigir a, pues, los reguladores y las autoridades y los gobernantes para alisar un poco su camino hacia el éxito, que nosotros empezamos hablando de copyright, por ejemplo, con la huelga de los guionistas y todo el tema de Hollywood, que al final ganaron los humanos, y ahora parece que nos hemos olvidado de todo esto, y en las exigencias de de Google, de Anthropic, de OpenAI, hay como una barra libre de copyright. No existe el copyright para las empresas de inteligencia artificial.

Antonio Ortiz: Sí, bueno, es, digamos, una de las problemáticas más fuertes que tienen la las empresas de ella, que es la decisión sobre si su modus operandi, coger cualquier cosa que se encuentran abierto en Internet, cualquier texto, tenga copyright, tenga o no lo tenga, cualquier vídeo, cualquier cualquier cosa que se cruce, que estén abiertos en Internet para entrenar sus modelos, ¿no? Y que esto, que fue así originalmente de todos los primeros modelos de todas las compañías, ahora, bueno, hay un hay un entorno más mixto, pues quedaba siempre la duda de cómo de conforme era respecto a las leyes de propiedad intelectual previas o vigentes en ese momento. Bueno, es una discusión jurídica porque, realmente, las empresas de inteligencia artificial, recordemos, no están reproduciendo y están redistribuyendo estas obras, que son lo que está más claramente penalizado por la ley de propiedad intelectual de todo el mundo, sino que las usaron para entrenar a los modelos y, por lo tanto, al no mantenerlas almacenadas y no responder con ellas, pues ella, estas empresas de ellas se parapetan en el entendimiento de que, oye, las usamos para entrenar, para que aprendiera las sillas, como hacen los humanos, y los humanos también consumen ese contenido, lo leen, lo visualizan o lo escuchan, y con ese aprendizaje, luego hacen sus cosas, pues, las inteligencias físicas igual.

El caso es que, ahora mismo, hay un plan de acción en Estados Unidos, en el que se ha abierto, pues, una consulta a las distintas empresas de inteligencia artificial y a todos los actores relevantes que pueden estar relacionados. Y, claro, la Esto es como la carta de los reyes magos. Anthropic, Openeah y Google han publicado lo sus peticiones, y además son documentos que a a a fin de cuentas se se pueden consultar porque la han presentado al al congreso de Estados Unidos, y las peticiones, bueno, podemos ir a a mucho el detalle. Anthropic, bueno, ha publicado y y estamos viendo en el vídeo un poco todo su su documento, pero hay hay hay un patrón entre las tres que que viene a ser algo así como, oye, hay que construir gigavatios y gigavatios de potencia de inteligencia artificial en los próximos años. Aquí hay que hacer y poner data centers lo máximo posible.

Dos, todo esto de que puede haber dudas de que se utilice la inteligencia artificial o que se use en el entrenamiento de inteligencia artificial contenidos con copyright y y que eso pueda crearnos una cierta inseguridad jurídica, porque al final acabemos teniendo que independizar o que se paralizará el entrenamiento o incluso el uso de nuestros modelos, es un riesgo, es un riesgo y, por lo tanto, este es el argumento más consistente entre Anthropic, Google y OpenAI, si nos pararais, si congelarais y nos penalizarais, China nos va a ganar. Tened miedo porque los modelos chinos no van a respetar nada, van a hacer lo que quieran, el estado chino les va a apoyar. Entonces, si a mí me ponéis complicaciones, si no me ponéis ya negro sobre blanco usar contenidos con copyright para entrenar modelo de inteligencia artificial es fake use, es un uso legítimo, entonces, si no hacéis eso, lo los chinos nos nos van a vencer y quedaremos por detrás inteligencia artificial. Y, por lo tanto, atención congresistas y gobiernos de Estados Unidos, darnos todo lo que pidamos.

Matías S. Zavia: Yo voy a tener que repasarme en los libros de historia de de la Guerra Fría y de los avances tecnológicos del del lado occidental o del lado estadounidense y del lado soviético, porque siento que hay paralelismos. Y veo otro paralelismo, claro, yo que estoy muy metido en temas de industria espacial, cohetes. Elon Musk, una de las razones subyacentes por las que tiene tanto interés en limpiar la burocracia o simplificar la burocracia estadounidense, es porque SpaceX estaba encorsetada en unas regulaciones de seguridad del espacio aéreo, de seguridad de los ciudadanos muy estrictas. Entonces, la cadencia de lanzamientos de la starship, pues no podía ser tan alta como la que quería Elon Musk. Ahora, dos veces ha explotado la Starship sobre el Caribe, entre las Bahamas y las Islas Turcas y Caicos, y han desviado dos veces un montón de aviones, pero parece que ya no existe esa regulación tan estricta.

Entiendo que, en este caso, Anthropic, también Open AI, también Google, buscan ese mismo trato que Elon Musk está buscando para SpaceX para las empresas de inteligencia artificial, para tener una ventaja competitiva frente a China. Y deberíamos recordar que frente a Europa, aprovechando un trato muy favorable del gobierno, que luego, si existe esa burbuja de la IA, no sé si se podrá justificar.

Antonio Ortiz: Y hay un aspecto interesantísimo, Mattrico, que has dicho la la guerra fría, que es cómo escogió el el el momento de Ipsica OpenEye, porque es la que más claramente está pidiendo que, en su argumentario está todo esto de la de la competencia geopolítica con China, entonces, ellos piden, pues, que se prohíban los modelos chinos en Estados Unidos como Deep Six. Entonces, tanto sean open source se han cerrado porque pueden resultar a ojos de de OpenAI, bueno, o por lo menos es su argumentario público, pues una una parte de de de de manipulación, influencia, competencia desleal, un conjunto de argumentos que, de alguna manera, les les compitan y que es para OpenAI, eso es perjudicial para Estados Unidos, pero, bueno, también, claro, evidentemente, vemos que ellos tienen un interés claro en menoscabar su competencia. Recordemos que hace unos un par de años Open Iñain estaba susurrando a los oídos de la administración Biden que esto de los modelos open sourties era peligroso. No los chinos, sino cualquier modelo open soury va a ser peligroso porque se acercaría la gente con modelos abiertos. Entonces

Matías S. Zavia: Va moviendo la portería, ¿no? Primero era meta el peligro, ahora el peligro es China. Eso se llama mover la portería. Tanto decía Antonio que también China está protegiendo mucho a Deep Six, sacó de information un reportaje en el que en el que hablaba de que Deep Sixk era como la nueva niña bonita en China, que la estaban cuidando muchísimo, y que incluso dentro de Deep Sixk habían prohibido algunos empleados, se habían pedido entregar sus pasaportes para que no pudieran viajar o para que no puedan viajar fuera de China, vaya a ser que se filtre algún secreto comercial, algún secreto industrial que ponga China en desventaja respecto a Estados Unidos, ¿no?

Antonio Ortiz: Sí, esto es como si España o la Comunidad Valenciana prohibiera al que al que diseñó el helado de turrón con trocitos del Mercadona salir del país, no vaya a ser que avance y esa innovación gastronómica nos la pudiera copiar hagendash, ¿no? Y que, no, a mí me recuerda un poco esto y me recuerda, por supuesto, a a la a la Guerra Fría. Hay yo creo que un paralelismo, el paralelismo más fuerte incluso, aunque se suele recurrir a la a la analogía con la con la nuclear y la bomba, etcétera, creo que tiene una parte de eso, porque la guía se va a usar en en armamento, pero a lo que más se parece a mí es me parece a la guerra de de los semiconductores, de los chips de mediados del siglo veinte y principios del veintiuno, y en el que, bueno, todo esto tiene bikes, ¿no? Tiene tiene esa emoción de de la Guerra Fría. Y aquí yo creo que, tanto nosotros en Europa como en Estados Unidos, el momento geopolítico va a influir mucho en las regulaciones y el momento, ¿no?

Estamos en en ese en ese impasse del pendulazo, de mucho miedo, regulación, los eticistas, control, burocracia, salvaguardas, ¿no? Un montón de de de empuje en esa dirección que lideró Europa hasta hace prácticamente seis meses, y ahora el pendulazo va en la otra dirección. Tonto el último, ojo, quien se quede atrás con la tecnología clave del siglo veintiuno, y las empresas de de inteligencia artificial han visto claramente que ese argumentario de China no compite, y el momento tip SIC ahora les está vendiendo muy bien, porque parece que el miedo a la inteligencia artificial china no es hipotético, sino que es real, que los chinos compiten muy bien y están a un nivel muy similar al de los estadounidenses, y, por lo tanto, ellos pueden decirle a al gobierno de Estados Unidos, derrégulanos lo más posible para que podamos competir y no vayamos en desventaja y Estados Unidos se quede atrás. Entonces, con con este escenario en que China y Estados Unidos pueden ir con una aproximación de máximos y de mínimos en la en la parte de de la seguridad o las salvaguardas y la burocracia, Europa se encuentra en una posición complicada para mantener su anterior visión de no, no, no, no, cuidado, control, peligro, aquí hay que hay que legislar mucho, ¿no?

Matías S. Zavia: Es que tiene que haber un punto medio entre vamos a dar el tapón de la IA a la botella y vamos a dar vía libre a las empresas de IA para hacer lo que les dé la gana. Y yo, por cerrar el círculo de esta discusión, no sé qué pensar Antonio de del copyright, porque Estados Unidos es un país que sí tradicionalmente protege los derechos de autor de de sus grandes autores, y ahora con la IAT, pues tienen que decidir si está a favor de una cosa o de la otra. No sé en qué va a acabar esto, honestamente.

Antonio Ortiz: Bueno, mirado desde lejos, parece que con un gobierno demócrata, el mundo de la cultura, los medios de comunicación, Hollywood, etcétera, tenía más influencia en en el gobierno y era, digamos, un ecosistema o un o un conjunto de de las mismas élites que que gobernaban y y hacían negocio alrededor de la cultura y y y tras esa parapeto, pues unas posturas muy fuertes de copyright, propiedad intelectual. Y el mundo del trampismo y la administración actual viene con otras élites, viene con élites tecnológicas, y las élites tecnológicas han visto muy claro que es un momento de alta regulación de su sector y se han apegado al al que manda. Entonces, lo han hecho siempre, igual que lo hicieron con con Biden, igual que las que hacen negocios en China se han se han sometido al gobierno chino, ¿no? El caso es que da la impresión de que es un momento en el que las élites tecnológicas tienen mucho más poder e influencia, y van mucho más de la mano con con el administración Trump, que es bastante menos amiga de las élites culturales, universitarias, intelectuales y de medios de comunicación tradicionales, y que eso, pues, de alguna manera, lo están viendo como una oportunidad de de influir ellos un poco en la en la en la legislación, ¿no?

De todas maneras, ahí vemos que hay un conjunto de de periódicos del, bueno, un grupo que es de diez propietarios Alden Global Capital, que está demandando a Openea y Google por violar derechos de autor, ¿no? Entonces, como usan su contenido para entrar a modelo de la inteligencia artificial, consideran que eso sí requiere una compensación económica y que, mientras el juez que detenga esto de la ILA para mientras lo lo dilucidamos, ¿no? Entonces, bueno, yo creo que ahí, en Estados Unidos, hasta ahora, los juicios los han estado ganando las empresas de inteligencia artificial bajo el paraguas de lo que hemos comentado antes, no reproducen, no redistribuyen, solo lo usan para entrenar. En Japón les han dado semáforo verde, empresa de inteligencia artificial podéis usar los contenidos y aquí no no va a haber problema, y en Europa, pues yo creo que lo más probable, atendiendo un poco a la doctrina tradicional o es que hay una especie de canon y que se le dé un permiso de que, por defecto, pueden usar los contenidos, pero pagando una compensación a los creadores, de manera que haya una entidad que administre esos esos ingresos, ¿no? Eso yo creo que es lo el escenario más probable y, bueno, yo pensándolo, creo que hay una una segunda vuelta que hablamos con con la semana pasada, Matty, que es, creo que a las empresas de inteligencia artificial tampoco les interesa dejar a las industrias creadoras de contenidos artísticas, culturales, a dos velas, porque necesitas que haya una industria creando contenidos y creando, pues eso, vídeos, o sea, textos, etcétera.

Primero, para entrenar y, segundo, porque es lo que va a demandar el usuario cuando suena IEA, ¿no? Yo pregunto a ChatGPT y quiero que me encuentre las noticias. Tiene que haber un periodista y un reportero que escriba esa noticia.

Matías S. Zavia: Pues sí, fíjate que hablábamos la semana pasada, que tenía que haber un periodista que fuera a Campanillas a ver si se desbordaba el río, y finalmente ha ocurrido, ¿no? Y era mejor consultarlo en el Diario Sur que preguntarle a HGPT.

Antonio Ortiz: Sí.

Matías S. Zavia: Quizá a Groc. Groc, la verdad es que si le preguntas temas de actualidad, los tiene mejor pillados gracias a la integración con con Twitter, pero Groc todavía no puede ir a a la presa de casa sola a ver si está desembalsando o no.

Antonio Ortiz: Cuando hagan Optimus, pues Optimus estará por ahí, unos largos por el río Campaguilla, ¿no?

Matías S. Zavia: Honestamente, no sé si salen más para tomar robots o pagar a periodistas, que tampoco te creas que los periodistas estamos tan bien pagando.

Antonio Ortiz: Claro, habría que ver los sueldos de Diario Sur. Tiene que saberlo.

Matías S. Zavia: En fin, vamos a pasar a La idea no se hace sola, hay que hacerla. Que es esta sección en la que probamos cositas en local, gracias a que Nvidia nos mandó un ordenador completo con una de sus gráficas RTX, y tengo que decirte, Antonio, que cada vez uso más la IA en local, cada vez lo uso más por ahorrarme unos eurillos. Es cierto que yo le tengo unos eurillos metidos a a la API de Open AI, sobre todo para Whisper, para transcribir cosas, porque transcribo videollamadas, transcribo vídeos, etcétera, pero, claro, me he dado cuenta que lo puedo hacer en local gracias a la gráfica de Nvidia. Y, recientemente, mi relación con la IA en local ha mejorado mucho gracias a un lanzamiento de la gente de Mistral, IA europea por antonomasia que se hace en París, señores franceses, porque Mistral ha lanzado Small tres punto uno, que dicen que es el Shota, el State of the Art, el mejor modelo multimodal para ejecutarse en local, y lo prueban, pues, con un montón de benchmarks, etcétera, pero que yo lo he probado a mi manera, descargándolo, ejecutándolo en la gráfica de Nvidia y hablándole a ver si me resultan buenas y naturales sus respuestas, y tengo que decir que sí, tengo que decir que sí.

Tenéis en Having Face instrucciones para para instalar el el Mistral de veinticuatro Beyonds, el tres punto uno. Te voy a compartir una conversación. Le he pedido al modelo un itinerario por Málaga, por la provincia, si está lloviendo. La respuesta es bastante buena, pero sí que he detectado una alucinación. Me recomendó la primera noche cenar en el barrio de Sojail.

Claro, aquí se ha confundido porque creo que se refería al Soho, ¿no? Pero en general es muy bueno y usa palabras y son lenguaje muy natural, como estamos hablando de modelos fundacionales, y me estaba hablando de que la versión Instruct son fine tuneado, usando la palabra fine tuneado. Entonces, muy buen feeling con este modelo de Mistral, que se puede ejecutar en en local sin gastarte las perras.

Antonio Ortiz: Pues muy bien, Mati, porque has hecho un dos en uno, has, bueno, probado la tecnología de nuestro patrocinador de semana, que es Nvidia, y, a la vez, nos has dado unos buenos puntos, unos buenos insights sobre el estado de la inteligencia artificial de los modelos. Fíjate que un veinticuatro billion, yo ya no lo considero pequeño, lo considero como ya medianito, ¿no? Como un modelo ya, bueno, casi un setenta billion, pero es un modelo ya gordote y que qué maravilla que lo puedas ejecutar local, y no solo de del tamaño de estos modelos, sino del nivel de Mistral, que, digamos, en los modelos súper gigantes parece que nunca acaba de competir con los con los mejores, pero en este tamaño de modelos pequeñitos y medianos creo que, pues, prácticamente, pueden mirar de tú a tú a cualquier otra empresa de inteligencia artificial. Y hablando de de de mirar a las cosas a la cara, los programadores, Mattie están nerviosos, están preocupados porque llevamos unas semanas en las que figuras importantes del mundo de inteligencia artificial están inflando un hype, unas expectativas con lo que va a ser y va a suponer la codificación de los a través de modelos de inteligencia artificial, que que está siendo muy contestada, muy discutida y hay nubarrones en el horizonte.

Te voy a dar una, la de la lo que ha dicho Darío Amodei, CEO de Anthropic, ¿vale? Él fue el, yo creo que el que más ha encendido esta esta llama, y ha dicho que en los próximos tres o seis meses, es decir, entre principios de verano y final de verano, la IA escribirá el noventa por ciento del código, y en doce meses lo escribirá prácticamente todo. Todo el código será escrito por inteligencia artificial. Zack hace uno, lo de George Rogan dijo que en dos mil veinticinco, pues Meta tendría, igual que otras empresas, inteligencia artificial capaz de escribir como el ingeniero de nivel medio. Zack era medianamente, ¿no?

No voy a decir la palabra optimista, pero bueno, era un poco el el punto tibio, ¿no? De las predicciones con Ia, y para rematar el chief product officer de OpenEye, Kevin Well dio una entrevista, y es que dice que a final de dos mil veinticinco tendremos dos noticias seguras. Uno, que en las competiciones de las olimpiadas de codificación, este tipo de competiciones entre programadores, eso lo va a ganar la inteligencia artificial en dos mil veinticinco, igual que ganó el ajedrez, o igual que hace cincuenta años ganó el multiplicar números de ocho cifras, y que a final de este año, dos mil veinticinco, también espera que el código esté noventa y nueve por ciento automatizado por inteligencia artificial. Y claro, todas estas predicciones, todos estos vaticinios están cayendo como una tormenta en el mundillo de los programadores, Matías. Tengo que decir, que esto

Matías S. Zavia: lo diga Antheropic y lo diga OpenAI me lo creo hasta cierto punto. No obstante, su producto son modelos de inteligencia artificial. Entonces, al mismo tiempo te están vendiendo la moto. Si lo dice Zuckerberg, cuyo producto son las redes sociales que usan miles de millones de personas, mira, estamos usando tal porcentaje de código autogenerado en nuestros servicios y en nuestras aplicaciones, entonces empezaría a decir, ostras, la cosa está cambiando bastante, a mí me gustaría que saliera con total valentía Sundar Pichay o saliera Satin Adela o saliera de nuevo Mark Zuckerberg, y nos dijeran hasta qué punto se ha metido en la cocina el código generado con inteligencia artificial en los servicios que no son productos de inteligencia artificial, que es el negocio principal de Anthropic y de y de OpenAI. Y estoy convencido de que sí está ocurriendo, por la sencilla razón de que se ahorrarían millones.

O sea, ¿cuánto le paga esta gente, estas empresas a sus programadores? Necesitarán todavía los mejores para mantener esa salvaguarda de no nos van a hackear, no se nos va a caer, pero por lo demás se estarían ahorrando millones y millones de dólares y estarían acelerando la producción un montón.

Antonio Ortiz: Hay una cosa que podemos recordar, porque apareció en el en el podcast, Xandar Pichay hace ya bastantes meses dijo que el veinticinco por ciento del código que se genera en Google estaba escrito por I. Eso era hace bastantes meses. Si no ha cambiado la tendencia, probablemente, el porcentaje de código nuevo dentro de Google que se ha generado con I será todavía mayor. Bueno, gente cercana al entorno de Google me me apunta a que eso es correcto. Es decir, que no están yendo a menos, sino que están yendo a más.

Aquí hay que hacer varias aclaraciones. Yo, bueno, voy a hacer, perdón por los otros promo, pero es que escribí un artículo de cuatro mil palabras sobre inteligencia artificial y programación, ya que nos habían invitado a la work camp de de Torremolinos, y estaremos por allí en en abril. Claro, me preguntaban, ¿tú estás a favor o te ponemos a favor de la I a ti en la en la mesa redonda? Y yo empecé a pensar, a dar de vueltas a todo lo que estoy leyendo de programación y artificial, y dije, bueno, pero si no es que este, no no es que sea buena o mala, sino que esté a favor o en contra. Creo que es inevitable.

Esto va a pasar, ¿y por qué? Porque tiene un sentido absolutamente total en términos de economía y eficiencia para las empresas, y tiene sentido total en términos de, además, probablemente, de calidad del código. Dicho esto, hay que poner muchos astericos. Primero, el trabajo de un ingeniero de software, o de un programador de software, que que que no hace falta tener carrera, va mucho más allá de escribir código. Hay un conocimiento profundo, tanto de la arquitectura, de las necesidades, del entorno, no no es solo escribir funciones, ¿vale?

¿Vale? La corriente que defiende de, esto es una frase de Karpathy hace un año y pico, el nuevo lenguaje de aprobación es el el inglés, ¿no? De manera que programaremos dándole instrucciones a la a la inteligencia oficial y ella escribirá todos los programas y todo, ¿no? Digamos que es es una frase con un punch brutal y que, digamos, de momento, no está está los tiempos van a favor de ella, pero están muy lejos de de ser la realidad. Es decir, la gente que está entrando en el mundo de no sé nada de programación, pero con inteligencia artificial puedo hacer la aplicación que quiera y, pues, claro, lo que se está dando cuenta es que para hacer prototipos y para jugar, que está muy bien, y que eso esa esa primera versión de cualquier cosa con Ia es una maravilla porque te lo da muy rápido, para un programador que sepa programar está muy bien porque, si sabes lo que está haciendo, te aumenta la productividad, pero no te convierte en que puedo crear la aplicación de mis sueños, como he visto promocionado por ahí, solo con inteligencia artificial y sin hacer ese sacrificio de el trabajo duro e intelectual de aprender cómo funciona lo que estoy haciendo, es decir, de aprender al desarrollo software.

La IA, el código con IA sin saber programar, es decir, este mundo de que está entre el no code y el y el empezar a saber programar, da ahora para hacer juguetes, y son muy difíciles de mantener, suelen tener problemas de seguridad y, en fin, no es tan fácil como voy a poner tres prom y voy a hacer tres clics y tendré la aplicación que quiera. Dicho esto, Carpathy lo ha vuelto a hacer, es un tío que tiene tiene tiene el tío un talento para dar con el meme adecuado para el side case de del del del momento, y él ha hablado del vipe coding, ¿no? De, este, programar por vibras, ¿no? Que, básicamente, para él es de una manera muy despreocupada, ¿no? Además, hablando con con los sistemas de inteligencia artificial, pide las cosas y, en vez de meterse en el código y tal, vas así como dando orden, ¿no?

Pues cambia esto, cambia lo otro, haz esto, haz lo otro, y al final tiene el resultado. Claro, ahora hay un montón de gente, no, es código, hay que hay que programar por vibraciones, ¿no? Olvídate de de de aprender conocimientos profundos del lenguaje, de la arquitectura, de la ingeniería software, no, no, no, vibra, vibra, ¿no? Fluye. Pero, claro, dos cosas, Carpati es uno de los mayores expertos del mundo en su disciplina, es un tío que es un top cero como uno por ciento del mundo en desarrollo de software.

Y dos, él mismo dice, oye, esto no está mal para proyectitos de fin de semana de usar y tirar, es divertido. Entonces, no te flipes, decir, no, no vamos a a chapar Accenture, Indra y Colitel, porque con con las fibras bajas puede hacer el CRM de Vodafone, eso, de momento, está lejísimo. Entonces, estamos en un momento, y es lo que desarrolló un poco en la en en el artículo, en el que hay momentos de transformación clarísimo, pero en el que tanto el desprecio absoluto de esto no vale para nada, es irreal, como el excesivo hype de, ya no nos hace falta los programadores, porque yo, como alguien que idea el producto, y con una IA, ya lo puedo hacer todo, ambas posturas son bastante maximalistas y creo que lejanas de lo real.

Matías S. Zavia: Yo creo que puedo hacer un paralelismo entre programar por vibras vipe coding, este esta expresión que os ha inventado Karpazzi, con cómo uso yo diariamente la inteligencia artificial para algo que nada tiene que ver con programar, que es la redacción de noticias y la creación de contenido. Yo lo he notado mucho con GPT cuatro punto cinco. GPT cuatro punto cinco es el modelo más grande que tenemos de tipo no razonador, y el muro lo veo claro, es un modelo que, aparentemente, la respuesta que te da está perfectamente escrita, parece que ha creado el texto perfecto, pero a poco que tengas un conocimiento sobre el tema que está tratando, empiezas a verle el plumero y dónde se está inventando, pues un montón de cosas, cosa que a lo mejor los modelos razonadores, quizá no a nivel escritura, pero en a en otros ámbitos mejoran gracias al tiempo que dedican al pensamiento, como pasa con Deep Research, y en la programación siento que puede pasar lo mismo, que alguien que tenga conocimientos avanzados de programación puede estar iterando sobre el código autogenerado, dándose cuenta de dónde están los fallos, igual que yo me doy cuenta de dónde falla el GPT cuatro punto cinco en el texto que me está redactando.

Entonces, el bytecoding también tiene mucho de, vamos a acelerar el proceso, sobre todo a la gente que más sabe lo que está haciendo, porque si no, vamos a encontrar un montón de problemas en aplicaciones que lleguen a la App Store y que a lo mejor son hackeables o o tienen un montón de bugs, ¿no? Claro, fíjate que que

Antonio Ortiz: ha ha hecho un paralelismo que yo creo que tiene mucho sentido, porque con todas las herramientas para hacer aplicaciones y webs que están que están haciendo y que están desarrollándose, probablemente, la diferencia entre software y contenido se va a diluir, en el sentido de que algunas de las formas de distribución y de cómo funciona el contenido van a contagiar al mundo de las aplicaciones, servicios y del software, ¿no? Yo creo que ahí ahí tienes un punto muy muy interesante, Matías, y yo creo que además hay un conflicto primero generacional y luego de culturas de desarrollo. ¿Por qué? Porque las startups tienen esta cultura de me interesa salir o tener una versión, el producto mínimo viable, ¿no? El producto justo para salir lo más rápido posible, para testar el mercado, ver cómo lo usan el usuario, aprender en producción, integrar súper rápido.

Entonces, todo esto de la inteligencia artificial y el by coding, por ejemplo, la gente de Combinators decían que todas sus startups estaban locas, locas perfectamente con el by coding y con el desarrollo con inteligencia artificial. Tiene cierto sentido que las empresas que tienden más a esa superagilidad y esa superapidez, en vez de más seguridad, garantías y un de dedicar mucho tiempo a pensar y diseñar el proyecto para muchos años, tengan abracen lo que les puede dar la mayor productividad y eficiencia, pero no olvidaría que se están sacrificando cosas, ¿sí? La la propia startup sacrifica, pues, las mejores elecciones en términos de arquitectura y de escalabilidad del de la aplicación por morde de la velocidad. Entonces, es posible que, a medio plazo, ¿no? La la otra generación, la el el programador clásico que le gusta las cosas muy bien hechas, muy bien diseñadas, muy bien pensadas, ¿no?

Y que y que equipos grandes que se toman su tiempo tengan mucho trabajo haciendo la reingeniería de todas estas startups, ¿no? Entonces, es un mundo en el que también el el cruce generacional y de culturas entre ingenieros tradicionales, a lo mejor, y nuevas generaciones, pues se mezclan, ¿no? Tú estás enseñando ahora, por ejemplo, la gente que está programando videojuegos con ILA de manera muy rápida y, sobre todo, pues, este este perfil, ¿no? El level SEO, ¿no? De de de el famoso twittero que cuenta todo sus desarrollos con inteligencia artificial, muy ágiles, que va por libre y que está facturando mucho en un juego de IA.

El juego es medianito, es como, pues, digamos, uno gráfico a nivel Minecraft, así, poligonazos total, pero de aviones y de batallas aéreas, pero yo creo que es la excepción. Tú haces un juego que es un cine y tiene tracción publicitaria, no ves gente pagando por él, gracias al hype de la IA, gracias al hype de que mucha gente quiere probarlo y ver cómo es. Pero no creo que sea un videojuego que compita realmente con con el mercado de juegos real de los gamers, ¿no?

Matías S. Zavia: ¿No? Te te iba a decir eso, nosotros aquí discutiendo sobre el futuro de la programación y el Peter Levels este saca un juego de mierda y factura cientos de miles y de millones de euros al año. Bueno, pues, igual algo falla, pero también es cierto que este hombre tiene una visibilidad y una exposición que permiten que estas cosas funcionen. Si yo saco un juego mañana, ni haciendo spam por LinkedIn a todo el mundo, voy a conseguir un nivel de facturación como el de Peter Levels.

Antonio Ortiz: Bueno, pues vamos a cambiar de tercio, porque Google vuelve a molar, Matías, Google vuelve a estar en la pomada y vuelve, digamos, a tener un poco de cariño y de amor de la comunidad inicial de los, digamos, early adopters de la inteligencia artificial, porque ha habido una catarsis de, bueno, no sé, de de, no de grandes lanzamientos, pero sí de grandes movimientos. Lo primero, bueno, vamos a ir por partes, porque hay muchas cosas, son los modelos Genma, ¿no? Los Genma, pues son, digamos, los primos de los Gemini, ¿vale? Los Gemini son los modelos cerrados de Google, y los GM son los modelos abiertos. Modelos abiertos, recordemos, de pesos abiertos, no te dan todo absolutamente para poder reproducirlo, pero son muy interesantes porque, de alguna manera, además, son modelos muy pequeños como el que tú has probado DMinstral y que se pueden ejecutar en ordenadores, el local, sin muchísima, muchísima potencia.

Y en términos de los payspark, pues, han salido bien, han salido muy guapos y y con con un nivel bastante aceptable.

Matías S. Zavia: George Gemma no lo he probado todavía, sé que tú sí has estado hablando con él, pero estoy probando muchos de los otros lanzamientos de Google, y ojo, ojo, porque ya me conviene pagar la suscripción de Jetmin AI, teniendo en cuenta que te incluye las dos teras de almacenamiento en la nube. Ojo, OpenAI, ojo Anthropic, que que a lo mejor aquí hay un trasvase de usuarios importantes, sobre todo con las integraciones que hay con el Google Calendar, con el Google Drive, con fotos, etcétera, etcétera, etcétera, ¿no? Con todas estas servicios que ya utilizamos.

Antonio Ortiz: Vale, vamos por pasos, Mati, porque lo del mundo Google es complicado. Para probar lo que, digamos, tienen ya en producción, y, digamos, que ya han lanzado para el gran público, pues hay que ir a Yeminay, Yeminay punto Google punto com, ¿vale? Si eres usuario de pago, tiene las integraciones que ha contado Matías, hablaremos un poco de de qué han hecho ahí, Pero para probar lo que todavía no ha lanzado el gran público, lo que de alguna manera están experimentando y quieren que pruebe poquita gente para ver las reacciones y y qué tal funciona en esa en esa primera generación de usuarios, hay que ir a el AI Studio de Google. Y ahí es donde, de alguna manera, pues han han saltado o ha saltado el hype con que Google está volviendo a hacer cosas muy chulas, porque tienen varios modelos experimentales de la generación Geminite dos punto cero. Sobre todo, el Geminite dos punto cero Flash image Generation Experimental, que quien pone los nombres en Google, qué maravilla.

Matías S. Zavia: Sí. A ver, a mí con esto me está pasando lo mismo

Antonio Ortiz: que con

Matías S. Zavia: NotebookLM. Tienen una de las herramientas más potentes que han lanzado, han puesto a disposición del público de forma gratuita, y la esconden donde tú dices para que inicialmente la apruebe poca gente. No sé si esto está muy estudiado, pero el potencial de esta herramienta es espectacular, porque básicamente puedes editar cualquier tipo de imagen conservando, si es una ilustración, el estilo de la ilustración, si es una fotografía, pues, medianamente bien, el los sujetos de la fotografía original, y decir, pues ahora que esta persona tenga un vestido rosa, pues ahora que esta persona que está, que tiene chepa, que está encorvada, que es el ejemplo que estamos viendo en la pantalla, pues de repente esté erguida y tenga la mejor postura que se ha visto en el mundo budista. Esto es espectacular, porque la gente que nunca aprendió a usar el Photoshop va a hacer en un segundo lo que los expertos en Photoshop tardan horas en hacer.

Antonio Ortiz: Ah, ¿cree que va a decir? Esto es espectacular porque la gente con Chepa por fin va a tener fotos erguidas. No, no me vamos a meter en ese en general, que no sé si es capacitista o algo, una cosa de esas seguro que es. Y, bueno, a dar la clave, es decir, esto la gente está flipando, pero lo estaban usando cuatro flipados de la inteligencia artificial que se han metido a probarla. Justo el ejemplo que estás enseñando es crítico para algo, yo ayer tenía una clase, Mati, y lo que más énfasis hice porque, además, lo probé con una foto tuya.

Una foto, tu nueva foto de perfil en redes sociales, pues sales tú alegre, contento. Y el caso que le dije a la a la a esta ella de Gemini, de AI Studio, cambia la foto de este man y ponle unas gafas de sol, y te hizo con gafas de sol. Y digo, me está demasiado contento, me gustaría que estuviera más serio y varonil, y de nuevo te cambio y, bueno, te añadió cierta mexicanidad a tu rostro, siempre viene bien, ¿no? Y fíjate, ahí está el punto. Estos dos ejemplos nos ilustran muy bien el salto de paradigma, si me permites la expresión gurusera, es pasar de cambiar, de trabajar con la sintaxis a trabajar con la semántica.

Es algo que vimos muy claro en en en con los textos cuando empezamos a chatear con los PDFs. ¿Qué cambio de paradigma? ¿Cómo se cómo se hizo ese cambio de paradigma? Pues, en vez de buscar la keyword, le pregunto sobre el contenido, pregunto sobre la semántica. No busco la keyword facturación, sino o presupuesto o no, sino que le pregunto a la IA, mira en este PDF y explícame cuánto presupuesto tiene en el proyecto, cómo se factura, etcétera, y cuéntamelo todo.

Paso a trabajar con la semántica. En la imagen está pasando esto, con Photoshop tienes que trabajar con los píxeles, seleccionarlos, aplicar esto, aplicar lo otro, porque trabajas con los pixels, con la sintaxis. Sin embargo, Jiminy te dice, no, no, no, esto aire va a ir de trabajar con la semántica. Dicho esto, vivimos también en esta era del hype, aquí también, y el tuit y el mensaje y el artículo, Photoshop está muerto, es tan tentador y tan está tan a mano y parece que, para destacar en redes sociales, todo tiene que ser revolucionario, extremo, lo cambia todo, cambio absoluto de todos los viejos muertos, todo. Mira, el el el esto está muy chulo, pero tiene dos problemas, dos problemas muy claros.

Uno es que el control que te da Photoshop y la precisión hasta el último píxel que te da Photoshop no te lo dan estas herramientas, porque siguen siendo estocápticas, sigue habiendo un modelo de difusión detrás y tienen una cierta aleatoriedad que no te da tantísimo control. Entonces, el trabajo con resoluciones gigantescas profesionales, que además requieren esa precisión, tampoco te lo está dando esta herramienta de momento. ¿Dónde nos puede funcionar? Pues en los pequeños casos de uso, donde cierta tolerancia al error o a la imprecisión son admisibles, ¿no? Nuestras fotos para redes sociales, para hacer memes, para pequeña empresa que quiero jugar, todo eso está genial.

Pero el uso profesional que que y la necesidad profesional que tiene un diseñador, un creador gráfico, esto todavía no te lo cubre. Entonces, no matéis todavía a Photoshop y y, bueno, accionistas de Adobe podéis dormir tranquilos de momento, aunque yo creo que esto es un cambio que viene y se viene haciendo fuerte, Mati.

Matías S. Zavia: Me gustaría añadir dos limitaciones más que detecto. La primera, la calidad del output, es decir, de la imagen que genera, que esto lo decía José San Merino, que, bueno, él es experto en todo este tipo de herramientas de de diseño gráfico, de edición, de de efectos especiales, y, pues, se siente atacado por estos usuarios que viven el hype, como tú comentas, y dices, ojo, que porque el output que te saca el Gemini es una imagen de muy mala calidad. Bueno, ya llegaron los up scalers, ya llegarán otras integraciones, y luego, otra alimentación es que Google siempre va a decidir lo que está bien y está mal. Tú puedes hacer un Matías que de forma accidental parezca mexicano, pero es accidental, no le puedes decir quiero que Matías sea negro, porque Google te te va te va a vetar la la conversión de la imagen o la o lo que le has pedido. Creo que es lo mismo que va a pasar con el tema viral de las marcas de agua.

Antonio Ortiz: Sí.

Matías S. Zavia: Resulta que han descubierto que esta herramienta es perfecta para coger una imagen de un banco de imágenes con marca de agua, que te images o Shutter stop, lo que sea, y decirle, quítame la marca de agua, y ya la tienes gratis, ¿no? La has pirateado con dos segundos de tu tiempo pidiéndole una cosa a Google. Esto, evidentemente, también va a entrar dentro de de esos filtros y esa censura previa del modelo, ¿no?

Antonio Ortiz: ¿No? Claro, y fíjate que has hecho muy bien sacar este punto, Mathi, porque demuestra el pendulazo. Google era una empresa de máximos de seguridad y precaución antes de poner una herramienta en producción. Entonces, yo veo aquí dos cosas, mantiene cierta prudencia y cierto control, eso es correcto, además de que esto tiene ahí estudio, y este es solo para unos pocos, bueno, al final lleguemos muy pocos usuarios a a a probarlo, es una pseudo medida de seguridad. Antes de que llegue al gran público, voy a ver qué pasa y qué qué qué tema me encuentro con este pequeño grupo de usuario.

Esto será grande cuando esté integrado en Google Fotos, que es lo que usa el común de los mortales. Cuando esté en Google Fotos, pues ya llegará al gran al gran público. Entonces, aquí está el pendulazo. Hay que preocuparse mucho, esto es también, la inteligencia artificial acaba con las marcas de agua, tremendísimo, peligrosísimo. Bueno, esto simplemente es que Google también, por cierta presión y por cierto momento de que necesito ir mucho más al ataque de inteligencia artificial, he subido un poquito más de riesgo, pero corregiré a posteriori.

Cuando me encuentro en un caso de uso indeseable, pues cambiaré la herramienta y esto funcionará debidamente con el control que yo quiero, porque Google no quiere ser la empresa que tú utilices, ¿no? Que tenga las herramientas que tú utilices para serte una marca de agua. Eso no va a pasar, no no no no va a ser real, y que esto que ha pasado en en el Google, en el AI Studio, utilizando este modelo, pues, de alguna manera, tiene, como tú dices, los días contados. Más cosas, El Deep research de Google ahora es mejor. El primer Deep research de Google era un poquito, una búsqueda poquito más, ¿no?

De una búsqueda con con con varios resultados y y la mezcla. Pero ahora están siguiendo la estrategia del mejor deep research que hay en el mundo, que es el de OpenEye, el que yo sigo in love, me parece lo mejor que hay, pero al reset de Google se le está acercando. ¿Por qué? Porque van a usar el modelo razonador, el Geminate dos Flash Thinking, que es un modelo razonador que tienen ellos y que han integrado en el Deep Research. Entonces, he hecho mis primeras pruebas y mi impresión es que bastante mejor que el Deep Research anterior de Google, todavía peor que el Deep Research de OpenEI, sigue siendo mejor el de OpenAI en profundidad, longitud de de desarrollo del del tema que tú le pides y en que cita mucho mejor la fuente.

Está integrado en el informe y no al final como el deep research de Google, pero es un paso adelante, y además es que se puede ahora mismo probar gratis. Google punto com barra third research. Maravilla.

Matías S. Zavia: Yo es la herramienta, ya lo dije en el vídeo anterior, que probaría si no habéis probado, no en ChatGPT hay que pagar los veinte dólares, pero podéis probarlo en Grocty, podéis probarlo en Gemini, porque ese tiempo que dedica explorando fuentes, investigando el tema, hace que la respuesta sea mucho mejor que cualquier otra respuesta que te pueda dar en el momento un chatbot de inteligencia artificial. Vale la pena.

Antonio Ortiz: Y, además, para que la audiencia vea que nosotros estamos de lado, de su lado, y que le recomendamos las mejores herramientas, vamos a la que nos va a jubilar, Matdy, la que va a acabar con el podcast de de de dos señores en la mediana edad charlando entre ellos. Notebook LM se renueva y añade cositas, es decir, ahora va a ser todavía más listo porque entra usan el Gmail dos punto cero thinking, es decir, el modelo que había detrás de NotebookLM es mejor. Recordemos, NotebookM es una herramienta fantástica para que tú subas información y contenido y te genere, pues, una guía de estudio, una serie de preguntas y respuestas, y sobre todo el producto viral de Notebook Life, era el podcast de esa chica y ese hombre que charlan entre ellos de una manera jovial generado a partir del contenido que tú le has pasado. Entonces, esta nueva versión, pues, también tiene más control de las fuentes que se utilizan para para ese podcast, y además rizan el rizo y lo combinan completamente. Tú puedes hacer un thir research, este ensayo o informe desarrollado sobre un tema, y a partir de él, te genera el podcast.

Entonces, tienes, se va rodeando el círculo y se van integrando las cosas de Google. Y yo creo que, una vez que tú ya dices, tengo el Dew RCH, que es más listo que Matías Antori, ¿Y lo puedo convertir en podcast y esta gente son más simpáticas que Matías y Antonio? Mati, yo creo que nos queda un año para facturar en mono. Estoy haciendo las cuentas familiares porque yo veo ese horizonte.

Matías S. Zavia: Sí, todavía no tienen gente con nuestro carisma y nuestra gracia, que es limitada, pero sigue por encima de de estos artificios de Google. Pero a lo mejor a la gente le interesa más un podcast sobre un PowerPoint que tengan en el Google Drive y que llevan días que necesitan estudiarlo y no y no se concentran para estudiarlo, pues la pueden convertir ahora en un podcast y y escucharlo como están escuchando monos estocásticos. O sea que, nosotros un poquito celosos, quizá estemos, pero todavía no corremos no corremos telegro.

Antonio Ortiz: Sí, yo creo que el próximo año va a estar bien. Luego ya, claro, cuando salga la versión Groc, que va a estar más basada, pues ya nos compiten desde otro frente, Mati. Entonces, bueno, por concluir, la la parte de Google, fíjate, Notebook LM, que era muy de nicho, Ara de repente lo integran con el producto oficial, y yo creo que va a ser el camino. ¿Hacia dónde va Google? Pues yo me imagino que van a seguir probando de forma satelital cosas de inteligencia artificial, pero al final yo creo que la la apuesta fuerte es Gemini el agente, ¿no?

Gemini el asistente. De hecho, el assistant de Google de en el móvil va a ser jubilado y va a entrar Gemini. Esto es interesante porque Jemini poco a poco se va haciendo mejor y es la estrategia contraria a la de Apple. Apple espera que el Siri esté súper maduro y súper consistente con la visión que habían anunciado, y por eso lo van a retrasar, ya veremos si dos mil veintiséis, ya veremos si dos mil veintisiete, Y está todo el mundo Apple en una catarsis de, oh, no, anunciaron Siri, no lo han lanzado, estos Paperware, Steve Jobs se revuelve en la tumba, ¿no? Están un poco en ese momento.

Mientras que Google dice, esto irá, yo lo vine metiendo, poquito a poco le iré mejorando, ir, este, abajo hacia arriba, mientras que Apple espera tenerlo mucho más redondo para para meterlo. De todas maneras, Mati, te digo dos cosas si termino con Google. Yo sigo probando Gemin en Gmail y es horrible como asistente, Es fatal. ¿Por sabes por qué? Porque esta es la expectativa que yo tengo con un asistente de inteligencia artificial en mi correo.

Búscame todos los correos que yo no he respondido y que me puedan generar negocios, o sea, leads de dar charlas, conferencias o informes o artículos que a lo que yo estoy facturando ahora. ¿Por qué? Porque si se me ha pasado alguno y, bueno, ya viene el el IVA trimestral, hay que pagarlo, tal, la vida del otro modo es complicada, Matías, pues dame las propuestas comerciales que no he atendido porque ahora tengo tiempo. Pues, ¿sabes lo que hizo el el Gemini integrado en Gmail? Me buscó las palabras lead y business.

Buscó por keywords, pero dije, mirá, hijo, hijo, hijo mío, para buscar por keywords tengo la búsqueda de siempre y ya me tengo que leer los correos. ¿En qué mundo quieres que viva? ¿Quiere que lee los correos? Pero pero, bueno, es que es que estamos en la Edad de Piedra, Matías.

Matías S. Zavia: Yo, es que, claro, tienen esa parte de Google de no atreverse a dar un paso serio hacia delante, pero como contrapunto, dos usos reales que he hecho esta misma semana de Gemini. Primero, yo en mi juventud ni hice un curso de mecanografía ni hice un curso de Excel. Yo las fórmulas del Excel no me las sé, ¿vale? Me sé las

Antonio Ortiz: básicas.

Matías S. Zavia: Sumar toda esta columna. Bueno, pues con Gemini integrado en Spreadsheets, el Excel de Google, no es problema. Le dices lo que quieres tener en esa celda y se busca la fórmula por su cuenta, ¿no? Se lo dices de forma semántica, ¿vale? Ejemplo uno.

Ejemplo dos, la ventana de contexto de JEMY, incluso con estos modelos más avanzados que acaban de liberar. El otro día fui a un un briefing, básicamente, una rueda de prensa, una videollamada, que, de hecho, era justo cuando terminé el crossfit. Entonces, lo hice allí desde el mismo box, ¿vale? Me senté ahí con el portátil, me puso los auriculares y estuve ahí una hora escuchando lo que tenían que decirme. Evidentemente, no presté atención, porque había mucha gente a mi alrededor.

Entonces, cojo la transcripción de toda esa llamada, pero no se la puedo pasar a ChatGPT, porque no tiene suficiente ventana de contexto, no no puede procesar textos tan grandes. En cambio, Gemini lo hizo sin problemas y ya está. No me hizo falta escucharme de nuevo la reunión.

Antonio Ortiz: Hay un caso de uso que claro, que cuando lo puso, creo que fue de malo, lo puso Xandar en en Twitter, que era, oye, por fin el Gemin Experimental en Ey Studio te puede procesar vídeos de YouTube. Le pasas la URL y no se hace la picha y un lío, que era una de las grandes denuncias de este podcast que han sido escuchada, Matías. Y ahora le puedes preguntar, ¿no? Yo le pasé el vídeo Just Life bro, ¿no? Un vídeo importante de de YouTube, y me lo resumió a la perfección, las las manifestaciones de de ese bro a a los otros pros sobre qué podían hacer con la con la vida, que dan unas enseñanzas muy oportunas, y y ya puedo hacerle preguntas, pero, de momento, que nadie lo intente con los vídeos de YouTube de monos y estocásticos, porque hora y media de vídeo ya es demasiado, ¿no?

Y ahí te dice, no, no te flipes, porque procesar una hora y media de de conversación y de chapa de estos dos, pues, ¿cuál? Nos gastamos los euros y, bueno, no no no es para tanto. Bueno, antes de de de cerrar a nuestra última sección, Matte, porque tenemos muchos temas, sí quiero sacar uno que tenemos que tenemos que anticiparlo, porque San Alma ha venido a anticiparnos que tienen un modelo nuevo en la cocina que dicen que es bueno en escritura creativa. Yo estaba esta esta semana en una mesa redonda, yo era el el, digamos, la persona que la moderaba de en el Festival de Cine de de Málaga, era sobre inteligencia artificial y, bueno, mundo audiovisual, también música, imagen y y y cine. Y un director que participaba, Salvador Simón, muy muy amable, muy inteligente, apuntaba que, claro, él él veía que ChatGPT realmente no servía como herramienta creativa porque era plano, era aburrido, era predecible, blablablá.

Bueno, su diagnóstico era completamente correcto, pero claro, luego, al mismo tiempo, me cruzaba con esta manifestación de esa alma que compartía un

Matías S. Zavia: un

Antonio Ortiz: relato escrito por esta guía que todavía no podemos probar. Y, claro, Shangh, como siempre, dice, oh, esto esto no no dijo se siente ágil, ¿no? Pero le faltó diciendo que es la primera que me quedo alucinado por algo escrito por una guía, que es de mi empresa, y porque le pidió un pequeño relato corto metaficcional sobre la inteligencia artificial y el duelo. Yo me lo he leído, Matte. También he visto reacciones.

Mi primera impresión, mi primera impresión es que esto es bueno. Es decir, hay unos destellos de giros y de inteligencia, aunque digamos que en el estilo uno pueda sentir demasiado facilón, un poco, ¿no? Pero es que es alucinante que esto lo haya escrito una máquina. Es que es es tiene uno unos giros de inteligencia y de brillo en algunos momentos que, ¿no? Por ejemplo, le leía a Domingo Gallardo, que es buen amigo y y oyente del podcast, y él decía que también sentía que era una pasada.

Y curiosamente, escuché a a Havoys en Ohura veinticinco que decía algo así como, lo que impresiona no es la calidad del texto, sino que el texto ya esté sometido a crítica, es decir, que sea un texto literario perfectamente homologado y del cual podría decirse que lo escribió un ser humano. La IA, según Havooys, escribirá cada vez mejor, editará cada vez mejor, será más imaginativa cada vez. Bueno, son las predicciones de de The House. Mi punto es, una IA que tenga este nivel de escritura creativa, de momento tenga lentes alucinante, pero claro, lo que sería útil, interesante o más preocupante es que pudiera tener mucha diversidad de estilos. Es decir, aquí vemos un texto solo.

Los millones de textos que puede generarse ella siempre van a ser de esta de este corte con este estilo de escritura, Porque lo que caracteriza a la escritura creativa es su diversidad, ¿no? Y su originalidad. Vamos a ver si eso lo tienen y se puede manejar y orientar a la inteligencia artificial. De todas maneras, Mattí, yo creo que esto puede puede cortar las alas de muchos escritores que, bueno, se meten a ese mundo para hacerse los interesantes y ligar con chicas. Sí, soy un poco bohemio, escritor, mira qué malditismo, tal, tal, tal.

Eso eso puede estar a punto de reventar, y yo mi consejo para ellos es que agarren la guitarra y que vuelvan al al mundo cantautor, que es donde creo que todavía queda un nicho que puede resucitarse y tener un un camino para ellos, Matty.

Matías S. Zavia: Claro, a ver, el problema es que hasta ahora escribir un libro era una cosa que te lleva, pues meses, ¿no? Mínimo de tres, seis meses, te lleva a escribir un libro si estás libre, y si tienes un trabajo, pues un año o más, ¿no? Entonces, ahora que tenemos a nuestro alcance herramientas que nos permiten escribir libros en días, si si es que lo editas, porque luego, a lo mejor, lo publicas tal cual, lo autopublicas en Amazon o se locuelas a alguna editorial. Va a pasar como con los podcast. Todo el mundo tiene un podcast, pues todo el mundo va a tener un libro.

Yo quiero adelantarme a esta tendencia y tener un libro antes de que tener un libro sea como algo común, ¿no? Como, ah, tienes un libro. Ah, vale, tienes un Dacia Sandero, ¿no? Bueno, pues lo mismo. También he también he cambiado mucho de opinión sobre la literatura escrita por ella, porque uno romántico en su juventud podía pensar, ¿no?

La el pulso de lo que es la vida, de lo que es sufrir, de lo que, pues solo lo tiene un humano, ¿no? Pero ¿cuáles son los libros más vendidos de España? Pues, por ejemplo, los de Megan Maxwell, ¿no? Una señora que se llama María del Carmen, realmente. Y siempre los libros son iguales.

Son, pues una mujer que está entre dos hombres, se los folla a los dos y de reelige a uno, ¿no? Pues es lo mismo, siempre es lo mismo y vende un montón de libros, pero yo creo que la guía esto, mínimo a a ese nivel puede escribir. Estoy cambiando de mi modo de ver las cosas.

Antonio Ortiz: Bueno, aquí hay una apuesta, y creo que los oyentes de de Mono Distocástico juzgarán con el tiempo. Es decir, este desarrollo va en contra de los escritores canallitas bohemios, es mi postura, y tú que dices que va en contra de las autoras de best seller de carácter romántico erótico. Por lo tanto, aquí están las las dos apuestas sobre la mesa, veremos, ¿no? Aquí en las predicciones quién tiene razón, yo creo que dentro de un par de años, cuando justo estemos a punto de que nos jubile la IA en el podcast, pues, como colofón del podcast, decimos, bueno, además de jubilarnos, que eso lo acertamos los dos, pues, además, acabó con estos escritores o escritoras, atención. Bueno, no me da tiempo para más, antes de nuestra última sección, y solo un apunte, uno de los ámbitos en los que nos podemos sentir protegidos, Mati, que era el humor, en que la IA era todavía netamente mala, bueno, pues el test de touring de los memes es una cosa que existe, yo no era consciente, no era consciente de que el test de touring de los memes existía, pues nos ha dado unos resultados curiosos, porque la competición, claro, era luego evolución humana, crowdsourcing, ¿no?

A ciegas, como una cata a ciegas de memes, entre tres tres corrientes. Memes solo humanos, meme de humanos con I y memes solo de I a partir de un prom de la misma petición que se había hecho a todos, ¿no? Pues, los resultados, Mati, apuntan a que los memes hechos con Ia ya empiezan a ser mejor que el promedio de los humanos, aunque los mejores memes son los de solo los humanos. Por lo tanto, se está protegido, pero solo la élite del humor, solo, no sé, no sé, la élite del humor, ¿cuál es? ¿Leo Harlin?

¿Bedy Chan en Canal Sur? No sé cuál es la élite del humor, ahora estoy un poco desconectado. Pero, bueno, el el punto es que, ojo, porque la guía también no no está avanzando, está avanzando en el humor y ya nuestros chistes malos de Matti, pues pues mejor es capaz de mejorarlos, quién sabe.

Matías S. Zavia: Sí, yo estoy suscrito a los monólogos que vienen a Málaga, a los monologistas que vienen a Málaga, y creo que el nivel no está tan difícil de superar por la ILA tampoco, Entonces, veo que en este ámbito la ILA tiene cosas que decir también.

Antonio Ortiz: Bueno, bueno, pues nada, la la IA, señor Barragán, se viene y mientras eso sucede o no, Mati, vamos a la sección más importante del podcast, que es Buena grande o enfermería. Bueno, pues, Pedro García en Twitter nos alerta de un fenómeno importante socialmente de impacto y que puede estar cambiando el mundo sin que nos demos cuenta. ¿Qué nos enseña Pedro García a través del tuitero Ben South? Pues Ben South publicó un vídeo en TikTok en el que aparecía viajando acompañado de una chica pelirroja que estaba en todo momento con él en los lugares de viaje. El vídeo tenía cierto carácter bucólico, Matías romántico, evocador, todo eso aparecía en esa reproducción.

Pero el vídeo acababa finalizando con que el amigo Ben estaba diseñando a esa chica en un ordenador. Es decir, todo lo que habíamos visto hasta ese momento eran un vídeo generado con Ia, una parte real de Ben, pues eso, haciéndose selfie por los sitios, cogiendo un tren, y la chica, pues había sido introducida a posteriori, era una mujer que no existía. Esta tren no es solo de de de de un chino random en en Internet. El usuario Álex Defan también estaba usando el Geminé que hemos usado, que hemos comentado, perdón, en en este podcast, para que las fotos que se hace en los sitios, pues, con el simple ton de añádeme una novia a a este muchacho, pues le ponía una chica al lado y, por lo tanto, él ya podía en las redes sociales, igual que Penswell, puede mostrar su éxito sentimental y lanzar al mundo, mirad qué mujer más guapa está al lado mía y me acompaña.

Matías S. Zavia: Por un lado, inquietante, porque hay algunas escenas en las que parece que esta chica es real y le puedes colar al noventa y nueve coma nueve por ciento de la gente que te ve en redes sociales, que esa es realmente tu novia. Y por otro, yo le diría a la gente que anhela tanto tener, pues este tipo de novias, estrellas del pop coreanas, guapísimas, etcétera, o la gente que dice que su objetivo en la vida es viajar porque en Instagram los bombardean de personas que están todo el verano en Menorca, no se sabe exactamente de dónde sacan el dinero, mujeres que misteriosamente van mucho por Dubái, hombres con unos músculos que no se entiende muy bien cómo se puede construir tanta masa muscular, yo diría que cuando llegan a los treinta y cinco, a mí me ha pasado, al cumplir treinta y cinco, desaparece un poco y y toda toda esa especie de envidia y de anhelos se convierte en desidia. Yo el otro día fui al Mojía.

Antonio Ortiz: ¿Ah?

Matías S. Zavia: Y me lo pasé increíble con mi familia. ¿Vale? Son veinte minutos en coche. Si hubiéramos ido a Tailandia, ¿tú crees que yo habría soportado a mi familia durante el vuelo, las escalas, las treinta horas, la estancia allí, una no come carne, la otra no quiere probar nada que no sea pollo con arroz, habría acabado hasta los cojones. Entonces, a lo mejor, esa imagen ideal que construimos porque nos bombardean con ello en redes sociales hijos de ricos, es todo ficticio, y Almojía es la solución.

No hace falta tampoco inventarse una novia virtual.

Antonio Ortiz: Es que tú estabas hablando, Matty, y yo, ¿de qué me suena haber escuchado hace poco Almojía? Me suena mucho, me suena mucho Almojía hace poco, y he hecho una pequeña búsqueda para refrescar mi memoria, y te digo que el Trini, el Raki y el Kenny a prisión por el crimen de Paco de una Almojía. La Otamucia ha revelado que la nación de ochenta y tres años falleció por asfixia mecánica, por lo que se investiga un homicidio. Así que

Matías S. Zavia: esto demuestra Antonio que Almogía tiene tridimensionalidad. Tailandia. Tiene tiene tridimensionalidad, tiene una profundidad, tiene personajes.

Antonio Ortiz: No, no queremos hacer un un suceso fatal, es es horrible, pero bueno. El caso es que Armojía, pues, lo recomendamos, iros a comer la la chanfaina de Armojía, que es una cosa digna de ser probada, y mientras a los chinos que simulan estas chicas que tienen novia, claro, yo venía aquí como diciendo, este tío es un geni, ¿no? Ha resuelto el problema de del incelismo, de la soledad masculina, del desequilibrio en las nivelaciones de la capital erótico entre mujeres y hombres, pero, bueno, tú has dado una carga de profundidad que lo lo manda directamente a la enfermería. Estos chinos deberían irse a Almogía y recuperar el contacto con lo auténtico de la vida. Y te voy a proponer una cosa que, claro, como estás en este punto de de de realismo y de de las cosas de verdad, no sé cómo te vas a tomar de que bioautonomy acaba de reinventar algo que estaba desfasado, Matte, algo que era un secreto a voces que necesitaba una renovación, algo que se había quedado obsoleto en este mundo que vivimos, y ese algo es el árbol.

El árbol no se ha innovado en los árboles en los últimos miles de años, siguen siendo el mismo concepto. Pero, atención, porque ha llegado Biotonomy que ha presentado un proyecto innovador, en el que, atención, a una, un jardín móvil con inteligencia artificial, energía renovable y gestión eficiente del agua. ¿Y todo esto para qué? ¿Para qué quieres el WiFi y la inteligencia artificial en un jardín móvil? Pues porque, además, puede servir como coworking.

Trihub, este proyecto, esa plataforma móvil, pues tiene tiene un montón de de cosas sofisticadas en que, pues ya no tienes un árbol, ¿no? No tienes una una cosa así prosaica, ¿no? De sombras, salen frutos, hay bichos, ¿no? Sino que, claro, tienes la WiFi, la inteligencia artificial y acabas en el concepto de coworking móvil de un jardincillo, y esta es la propuesta de TriHub que quiere conquistar primero Málaga y luego el mundo, Matías.

Matías S. Zavia: Mira, te voy a sorprender, estoy a favor, estoy a favor, a pesar de que esta iniciativa, no sé yo cuánto tienen construido por detrás o si es solo el folleto, no, porque lo que se ve es, pues, una gente teletrabajando debajo de uno de estos nuevos árboles inteligentes que no son realmente árboles, pero está la imagen claramente generada con un modelo antiguo de inteligencia artificial, porque las caras están así como medio difuminadas. Pero estoy a favor por una razón. Yo he cambiado también de opinión sobre los árboles, porque íbamos andando por el barrio de Miraflores en Marbella y habían talado todos los árboles. Y claro, yo como millennial, pues enfurecido, ¿no? Enajenar.

¿Cómo es posible que el ayuntamiento esté talando los árboles tan grandes, tan bonitos en toda esta calle? Y mi suegro, que es una persona más pragmática, me explicó, no, no, es que estos árboles, las raíces habían crecido tanto que habían destruido, pues, todas las tuberías, todas las cañerías, y ahí hay una obra de años para reemplazar todo lo que habían roto los árboles y ya los reemplazarán por árboles que no se acaben apoderando de toda la calle. Entonces, mi punto ahora es, estoy de acuerdo, y planteemos árboles inteligentes de estos en toda la ciudad para que se vea más bonita rollo el aeropuerto de Singapur, mientras alguien altruista conserve los árboles, los árboles de verdad en algún sitio. En el Amazonas, por ejemplo, que siga habiendo árboles en el Amazonas, pero las ciudades podrían llegar a hacerse más bonitas con este tipo de vegetación, ¿no?

Antonio Ortiz: Ya, ya, ya, fíjate, es que yo viendo esto, porque lo lo descubrí en el Transfiere, en el Transfiere de Málaga, un evento anual que este año ha estado super chulo, bien, muchas cosas interesantes, irán apareciendo en el podcast. Claro, yo yo estaba ahí y este proyecto, que, pues, no nos vamos a decir que la directora es Florencia Maciel, la tenemos ahí en en el en el vídeo, El caso es que yo iba todo bien hasta que se me metió la canción de azúcar moreno debajo del olivo. Esta es una canción de de cuando yo era muy chico, ¿no? Que que cantaba un azúcar moreno, que eran estas dos chicas, no sé si tú lo has visto, es que, claro, eres más joven, ¿no? Debajo del olivo, el sol calienta, tus ojos que te miran, no te arrepientas.

Y, claro, yo no puedo asociar a debajo de un árbol el coworking, yo asocio a debajo del árbol otras prácticas. No no no se se me cruzan y, por lo tanto, a mí me cuesta ver el ponerme debajo de un árbol a a a coworkear. Yo lo de coworkear debajo de un árbol no acaba de verlo, así que, bueno, yo le deseo la mejor de las suerte a Florencia. Y por tu discurso vamos a darle puerta grande, aunque yo tengo mi reserva. Y, bueno, creo que ya tenemos tanto tiempo en el podcast que te voy a soltar el último.

Matías era algo inesperado, algo que no sospechábamos, pero una oyente del podcast y buena amiga nos ha pasado la revolución, el sector que va a ser cambiado por la inteligencia artificial que nadie esperaba, que es ni más ni menos que se viene la era dorada del estudio de oposiciones. ¿Cómo se ha conseguido esto? Pues tú tienes el vídeo delante, tú eres el que más ha disfrutado de estas magnas obras, ¿qué se ha hecho con inteligencia artificial para mejorar la vida del opositor, Matías?

Matías S. Zavia: Imagínate el artículo veinticinco y el artículo veintiséis de la Constitución española. Te digo, lételos, apréndetelos, Pues a lo mejor no te cabe en la cabeza, has perdido toda capacidad de concentración por culpa del algoritmo, del scroll, has perdido todo interés por la ley española, conviértelo en una canción con la letra de los artículos o de toda la Constitución española, si quiere, que se te acaba quedando. Me ha pasado, se te acaba pegando. Es una canción tan pegadiza que entra de esta forma, pues es una nueva forma de estudiar, como tú dices, Antonio.

Antonio Ortiz: Claro, la gente ha convertido los artículos de la constitución en canciones con, bueno, esas herramientas generadoras de música que, a la vez, le meten imágenes por detrás de vídeo y acaban publicando TikToks que el usuario, opositándote, ¿no? Está publicando en su cuenta tiktoquera. Yo aquí es que, claro, la culpa, la culpa de que no tengamos mejores expositores es de la industria musical. Esto no se está bajando la la venta de los ojos, Maddie, porque, claro, si Manuel Turizo o Becky G hiciera, claro, canciones sobre, no sé, el procedimiento administrativo, claro, nos irían mucho mejor como sociedad, no solo de canciones de ligar y follar o Te Hecho de Menos, ahora estoy con otro. No, no, no, no, opositándote, arroba, opositándote en TikTok, está dando con las claves que denuncian esta esta situación de los llamados creadores y está a través de la guía haciendo justicia y planteando que los temas principales de la de la de la música de Nuestro Tiempo debían ser la constitución española y la like cream y todo, ¿no?

Entonces, el código penal, ¿no? Todo ese todo ese tipo de cosas, Matthe.

Matías S. Zavia: Pues fíjate, yo imagino que la gente de Tzuno y de Audio y de estas estas alturas ya no se habrá comprado por miles de millones una gran discográfica. ¿Y qué tienen? Pues tienen opositores tiesos españoles, y con el sueño de ser funcionarios públicos memorizándose artículos de la constitución, del código penal, etcétera, etcétera, gracias a su capacidad de convertir cualquier letra en una canción. También también es bonito, de alguna forma.

Antonio Ortiz: Puerta grande absoluta para opositándote, TikTok, yo creo que es un un genio que que estás abriendo una nueva vía para la creatividad. Y mira, yo creo que nos da tiempo a uno uno último. Matías. Movistar Empresas tiene unas vibras inesperadas. Yo me me lo, bueno, vi vi un tuit de el usuario de Twitter, Víctor Sánchez de Real, es una persona, pues, un personaje público, porque ha sido diputado de VOX en el congreso.

Y, bueno, pues está Víctor, ya no ya no está per c en primera línea de la política, pero estaba charlando con la atención comercial de Movistar Empresas. ¿Qué le qué le decía Víctor a a a esta a esta a esta cuenta de WhatsApp que que le hacía, pues, soporte, no? A través del chateo en en la aplicación. Y le pregunta a Víctor, ¿a cuánto asciende el nivel del control del gobierno sobre los contenidos digitales desde que ha tomado el control de Telefónica? Bueno, es una una pregunta, quizás en esa en esa cuestión se entrevé un cierto sesgo, ¿no?

Cierta posición de editor fuerte, ideológica y política del momento, pero lo mejor está en lo que le contesta Movistar Empresas. ¿Qué dice el la la cuenta de Movistar, atención comercial Movistar Style? Primera frase, el nivel de control del gobierno sobre los contenidos digitales ha aumentado significativamente desde que tomó el control de Telefónica. Bumboa. ¿Cómo cómo cómo atención comercial Movistar España le respondió esto a a Víctor?

Que luego, claro, se se vuelve completamente desquiciado en en en la conversación y empieza ahí a y a liarla en Twitter, pues es muy sencillo porque Víctor, estás hablando con un bot, no creo que no te vamos a sorprender mucho a a la audiencia de motos. ¿Y qué les pasa a los bots de atención al cliente? Pues que siempre tienen una doble dicotomía. Una, cuando tú le dices, el gobierno controla los contenidos, tiene digitales de que toma el control de telefónica, esa frase entra dentro del contexto y forma parte de la conversación, y los chatbots y los LLM lo que hacen es completar los textos a partir de lo que tienen como entrada y en sus datos de entrenamiento. Y, además, están muy fantuneados para darte la razón y hacer lo que tú les digas.

Si juntas las dos piezas en que si estaba antes que el gobierno controla los contenidos y además tienden a darte la razón, pues, a lo mejor, atención comercial, Movistar España te reconoce que Murtram fue el que mató a Manolete, porque simplemente, está diseñado, muy diseñado para eso. Y, a lo mejor, podría ser una razón, pienso, claro, aquí ya no está Chevalonzo para arreglarlo, pero, a lo mejor, se podrían pensar el en cuentas oficiales la parte de los chatbots hasta qué punto están preparados para que no pasen estas cosas.

Matías S. Zavia: A lo mejor esta es la misma IA que decide qué IPs hay que bloquear cuando hay fútbol, ¿no? Porque tampoco está saliendo bien eso. Ya no se puede atribuir nada de esto ni a ni a Chema Alonso ni a Payete, pero me alegro de que usen bots porque, ¿quién hay más maltratado en el mundo que los agentes de las operadoras españolas que son insultados día tras día, hora tras hora, de formas tan violentas que esa gente de Facebook que se daba de baja porque no paraba de ver vídeos, que tenía que censurar de gente desmembrada, yo veo gente desmembrada a diario en Twitter y estoy bien. En cambio, yo no podría ser una persona de servicio de atención al cliente de Movistar ni de Justel ni de ninguna otra operadora. Entonces, me alegro de que sea una profesión reemplazada por Walt San Antonio.

Antonio Ortiz: Pues nada, Puerta Grande al chatbot de Movistar Atención Comercial Empresas en España, y con este con este triunfazo de la inteligencia artificial, qué bueno. Empezábamos hablando de que se pinchaba la burbuja, pero el amigo Alberto de Invertia El Español es que no está atento a los fenómenos, Mati, mejorando las oposiciones, mejorando la atención cliente de de Movistar, revolucionando el sector paradísimo de los árboles y dotando de novias virtuales en redes sociales a los ínfser asiáticos. Todas estas ventajas y todos estos avances, ¿no merecen la pena repensar tus posturas, Alberto? Piénsalo.

Matías S. Zavia: Piénsalo, Alberto, te invitamos a seguir en bonos estocásticos la semana que viene.

Antonio Ortiz: Chao, amics.

Episodios recientes

Programas relacionados