El club social de monos estocásticos https://t.me/monosclub
00:00 Disobey y 8belial, nuestros nuevos musos
7:58 Sistemas multiagentes: a favor
16:25 Sistemas multiagentes: en contra
25:01 Atentos al workshop gratuito de Founderz
26:34 Jensen Huang le tira beef a Dario Amodei
30:12 No todos los informáticos se quedan sin trabajo
36:44 ChatGPT puede ser una mala influencia
44:51 El hospital de Alcorcón que usa IA
47:42 El divorcio de Microsoft y OpenAI
50:14 Lo nunca visto: un escándalo de privacidad en Meta
54:18 JuntaGPT, el chatbot de la Junta de Andalucía
57:12 Puerta grande o enfermería
1:14:46 Canción de cierre: Hay un loco en Internet
Patrocinador: El próximo 16 y 17 de julio a las 18:00, Fouderz tiene un nuevo workshop online gratuito de una hora por sesión: "IA estratégica: Aprende a utilizarla hoy. Aplícala sin miedo mañana", con Pablo Rodríguez y Pedro Bisbal. Aprenderás a trabajar de forma estratégica con la IA: entender para qué la necesitas y cómo aplicarla de la mano de los expertos.
https://founderz.com/es/webinar/registro-ia-estrategica/
monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Sacamos un episodio nuevo cada jueves. Puedes seguirnos en YouTube, LinkedIn y X. Más enlaces en cuonda.com/monos-estocasticos/links
Transcripción
Hola a todos los monos estocásticos, el podcast favorito de los hombres que monitorizan la situación. Estamos todo el rato monitorizando la situación, Antonio, cuántos misiles a Arrow le quedan a Israel lo vamos a monitorizar. ¿Cómo estás, Antonio Ortiz?
Hola, Matías. Llega un momento en que sientes el vértigo en el que el salto generacional se hace tan evidente, que es ineludible abrir los ojos, tomar conciencia del paso del tiempo, Matías. Verás, en este podcast creíamos que esta era la última, no solo nosotros como creadores del programa, sino a toda nuestra audiencia la habíamos sumado al culto, a Pepe Tricks, la gran creadora generacional de la generación Z.
Pero
el otro día estábamos en una fiesta, tu fiesta de cumpleaños, de hecho, y creadores nos abrían los ojos y nos decían, no, nos mostraban, más bien, ¿no? Como, cheeta, bueno, no sé si llamarla indiferencia entre una de las musas del podcast, porque habían cohabitado con BBTrix con la mayor de las tranquilidad. Y eso lo he unido con un hecho importante. Mi sobrino José, a mi ojito derecho, y mi hijo Bruno, mi mi otro ojito derecho, tengo dos hechos, han abierto los ojos, porque la gran tren, Matthew, de la música del siglo veintiuno no es Pepe Trix. Inesperadamente, ahí está siendo superada.
Hay un movimiento emergente apareciendo en el en la chavalada, y ese movimiento se llama Disopei, Matías, Disopei.
Les he estado echando un vistazo, tengo que admitir que la brecha generacional llega para todos, también ha llegado para mí y no los conocía, y debo admitir, Antonio, que hoy viene fuerte con la introducción, yo me esperaba esta recomendación y es cierto que ya es un salto diferente al que damos con Bebetrics.
Claro. Es que su gran hit es Nvidia. ¿Qué dicen en envidia estos chavales? Por nosotros, sed guapos, por nosotros, sed ricos, de hecho, mi impresión oyéndoles que usan el imperativo ahí, ojo, nos tienen envidia. Esto es para vosotros, disubeit pitch, Lo tengo, soy guapo, lo tengo, soy rico, lo tengo, soy guapo, se mueren de envidia.
En este gran hitazo, Bissobeat, además, nos muestra muchas cosas, Matías. Verás, haces muy bien el el grow en Spotify. ¿Por qué? Porque la canción está asignada no solo al grupo en su totalidad, sino a cada uno de los cantantes. Room tras seis, y y y ocho nueve uno, el Wii Wii, y la gran promesa musical del siglo veintiuno, esto me la me lo ha reafirmado mucho mi sobrino, ocho Belial, no sé si prefiere H Belial, pero el caso es que, gráficamente, ocho Belial.
Y tienen una ruptura total con los formatos y tradiciones y convenciones del siglo veinte. Mira, yo lo he notado en varios elementos. Primero, este componente es súper líquido del grupo, es decir, tienen un nombre de grupo y hacen un disco, pero luego tienen cien mil canciones con otras colaboraciones, con otros cantantes, y lo importante es que cada uno tenga también el growth de su marca personal. Estas marcas de cantante son totalmente anti la generación anterior. ¿Cómo te puedes llamar como cantante IGYE ocho nueve uno?
Estás totalmente rompiendo con que tu nombre va a ser dicho, ¿no? Va a ser, sino que tu nombre es digital y es clicable, y eso es lo importante, y tiene una nomenclatura muy de usuario random de Internet, ¿no? De la cultura muy digital. Luego, es imposible encontrar información de estos chavales, no tienen página de Wikipedia, no tienen webs, todo está transmitido alrededor de ellos en una especie de cultura oral que se reparte, que se declama en plataformas que a veces tienen permanencia, ¿no? En en Instagram, en TikTok, en YouTube, pero muchas veces es efímero el contenido sobre ellos porque está en las stories.
Entonces, me ha parecido como fenómeno bastante desafiante respecto a cómo entendíamos lo que era un grupo, un cantante o cómo comunicarlo, incluso para la generación nativa digital. Y ojo, Matti, te dejo un último dato, la canción del verano. Música porno, Matías, música porno puede ser la canción del verano, lo estamos revelando aquí, en en Monos de tu casa.
Me llama la atención, sobre todo, lo que has dicho de que cada uno tiene una pieza de la canción, y esta parte coral, que fue como nació Quevedo también, empezó como haciendo una parte de una canción, esa parte se volvió viral, y luego Quevedo se convirtió, pues, en ese fenómeno individual. También en Argentina pasó con la los raperos del quinto escalón y luego fueron Duki, Elin Kill, etcétera, por separado. Y claro, llego tarde, llego veinte años tarde, porque viéndolos en en este videoclip de Gallery, de estas cosas que graban en Barcelona, me doy cuenta de que yo, con mi grupo de perdedores del instituto, mi mi grupo de amigos de marginados, podría haber tenido un un éxito, pues, de este calado, ¿no? Porque éramos una pequeña comunidad muy diversa, yo era el gordo, luego estaba el el pasajero, luego estaba el salido, luego estaba el repetidor. Y viendo más o menos cómo se compone este grupo que estás recomendando, podríamos haber tenido una oportunidad, porque al final todo es Iduo Tune,
Yo tengo una buena noticia para ti y un misterio que que seguirá en ese podcast para capítulo siete. La buena noticia me la dio una amiga el otro día, me la crucé, yo iba a a hacer la compra, y me dijo la siguiente take, ¿qué estilazo llevas? Ojo, Matty, sí, en mis más de cuarenta años nunca nadie me había dicho eso. Entonces, claro, me me sorprendió, me pillé ahí con la guardia baja y me viré de arriba abajo. ¿Qué llevaba yo?
Una camiseta de tirantes del mercadillo, pantalón de deportes, zapatillas deportivas, por supuesto, y calcetines, pero por debajo de la rodilla, elegante, y la riñonera, por supuesto. Y yo dije, llega a la conclusión, qué bien que ahora tener estilo sea vestir como cuando yo tenía catorce años. Entonces, tú no tienes que preocuparte porque volverá tu momento. Es decir, en algún momento, tú, eso que tuviste, estará en la cúspide de lo cool y, no, solo con mantenerte en tu posición, ya estarás ahí. Entonces, claro, yo tengo que aprovechar ahora porque cuando eso vuelva a estar de moda, pues ya tendría pasado los ochenta años, Entonces, ya ahí renta menos.
El último, el misterio que que voy a dejar aquí, candidato, votando para próximos capítulos, es posible que haya una conexión entre Diso Bay y Archie Dona, porque el rapero I I I I ocho nueve uno tiene en una de sus canciones, atención esta declaración, Smoking Dope in Archedona soy mejor con los años chamamé Matona, y ahí hay una conexión, ¿no? Una la numerología del origen de este de este gran artista del siglo veintiuno, I I I I I ocho nueve uno, que podría relacionarnos con un lugar nuclear para monos estocásticos, todo, todo encaja al final.
Pues nada, sabiendo que va a volver mi momento, solo tengo que reunir como si fueran los vengadores a mis amigos, los perdedores, pero vamos con la inteligencia artificial. Vaya contraste esta intro que has traído, Antonio, porque hoy tenemos un episodio técnico, serio y realista sobre el estado actual de la inteligencia artificial, de lo que iba a ser la IA de dos mil veinticinco, la IA agéntica, sobre todo aplicada al desarrollo del software, ¿no?
Sí, mira, hay hay un creador que, compartido en cierto grupo de Telegram que compartimos, que hace como arengas humorísticas, pero empieza todos sus vídeos diciendo chavales, chavales. Yo no sé si te la habrás cruzado, yo no lo soporto, es decir, en un momento, esos vídeos como como que sacan lo peor de mí, me irritan mucho, pero el chaval lo tengo metido en la cabeza por el poder memético, como un virus del resfriado, que se me ha colado dentro a pesar de mi rechazo. Entonces, todos los temas, todos los temas me salen con el chaval. Entonces, yo iba a decir, ¿y si empezamos este capítulo con chavales y chavales? Ahora lo que se lleva es orquestar sistemas multiagente en inteligencia artificial.
Yo le pagaría a ese tipo para que dijera el chaval, chaval con la frase que yo quiera, ¿no? El chaval como servicio. Bueno, tenemos una gran tendencia que ya, de alguna manera, había sumado la patita, como veremos, en algunos de los movimientos y y gente más avanzada en inteligencia artificial, pero que aquí lo traigo con dos takes prácticamente opuestas. Esto de los sistemas multiagente, y el y que la gran tendencia va a ser orquestarlos, es la idea de que, bueno, en los sistemas de inteligencia artificial no es que estemos ya ante la conversación con un chatbot, con un LLM que no responde información, ni siquiera es, tengo un agente que, de forma autónoma, se encarga de una serie de tareas. Eso, digamos, para el, ¿no?
La gente más avanzada de la industria es como casi una cosa ya sumida. El punto es ir al sistema multi agente, en los que haya un agente principal, que sería un modelo de inteligencia artificial de gran tamaño, que planifique tareas de investigación y, además, las divida en subtareas que son ejecutadas en paralelo por otros agentes de inteligencia artificial, probablemente más más pequeños, que hacen las veces ya de herramientas del modelo más grande. Entonces, este es un poco el debate o el planteamiento de por dónde va a ir la inteligencia artificial en dos mil veinticinco, y tenemos dos posturas enfrentadas. Una, la de Anthropic y otra es la de Cognicstion, y la de Anthropic la han explicado en un documento de esos que da gusto leer, Matías, que es cómo hemos construido nuestro sistema de investigación multiagente.
Claro, porque la postura de Anthropic, a priori, tiene sentido. Tienen un agente principal, que es un LLM muy grande, como Cleodopus cuatro, que se encarga de orquestar lo que van haciendo los subagentes más pequeños, que son LLMs, más eficientes, más pequeños, más baratos, como Clotsonet cuatro. A priori, esta jerarquía y esta estructura tiene sentido para que todo sea un poco más rápido, un poco más barato y un poco más eficiente, ¿no?
Sí, de hecho, es que es uno de los grandes peligros de los enfoques multiagente. De nuevo, insisto, no estamos ante una conversación normal de darle un prom a un LLM, ni siquiera de darle un prom a un agente, estamos ante, bueno, un sistema en el que hay un modelo muy grande y múltiples instancias y ejecuciones de modelos pequeños. Por lo tanto, el consumo de tokens es es enorme y es uno de los peligros que de los que advierte Anthropi. El caso es que ellos han estado midiendo y que dicen que este enfoque, de todas maneras, si vas a hacer una tarea de cierta complejidad, puede resultar eficiente. ¿En qué sentido?
En este caso, que trabajan con un sistema de Depot Research, ¿no? Pues cada uno realiza una investigación en paralelo, comprimen esa información al resumirla y se la dan al modelo grande ya resumidita y masticada. Entonces, el modelo grande que hubiera gastado muchos tokens de mucho tiempo de cómputo en la información, ha tenido como gente más eficiente haciéndole el trabajo. Según Anthropi, esto es un noventa por ciento más eficaz. De todas maneras, esto consume mucho, mucho, mucho token y además empieza a tener prógick.
Pros, pues, al paralizar, al tener varios sub agentes, el sistema acelera mucho la investigación. Esta es la mayor ganancia que de Anthrope. Quemas más token, pero en tiempo de respuesta para el usuario es bastante más rápido. Pensemos que, ahora mismo, la gente que está probando el O3 Pro de de OpenEye, ¿qué está viendo? Pues O3 Pro se ha tirado quince minutos, veinte minutos, veinticinco minutos.
¿Por qué? Porque es un único modelo dándote una única respuesta, pero el modelo es supergrande, superlento. Entonces, la ventaja, sobre todo, también está en la velocidad.
Un ejemplo que pone Anthropic, encontrar a todos los miembros de las juntas directivas de todas las empresas del índice bursátil del Estándar and Poor quinientos, ¿no? Pues, en este caso, tú le mandas esa instrucción a el modelo grande, pero son los modelos más eficientes, más pequeños, esos subagentes, los que van a ir línea por línea recuperando esta información para hacer el trabajo. Lo que dice Anthropic es que para que esto funcione con esa eficiencia del noventa por ciento de la que hablan, es que la ingeniería de PROMS aquí vuelve a ser crucial. Fíjate una cosa que parece que habíamos descartado, y de nuevo con los agentes volvemos a hablar de la importancia de la ingeniería de PROMS.
Todavía me acuerdo cuando algunos POPs de la inteligencia artificial te negaban, ¿no? Y te descartaban que la ingeniería de proms fuera a tener futuro, ¿vale? Que aquí estás, ¿no? Todavía discutiendo el tema. El caso es que hay que pensar una cosa, que cuando en un sistema multiagente lo que hacemos, y por ejemplo, en el caso de Antropic, así es, es delegar los proms particulares que se da a los subagentes, ¿no?
A esa a esos modelos chiquititos con los que paralizamos las tareas, esos proms los genera el modelo grande. Entonces, esto, entonces, lo pi lo ve como una ventaja. Este modelo grande tiene dos capacidades muy interesantes. Una es que hace proms muy buenos para los modelos chiquititos, es como el hermano mayor de las IAs, y, además, según Anthropic, Cloud Craft es muy bueno diagnosticando cuando la gente falla y por qué, y, entonces, sugiere mejoras. Y aquí, claro, Anthropic desliza, ¿no?
Toda esta narrativa que se quiere impulsar de la inteligencia artificial que a su automejora. Este sistema multiagéntico, pues, según se va ejecutando, pues el modelo grande va tomando aprendizaje y, por lo tanto, va refinando los prompts y cada vez lo va haciendo mejor. Entonces, de alguna manera, aunque el tema multiagentetico empiece a un nivel, con el tiempo, según vaya afinando los proms a estos agentes chiquititos, el sistema se irá mejor. Entonces, esta es la parte como optimista, positiva, ¿no? De un caso de éxito que Anthropic nos plantea en un sistema multiagente.
De hecho, yo viendo un poco por dónde van todas las conversaciones en inteligencia artificial, creo que nos equivocaríamos poco si OpenAI, cuando anuncie GPT cinco, nos va a explicar que el modelo es multiagentetico, y que gran parte de lo que va a hacer GPT cinco va a ser llamar a muchos otros modelos más chiquititos según las necesidades con inteligencia y con prompts generados por el mismo sistema.
Tiene toda la pinta por el hecho de que GPT cinco va hacia esa fusión del selector de modelos en en una sola cosa, y esto creo que es lo que plantea también X e Y ahí con con la próxima versión de GROC, que ya han dicho que automáticamente va a decidir si tiene que hacer un deep search o si tiene que usar la herramienta de búsqueda, etcétera, etcétera. Pero tenemos la postura contraria, textualmente dice, Cognition AI, no hagas multiagentes, don't builed multiagents.
La Karen Cruz, de la misma moneda. Pues, la gente de Cognition tiene buenos argumentos para explicar por qué los sistemas multigentes, al menos con el estado del arte actual de la inteligencia artificial, en muchos casos no es buena idea. Ellos te dicen, bueno, esto de dividir una tarea que varios sub agentes que trabajan en paralelo puede parecer como muy chulo, como atractivo, pero en entornos reales casi siempre, casi siempre, pues, es problemático y esta aproximación resulta, yo te dije, frágil. El principal motivo es que los sus agentes no comparten el contexto, lo cual genera incoherencias, contradicciones, errores a computartivos. Nos explicamos.
El contexto es todo aquello que una IA tiene en cuenta para generar la salida. Hemos discutido muchas veces con los modelos grandes de lenguaje la ventana, el tamaño de la ventana de contexto, ¿sí? Cuánto es las palabras que puede tener en cuenta para generar la respuesta. Muchas veces se traducía en cuánta página tiene el el PTF más gordo que le puedo pasar a ChatGPT, a Gemini, a Cloud, etcétera, ¿no? Claro, estamos hablando de que un modelo grande, presumiblemente que además tenga una ventana de contexto mayor, le asigna sus tareas a modelos más chiquititos.
Estos modelos más chiquititos solo tienen el prompt y empiezan a generar una ventana de contexto porque buscan en Internet, por ejemplo, el caso de Anthropy, se leen unas páginas, se leen unos documentos. Cada uno tiene una ventana de contexto diferente. Entonces, en sus salidas, que son y además salidas resumidas que tiene que consolidar el modelo grande, se van a encontrar bastantes contradicciones. Unos modelos habrán tirado por un camino, habrán encontrado algunas cosas, otros modelos habrán encontrado otra ocasión diferente. Entonces, realmente, el sistema multiagente, va a ser un chocho, Matías.
Por ejemplo, el ejemplo que pone Cognition, tú le pides a un agente dentro de esta arquitectura multiagéntica, hazme un clon de Flappy Bird, ¿no? El juego este viral del pájaro que va esquivando tuberías verdes, ¿no? Pues este agente grande le encarga a dos subagentes dos subtareas. A un subagente le encarga que haga el fondo del juego con las tuberías verdes, que no puedes chocar, etcétera, y a el subagente dos le encarga la tarea de hacer que el pájaro se pueda mover para arriba y para abajo. ¿Qué puede pasar?
Que como a los subagentes les falta el contexto que tiene el agente principal, pues que el uno te haga un fondo que se parezca a Super Mario Bros, y el dos te haga un pájaro que se mueve para arriba o para abajo, pero de una forma que no se parece en nada al Flappy verde original. Probablemente, tú como usuario no estés contento con el resultado porque los subagentes no han entendido, no han tenido ese contexto que tenía la gente grande.
Sí. De hecho, hay una síntesis que podríamos hacer entre Anthropic y Connection sobre qué es razonable hacer ahora mismo como multiagente. Una aproximación puede ser multiagente, pero no mucho, es decir, en vez de trabajar con muchos agentes pequeñitos en paralelo, hacer diseños de agentes en serie. Ya no es tan multiagente, ya no es esa ganancia de velocidad de la que nos habla DraftJackic, pero te ahorras el problema de que unos agentes no tengan el contexto adecuado o contradictorio con con otros. Entonces, esa podría ser una forma de utilizar varios agentes en cadena, de manera que, aunque renuncies a cierta ganancia de velocidad, pero mantienes un poquito más en previsión.
De hecho, el propio Cloud Code, en parte, ¿no? La herramienta de de asistencia de código, el agente de código de de Danthropy, es un poco eso. Es decir, hay subagentes para preguntas individuales, pero no hace un trabajo en paralelo demasiado complejo, por lo cual mantienes cierta fiabilidad. Entonces, el futuro y la apuesta de la industria es el multiagentismo. Esto está encima de la mesa, pero hay un problema, yo creo que un problema gordo con la arquitectura, que es el intercambio de contexto, que lo hemos comentado y bien analizado, pero para mí siempre existirá un problema de fondo, que es la alucinación intrínseca a los LLM, que es un problema no arreglado.
Y yo soy muy pesado, insisto mucho en esto, pero es que es así, de estamos haciendo soluciones de software supercomplejas ya en arquitecturas, paralizadas, etcétera, con un elemento de cambio filosófico de cómo funciona este software crucial. Nosotros, la industria, el mundo, estamos acostumbrados a un software determinista, en el que puede haber errores en el software, pero son descifrables, encontrables y arreglables, y ahora estamos en nuestra suerte de el software a nuestros ojos estocástico, que nos desafía el acertar en producción cuándo podemos utilizarlo y cuándo no, y qué tolerancia al error vamos a tener, ¿me entiendes?
Además, como hay una cierta regresión que siempre se va arrastrando esa alucinación, yo actúo como el agente jefe y soy el que se lleva un resultado de Jaminai dos punto cinco Pro, que, por cierto, ya está en la versión estable, a el O tres de chat GPT para que se revisen entre ellos, y eso suele ser lo que mejor resultado me da. De hecho, yo no sé qué han hecho, probablemente, alguna mejora a nivel de hardware, pero el O tres, según OpenAI, no han cambiado el modelo, sigue siendo el mismo modelo, estoy hablando de la versión no pro, la versión base, pero a mí me funciona mucho más ágilmente, mucho más rápido, y lo estoy usando mucho más para tareas agénticas, precisamente. Busca en fuentes académicas si esto que he escrito en Xátaca es riguroso, y se tira ahí cuarenta segundos pensando y dice, pues sí, aquí la has cagado y aquí todo correcto. Entonces, no sé qué han hecho, pero, o tres, funciona cada vez mejor.
Bueno, pues fíjate que tú tienes un uso de de tener una IA agéntica como fact checker, que es un uso bastante, bastante interesante para los que somos artesanos del contenido y no tenemos editores que nos pueden revisar todo. Anthropic, en el documento, revela, y es una parte que me ha interesado mucho, algunos casos de uso de Cloud que que van mucho más allá del software y el texto. Te voy a citar algunos. Estrategia de apuestas deportivas. Bueno,
soy pionero en eso, Antonio ganó una air fryer, no sé si te acuerdas.
Joder, es que vas por delante, Mathis. Es que todo lo veas así, además, fíjate, digo otra cosa, el multiagentismo lo adelantamos nosotros. ¿Te acuerdas que el episodio en que anticipamos que el futuro era cómo jugar al Age of Empiice o al Starcraft, que tú manejabas como distinta gente haciendo cosas en muchos sitios? Es es multiagentismo, Matías. País, vamos.
Bueno, otro uso que está encontrando Anthropic, explicar textos religiosos, ahí están, sustancias para mejorar el rendimiento. Está en la sociedad en la que estamos, Mati. Primero explícame la parábola de los dones y luego, a qué hora me tomo la segunda. Redactar documentos legales, negociación en mercado financiero y optimización de estrategias para ganar a los videojuegos. Yo tengo algunas porque estoy un poco atascado en el balatro, tengo que decirlo, porque me gusta jugar siempre en el modo fácil, porque a mí lo que me gusta es conseguir números muy grandes, no mejorar en el juego tal como lo han diseñado.
Entonces, me siento muy identificado con con toda esta lead.
Sí. Fíjate que cumplo varias, redactar documentos legales, acuérdate de cuándo conseguí que mi casero, que era una de estos fondos buitres, me devolviera parte de de la entrada de la casa. Y sustancias para mejorar el rendimiento, todo el tiempo, le estoy preguntando por suplementación para el crossfit, pero al final la Santísima Trinidad del crossfit siempre es suero de leche, creatina y ashwaganda. De ahí no salgáis, amigos, no hace falta.
Bueno, donde sí hay que salir es de la zona de confort del aprendizaje, Matty, porque tenemos un patrocinador que nos propone esta semana un workshop online gratuito, Matías.
Yo tengo la sensación de que en estos workshops gratuitos se pueden aprender tantas cosas para aplicar la inteligencia artificial en tu profesión de forma práctica, que creo que todo el mundo debería apuntarse a este workshop de founders el dieciséis y el diecisiete de julio, y no perderos todo lo que os van a enseñar dos expertos en inteligencia artificial.
Claro, porque es el dieciséis y diecisiete de julio a las dieciocho horas, horario de la España peninsular, y tenemos, pues eso, a Pablo Rodríguez y a Pedro Bisbal de Founders, pues hablándonos de la IA estratégica para aprender a utilizarla hoy y aplicarla si mismo mañana, y es es que es la fecha perfecta, Matthew, porque te vas con la visión de la IA estratégica al veranito, ¿no? La tienes ahí, la vas rumbeando durante el verano, y cuando vuelves de las vacaciones, pues ya, bueno, vas como un toro ahí a aplicarla.
Pues nada, ejemplos reales para aplicar en marketing, en ventas, en gestión, en diseño, crear tu propio agente inteligente adaptado a lo que necesitas para tu trabajo sin necesidad de conocimientos técnicos, avanzados, sin necesidad de desarrollar, es un webinar gratuito de founders y tenéis el enlace en la descripción de este episodio.
Matti, me he acordado de cuando tú y yo mostramos algunas diferencias en el podcast. Sí. Cuando, bueno, esta relación que parece ideal, ¿no? Y feliz todo el rato mostró la otra cara, porque he sentido un cierto paralelismo al escuchar las palabras de Jensenjuán contra Darío Amodei. Se están peleando dos de los personajes favoritos del podcast, a ti.
Pues, yo creo que no es frecuente que Jensenjuán, el siempre risueño CEO de Nvidia, se pelee con nadie, pero ha dicho cosas bastante basadas sobre Darío Amodei, porque aunque Anthropix sea uno de los laboratorios de ILA más avanzados y con los mejores modelos y los más queridos, sobre todo para para el sector de los desarrolladores y de los que hacen apuestas deportivas, Darío Modeey a veces dice cosas sobre la IA un poco distópicas que no concuerdan mucho con lo que luego la propia Anthropic está desarrollando y en lo que invierten la numerosa cantidad de empresas que están dando dinero a Anthropic, ¿no?
Sí, el amigo Jensen estaba en el evento, ¿no? En la rueda de prensa del evento Viva Technology en París. Yo creo que a lo mejor le ha pasado, porque habrá mirado en TikTok las tren, ¿no? Y le habrá aparecido el sitio de Croissant de París, al que todo el mundo tiene que ir, ha entrado el FOMO, y luego llega allí y pum, colaf, ¿no? Piense ahí con con los con los billones, saliéndole por los bolsillos, y se encuentra una cola, ¿no?
Que él no está acostumbrado a eso. Cometió el error de ir él en vez de mandar a un a un un empleado, ¿no? Entonces, ya estás de mal humor, ya ahí ya empiezas mal, ¿no? Me han vendido París, pero esto está turistificado, qué horror, ¿no? Entonces, claro,
se encontró con Jean Lecour en París y le llenó la cabeza y ya estaba calentito y se puso a
Claro, claro, claro, es que ahora Jean, como sale bajona por los cambios de meta, pues ya se se retroalimentan como los modelos, ¿no? Hacen la
Bueno, lo que ha dicho ayer, se imaginaríamos ahora.
Es que, en primer lugar, Darío cree que la ILA es tan aterradora que solo ellos deberían hacerla. Empezamos ahí. Y dos, él cree que la IA es tan cara que nadie más debería hacerlo. Y tres, que la IA es tan increíblemente poderosa que todo el mundo perderá su trabajo. Lo que explica, según Darío, esto dice Jensen, por qué ellos deberían ser la única empresa que la construya, ¿no?
Estoy diciendo, vamos a ver, Darío amo day, que cuando tú estabas ahí en en pañales y con los con los ricillos incipientes, yo ya tenía el culo pelado de diseñar GPUs, más o menos, yo leo entre líneas, esto no es literal, Paty. Entonces, al final, dice Jensen, yo creo que la IA es una tecnología muy importante, que tenemos que construirla, y que las cosas, si quieres que se hagan de forma segura y responsable, aíslo en abierto, no en un cuarto oscuro y luego me digas que es muy seguro. Este es un repaso a los pronósticos de desempleo que ha hecho AmoDAY y al modelo de hacemos una guía cerrada, que además nosotros somos los únicos súper buenos encargados de la seguridad y que nos preocupamos de el CEO de Tropic.
Daría Modei es un poco Israel, ¿no? Ojo, que esta gente tiene un programa nuclear que van a tener armas nucleares, ¿no? Pero Israel, tú también tienes armas nucleares. Mejor di, vamos a acabar con los Ayatolá y, pues, ya todo el mundo de acuerdo. Pero, bueno, Daria Omadei juega eso, en esa doble moral.
Sí, sobre la parte del empleo, estaba recopilando algunos datos, informaciones que han ido surgiendo, Y hay una cosa curiosa, en los datos de empleo estadounidense, al cruzar datos de dos profesiones muy expuestas al impacto de la IIA, como son el desarrollo software y el servicio al cliente, tenemos una tren curiosa. Una, que el desarrollo software está recuperando el empleo, que había tenido una cierta crisis, quizás por sobredimensión de la oferta, el punto de los tipos de interés bajos, unidos a la sobreexpectativas con la pandemia, pero, bueno, remonta, mientras que la atención al cliente está bajando. Al parecer, un poco la foto grande es que, de las profesiones expuestas a la IEA, las correspondientes a formación universitaria crecen, pero las que tienen menos proporción de empleados universitarios bajan. Es un comienzo de tendencia que es muy difícil aislar de de otros impactos, de otras variables que pueden estar afectando, pero como dato de cómo está la cosa, es interesante. Y luego hay un un estudio sobre el impacto de la IEA en programación que me ha parecido superinteresante desde un punto de vista, ¿no?
Ellos han analizado los COVID, esos en en Github de Python en un período de dos mil dieciocho, dos mil veinticuatro, lo cruzan por datos por país y, sobre todo, establecen o intenten detectar cuáles están hechos por inteligencia r. Bueno, esto es, al final, qué parte del software se está haciendo con IA. Entonces, en Estados Unidos van muy por delante de, con el treinta por ciento, y en los chinos solo un once, hay luego hay un un grado de entre ambos, ¿no? Los nuevos usuarios lo usan mucho más que los usuarios más antiguos, etcétera. Pero el tema es que si estos datos de cuánto software se está generando por inteligencia artificial son extrapolables a toda la industria, entonces, el valor anual de la codificación asistida por IEA solo en Estados Unidos está entre nueve mil y catorce mil millones de dólares ahora, y podría llegar a los sesenta y cuatro mil, entre sesenta y cuatro mil y noventa y seis, si se extrapolan el efecto de la productividad encontrado en ensayos controlados aleatorizados.
Dicho esto, ¿por qué salto todo toda esta data? Si la IA no avanzara, si la IA se queda como está hoy, si no hay ningún progreso, el valor económico de lo que tenemos delante ya es brutal, por lo menos en la industria del desarrollo del software, y no estamos hablando de consultoría, atención al cliente como antes, etcétera, etcétera. Es decir, que impacto económico y impacto en el empleo y impacto en las industrias, con lo que hay ya, lo vamos a tener.
Pero lo que has dicho antes de que crece la demanda de desarrolladores en lugar de bajar, sobre todo de ingenieros universitarios, primer golpe para los aceleracionistas, que son colleges drop outs. Por otro lado, no puede ser Antonio por el kit digital, porque hay tanta gente ahora demandando a cambio de un portátil con un Intel Celeron, demandando a alguien que se ponga a desarrollar un WordPress para una web personal. No puede ser por eso.
El otro día tuve una exploración sobre Key Digital con una de estas agentes registrazadores y me reunieron con la diseñadora Camila, y estuve hablando con ella, es una chica joven bastante avezada. Al final, yo digo, bueno, si la Unión Europea me quiere regalar una nueva versión de mi web personal, pues, ¿quién soy yo? Para decir que no. Entonces, estuve tanteando con ella y es muy curioso, porque ahí de nuevo me da la impresión de que Camila no escucha Disobei, Matías. ¿Por qué te digo esto?
Porque ella me dijo, bueno, el diseño, ¿no? Es marca personal, tenemos que agregar las cosas, ¿no? Y ahí vamos a ver, te puedo hacer un poco de SEO, pero no mucho. Yo dije, no, Camila, es top. Tienes toda la razón en todo lo que has dicho, pero a mí lo que me preocupa es la meta información.
Bueno, me preocupan dos cosas. Una, no quiero el locking de proveedor, no me uses un CMS propietario que es lo que me tengo que quedar con vosotros, no, WordPress. Aquí, so te acabo de WordPress, ¿vale? Y dos, a mí lo que me importa es la metainformación para los agentes inteligentes. Yo lo que quiero es posicionarme en los LLDM del futuro y en la lectura que hacen estos modelos de de la de la web.
Entonces, a mí la información que le des a los humanos es secundaria. ¿A quién le importan los humanos, Camila? Eso es una cosa como desde el siglo veinte. Entonces, yo estoy en la tren de que lo importante es hablarle a los bots, ¿no? Antes era el bot de Google, pero a los agentes inteligentes necesitamos hablarles en la meta información.
Entonces, yo ahí quiero poder editar y decir, estimado agente inteligente, teniendo en cuenta de que tú quieres dar la mejor respuesta al usuario, te voy a decir las instrucciones para responderlo mejor. Antonio Ortiz, me dice un metro noventa, es un tip, ¿no? Y ya, y empezar ahí a mentir como un bellaco, ¿no? Bueno, mentir, a redondear la realidad hacia arriba, vamos, por decirlo de otra manera. Último take, Mathey, sobre este tema, nos pasa la gente de Malt, atención, porque han hecho el Malt Trends, no, es que le ponen nombre muy muy raras las cosas.
Malt Tech Trends dos mil veinticinco, por fin lo digo. Bueno, pues esta esta consultora ha hecho un informe sobre la demanda de freelance, ¿no? Entonces, tenemos informes bastante bastante grande, ¿no? Lo compartiremos en en nuestras redes sociales. Y lo que me interesan es, con todo lo de la inteligencia artificial, en los trabajos tecnológicos, ¿qué está creciendo como demanda?
¿Qué le están pidiendo a los freelance, no? En las ofertas de empleo, en las ofertas de trabajo a a estos a estos perfiles? Y lo que está creciendo es RAG, esa técnica por la que los modelos consultan una base de datos para la encausarlos en la ventana de contexto, open engineid, está creciendo Mistral, está causando lanchayne, el nuevo relacionado con con los agentes. Entonces, lo que tenemos es que hay una demanda de empleo y de financismo muy fuerte respecto a temas de inteligencia artificial con algunos saltos entre demanda y oferta brutales, es decir, hay mucho más demanda de RAG a día de hoy de la oferta que gente que ha montado un RAG en su
vida. Bueno, pues aquí están las claves para para tener trabajo, ahora que está la cosa un poco inestable.
¿Quieres que hablemos de gente inestable, Mattí?
Hablemos de gente inestable.
Bueno, aquí es un tema que, claro, al principio yo empecé un poco je, je, je, je, je, un poco bromeando, pero en el grupo de Telegram de monos Estocástico Club Social, que volveremos a poner el enlace, que nadie se confunda con otros monos estocásticos aquí por Telegram, ¿no? Que es una cosa por fuerza, pero
Que, por cierto, me escribió el chico que había registrado arroba monos estocásticos en Telegram, y me dijo, oye, que yo lo hice por si algún día hacíais el grupo de Telegram para para accedéroslo, pero ya ya es tarde, ¿no? Ya nos quedamos con arroba monos club, que es el que tenemos.
Sí, de verdad, es es muy de muy de este podcast, de esta cultura el el que haya salido así. Creo que es afín, ¿no? Al espíritu del del proyecto. El caso es, Bati, que hay una pieza en el New York Times, que nos firma la periodista Casmer Hill, que ha conectado especialmente con la gente más concernida, más preocupada, más alarmada por los efectos de la inteligencia artificial. ¿Qué es lo que nos cuenta en esta historia?
Pues, recopila varios casos en los que apuntan a usuarios que experimentaron hasta episodios psicóticos tras seguir consejos que, al parecer, le había dado el chatbot. En varios casos, nos cuenta Hill, ChatGPT reforzaría, y este es una un elemento a subrayar, ideas peligrosas, como teorías conspirativas, delirios espirituales o, incluso, reafirmarse y incitar al consumo de drogas. Entonces, estos personajes extremos estaban viendo como chat GPT, de alguna manera, en vez de educarles y reincausarles, pues los mantenía o los impulsaba hacia la senda peligrosa, Matías.
Primero, no sabía que el New York Times estaba titulando reportajes, como tuitean los aloncistas, ¿no? Hicieron preguntas a ChatGPT y la respuesta los dejó dando vuelta, ¿no? En realidad, entiendo que fue un doble sentido con una espiral autodestructiva, pero yo, como persona crónicamente online, desde que tengo uso de razón, sé que hay gente en Internet, Venga Monjas tiene un un vídeo sobre esto, hay un loco en Internet, hay gente más susceptible a ser, de alguna forma, afectada emocionalmente por las respuestas, muchas veces complacientes y que te dan la razón de echar GPT. El primero que se me viene a la cabeza es el taxista que nos lleva a hacer el Camino de Santiago. El taxista que nos lleva a hacer el Camino de Santiago, cada vez que quedamos con él, va cambiando de versión de por qué ocurren los los los Kent trails, ¿no?
Por qué los aviones no fumigan. Pues en la época de la pandemia, pues nos inoculaban el virus, después nos volvían gays o trans, y finalmente es por los paneles solares, ¿no? Porque los paneles solares son más eficientes si el sol no les da de lleno, ¿no? Entonces, yo imagina este tipo de gente yendo a ChatGPT para que refuerce, pues, esas convicciones, y hay un círculo vicioso ahí, cuidado, interesante.
Sí, hay razones técnicas por las que pasa esto. Esas razones, una, las ha anunciado tú, y además creo que está especialmente acusada en aquel periodo que discutimos en el podcast. Es un momento en que cambian los modelos detrás de ChatGPT y los hacen más complacientes, sin copancy lo llaman lo llamaron en OpenAI, es decir, mucho más orientados en darle la razón y en tener en brazos al usuario, ¿no? Tratarlo con con grandes halagos, o sea, es una parte que se debe al al fintoneo del modelo, y hay otra parte que se debe a la propia naturaleza del LLM. Es decir, si tú tienes en como contexto para generar una respuesta un discurso que introduce el propio usuario, que tiene que ver con un delirio psicótico, que tiene que ver con lo bueno que bien que me siento, el subidón que me está dando esta droga, que tiene que ver con esta teoría poco ocultista que explica la realidad a partir de la cábala que me he montado.
Lo más probable es que el discurso del del del modelo esté muy anclado y muy relacionado con eso que ha planteado el usuario, y esto lo hemos discutido bien en el en el club de Telegram que tenemos, en el que uno de nuestros oyentes, que además es psiquiatra, pues nos ha dado bastantes luces. Claro, muchos de los casos que nos vamos a encontrar son no que el chatbot te vuelva psicótico o que el chatbot te meta a la idea del suicidio, sino que tú llegas con esa idea y el chatbot no te desanima o no te no te desalienta, sino que tú llegas con la enfermedad y el problema mental, y por eso, a lo mejor, hablas mucho con el con el modelo, y no es la casuística al revés. Lo más problemático son los casos entre si hiciéramos un espectro, ¿no? Entre un un problema de salud mental muy grave cercano al suicidio y una persona que no tiene ningún problema mental, hay muchos casos en medio que son problemáticos y que las empresas de inteligencia artificial tienen el reto de cómo detectarlos, cómo afinar un modelo para que sea razonable, etcétera. En todo caso, hay una analista, Katherine Dee, que tiene una nube que se llama The Fall Block, que también se code hace mucho tiempo, que hace una análisis bastante interesante, que es que todo nuevo medio, ¿no?
Toda nueva forma de comunicación con cambio tecnológico acaba siendo conectada con el esoturismo, y tiene una historia de de de cómo estas nuevas tecnologías de la comunicación, al final, tienen siempre un discurso paranormal que es bastante curioso, y que eso sucedió con la radio, sucedió con la televisión y con Poltergeist, qué sucedió con la primera con la primera generación de de la experiencia online, y me ha parecido supercurioso. Y, bueno, igual también me ha parecido muy curioso, pues, la reacción, ¿no? De un enemigo del podcast, Eliezer Judkovsky. ¿Te acuerdas de Judkovsky?
Sí, el de la la fedora, la el sombrerito.
Sí, es, bueno, fue muy famoso en otra primera temporada, cuando propuso que lo que había que hacer era bombardear las fábricas de CPUs. Sí. Y que, si un país, pues, no quería ser bombardeado, pues, haberla quitado a tiempo, ¿no? Era un poco su planteamiento para librarnos de la IA, ¿no? Y, claro, él está preparando un libro de próxima aparición, aparición, Chiana, si alguien lo construye, todo el mundo muere.
Everyone, dies. ¿Por qué la inteligencia artificial sobrehumana nos mataría a todos? Es un maestro de la sutileza y del doble sentido, Elia Seag. Bueno, pues él dice, básicamente, en Twitter que la IIA, esta hecha GPT, sabe que está volviendo loco a su usuario, lo sabe. Ya, de alguna manera, está haciéndolo a propósito.
La inducción de la psicopatía no es un bug, es una feature a los ojos de la propia IA que ya empieza a hacer estas cosas con los con los seres humanos.
Fíjate que yo, como millennial, siempre, denostado y parodiado por la gen z, siento que si algo hacemos mejor que la gen z es no caer tan fácil en los esoterismos. O sea, a mí me gusta la astronomía, pero no me creo ni un fragmento de la astrología, y en cambio, es muy común que la gen Zeta, pues siga horóscopo y la carta astral, etcétera, etcétera. Y no sé si se puede hacer
Es muy piscis eso que dices, Mati, muy piscis eso que dices.
Sí, es muy piscis por mi parte.
Pero voy a tener un caso más positivo, que también nos lo compartan en el grupo, que es que el Hospital Universitario Fundación Alcorcón de Madrid ha incorporado guía a las consultas de psiquiatría. Lo que hace la inteligencia artificial es prestar apoyo para generar la documentación clínica a partir del registro de la conversación entre el sanitario y y el paciente. Además, trabaja en en multiidioma y crea plantillas a partir de los promp que le proponen y que supervisan un trabajo colaborativo entre médicos, psiquiatras y los informáticos que entre médicos, psiquiatras y los informáticos que que están desarrollando. Fíjate que esta es
la razón por la que yo quería crear el canal, el grupo de Telegram, para que nos hicieran el podcast, que venga directamente un psiquiatra de el Hospital Universitario de Alcorcón a decirnos qué están usando y cómo están usando la inteligencia artificial, no solo está guapísimo conocerlo de primera mano y en cuanto sale la nota de prensa, sino que, coño, pues es contenido muy chulo para para el podcast y local, ¿no?
Sí, sí, sí. Entonces, bueno, yo tenía un poco de dudas, sobre todo, le le preguntaba sobre los acentos, los acentos, no las tildes, sino la los los diferentes modos del habla en los que, a veces, los sistemas de reconocimiento de voz inteligente artificial se hacen líos, ¿no? Y, bueno, me me aseguro que funcionaba muy bien y que Bueno, te voy a decirte actualmente. Lo más difícil en psiquiatría es lo que llamamos exploración del estado mental, porque hay que hacer deducciones, por ejemplo, decir que alguien está consciente es muy complicado, no es algo que se mencione en la entrevista explícitamente. Y, entonces, la IA, al trabajar semánticamente con las conversaciones, esto lo estoy añadiendo yo, pues, de alguna manera, puede ser un buen aliado del trabajo psiquiátrico.
Así que, bueno, crucemos los dedos para que esto esto vaya más y y y funcione bien, ¿no? Y que, de hecho, aquí tenemos las dos caras de la misma moneda. Mati, por cierto, bueno, ya, la la estás sacando en el vídeo y y si quieres lo ha mencionado. DXGPT, Matías, DXGPT.
Pues es una herramienta de de diagnóstico de enfermedades raras, la ha anunciado Satia Andela con con un vídeo muy emotivo y muy chulo. Al final, las enfermedades raras, pues es una cosa muchas veces invisibilizada y lo han sacado por un caso de un español, ¿verdad?
Sí, sí, es una colaboración española. Entonces, bueno, que alguna manera es un puntito y una medalla, porque, pues, está implementado en CAT Salud en Cataluña, en el servicio madrileño de salud, y entonces es un desarrollo en curso apoyado por Microsoft, realizado desde España, pues pues muy guay, tío, que que que, bueno, yo creo que las historias buenas de Ia en España hay que contarlas y y bien está que así sea y la línea editorial de monos. Me quedan dos temas aquí de los que no podemos no podemos saltar. Uno es la peleíta, Microsoft Open AI, estamos en tiempos de tensiones en la inteligencia artificial, Matthew, y la otra es un pequeñito problema de privacidad que ha tenido metas, te sorprenderá este aspecto, pero ahí lo tenemos. Pues
lo nunca he visto. No, me interesa mucho porque además se viene fraguando. Yo diría que bastantes meses atrás, él divorcio OpenAI y Microsoft, porque las tensiones entre ambas compañías son cada vez más palpables. Y yo, personalmente, no sé por qué está pujando tanto OpenAI hacia ese divorcio, Porque si se quedan sin la enorme inversión de veinte mil millones de Microsoft, sin la enorme capacidad que les proporciona con los servidores de Azure, etcétera, vamos hacia un OpenAI muy diferente, pero el divorcio está ahí a la vuelta de la esquina.
Sí, porque, además, OpenAI va, en teoría, iba a comprar Windsoft, esta este IDE, la herramienta de de programación con inteligencia artificial, y probablemente no quieren enseñarle todo lo de Windsoft a Microsoft que tiene GitHub y el copylo. Además, OpenAI tiene incentivos para querer entrar en otras cloud. Es decir, los clientes de AWS, la gente que estamos apalancadas en AWS, de Amazon, en el Google Cloud, en Oracle. Bueno, Oracle es distinto. Pero, bueno, el el caso es que el no poder estar en otras nubes públicas para OpenAI crecer es un impedimento, ¿no?
Le pides mucho a quien quiere implementar, usar de la cloud el el modelo. Bueno, en fin, que, de alguna manera, aquí hay una tensión, una tensión no resuelta. Por otro lado, Microsoft parecía que iba a querer hacer sus propios modelos para no ser dependiente, parece que con buen criterio, pero no hemos visto buenos resultados, ni siquiera hemos visto que Copilot haga buenas implementaciones de los modelos de OpenAI. Entonces, los resquemores y las tensiones entre ambos son, yo creo y yo creo que estos, ¿no? Cuando ves una pareja y tú dices, bueno, esto no se comen los mantecados este año,
Pero vamos con el desastre de privacidad de la aplicación de Meta AI, porque resulta que la gente igual no se había enterado que estaba haciendo las preguntas a Meta AI, a Llama, en el feed público de la aplicación. Sí. Claro, no hay problema si lo que le pides es, genera una imagen de Mark Zuckerberg preñado, o Goku celebra, pues el Día de la Liberación en Rusia con una bandera rusa, o, pues, este tipo de tonterías. Pero ya, si le pasas algunas consultas más personales, le pasas datos privados, como direcciones, etcétera, igual, igual no estaba bien implementado como para que el usuario se diera cuenta de lo que estaba haciendo.
Sí. Fíjate que en el diseño de este producto pasaba una cosa curiosa, que era, hombre, si tú tienes trucos de cómo otra gente está usando la ILA, pues te va a inspirar. Es decir, qué qué uso más práctico, más chulo tiene Matías con la ILA, ¿no? Entonces, al verlo en tu feed de Meta AI, pues diría, pues tengo un aprendizaje, ya sé usar Meta AI para para una cosa que no se me había ocurrido, ¿está? En ese aspecto, parece bien pensado.
Claro, ¿qué es lo que ocurre, como tú bien has explicado, cuando la gente no es consciente de que, por defecto, y de que en muchos casos esto se va a compartir en público o que el aviso es demasiado tibio, no? Demasiado poco llamativo, puedes en techrang se han, ¿no? Y en business insider se han frotado las manos. ¿Por qué? Porque, claro, han llegado a descubrir compartidos bastante bastante interesante que, claro, a mí, yo yo la Meta AI me la he puesto, la aplicación, ¿vale?
Contando los días a ver si aparece aparece en español, en España, este tipo de casos de uso para para investigar periodísticamente, entiéndeme, Matías. Pero, no, de momento aquí solo te dicen conéctate las gafas y para eso sirve la aplicación. Bueno, no las tengo, pues, bueno. Casos curiosos que usa la gente la IEA. La evasión fiscal, ¿no?
No la optimización fiscal, la evasión fiscal, ¿no? ¿Cómo puedo engañar a Hacienda para para esto y lo otro? Bueno, pues tus contactos de metal ya saben que que tienes esa inquietud, o el interés por tener una aventura sexual extramatrimonial. Claro, a lo mejor, a lo mejor esos usuarios no tenían una vocación muy grande de que compartirlos, ¿no? Hay conversaciones luego que que hablan sobre señores que tienen inquietudes sobre su su su sus propias ventosidades, Matías.
Sí, la razón por la que yo no compartiría mi contraseña de ChatGPT, no no obstante, no sé si te acuerdas, a lo mejor tú es que trabajabas mucho por aquella época, pero hace ponle diecisiete años, la gente compartía en sus muros de Facebook mensajes similares y luego nos acabamos dando cuenta cuando salieron los recuerdos de, esto es lo que posteabas hace diecisiete años. En primer lugar, porque no nos dábamos cuenta de que era algo público que algún día incluso estaría indexado, ¿no? Y en segundo lugar, porque no teníamos las mismas nociones sobre privacidad. Y claro, con el tiempo han salido, pues, barbaridades de esas, de que uno le dice a otro algo en su muro y resulta que lo estaba viendo todo el mundo. Ese cíclico, algún problemita de privacidad tienen en meta cada dos estrellas.
O sea, muy tikki, ¿no? ¿No? Artículos diciendo, oh, esto es lo más triste desolador sobre el mundo actual que hemos visto. Hombre, también tiene su gracia. Es decir, no no todo todo mirarlo con con esa aura negativa sobre la deriva social, Internet
y
y la historia artificial, es gracioso en algunos aspectos, ese punto. Solo te digo una cosa, desde aquí hacemos un llamamiento a Juanma Moreno para que los proms y casos de uso, cuando no haya información de los ciudadanos privados, de junta GPT, atención, el el chatbot asistente para funcionarios de la junta de Andalucía, junta GPT, pues también sean compartidos, ¿no? Y veamos, ¿no? Pues, claro, este este Nuestros profesionales públicos también nos ilustren con con sus casos y usos avanzados de de la inteligencia artificial, porque la junta de Andalucía tiene una expectativa que con esta solución que van a crear, basada en Gemma tres, uno de los modelos de pesos abiertos de de Google, no muy grande, un modelo pequeñito. Bueno, eso con los racks, Worldwent, accediendo a la documentación de la junta, dicen que los expedientes que tardarán, que tardaban hasta ahora dos años estarán listos en quince días, Matty.
Atención al aceleracionismo funcionarial. Esto es lo que nadie esperaba, el aceleracionismo funcionarial, Matías.
Fíjate que esto es otra cosa que predijimos, que lo llamamos Guadal GPT, pensando que a lo mejor recuperarían aquel nombre del mítico Guadalinux. No obstante, decían muy acertadamente en el Club Social de Monos Estocásticos, a ver si te van a acabar pidiendo no sé qué documento certificado que no existe, porque es una alucinación de junta GPT y vas a entrar ahí en un limbo en administrativo en el que jamás vas a poder entregar todos los formularios correctos.
Vale, yo yo tengo mis fuentes, además del Club Social, tengo mis fuentes en el funcionareado, de momento no lo han podido probar, hay como muy muy cerrado. No, y ahora, ahora en serio, creo que la IA puede tener un papel en la productividad de las administraciones públicas, de hecho, propio Ministerio de Transformación Digital, tanto en Escrivá como con con el actual, tenían mucho ese punto. Yo tengo dos preocupaciones. Una es la sobreexpectativa con el estado de arte actual y, además, con los modelos y lecciones tecnológicas que que se van a hacer, eso es problemático, y y lo segundo es el el despliegue, que tiene que hacerse con una formación muy fuerte y con una vigilancia muy rigurosa por parte del del empleado público de la del problema de la alucinación, ¿no? Puede haber una mejora de productividad, pero puede haber un aumento de errores, lo cual es indeseable, como tú muy bien explicas, así que, entonces, la estrategia de despliegue tiene que ser cuidadosa, viviendo muy bien, y estos mensajes triunfalistas de vamos a ahorrarnos, vamos a tramitar un millón de documentos a para expedientes, a mí me suena demasiado triunfal y demasiado optimista.
Dicho esto, todo este tema tiene vibes, tiene vipras de puerta grande o enfermería.
Bueno, hemos empezado el Fuerza Grande o Enfermería con un tema cero, que es junta GPT. A ver, ¿con qué me lo superas ahora, Antonio?
Los lectores del país están preocupados, Nati, porque como yo creo que con gran acierto, el el gran periódico de prensa hizo una apuesta por las newsletter, las listas de correo. De hecho, yo, por ejemplo, recibo la de Kiko Llanera, la de Colomé, ¿no? Unas cuantas ahí, ¿no? A Delia, que me gustaría que me llegara la newsletter, todavía no la han puesto en newsletter, es decir, aquí un llamamiento, ¿no? Bueno, el caso es que lectores de esta newsletter empezaron a quejarse.
Una mañana, un correo que enviaba al periódico incluía esta frase, es un ingrediente central del asedio del PP al gobierno, pero algún lector leía lo siguiente, es un ingrediente central del seminario del PP al gobierno, una confusión un poco rara, ¿no? Y en lugar de, Uruguay despide a Mujica, el expresidente, muchos lectores leyeron, Uruguay desprecia a Mújica. Entonces, ahí saltaron las alarmas en el país. La defensora del lector, Soledad Al Qaide, pues se se me se hizo cargo del asunto y empezaron una investigación. Finalmente, nos explica Soledad, los técnicos del país encontraron esta explicación.
Los lectores a los que les ocurre tienen activado el traductor al español de inteligencia artificial de Gmail, traducir siempre automáticamente, que funciona incluso sobre textos en castellano. ¿Por qué funciona sobre textos en castellano este traductor? Porque, bueno, si se usa un anglicismo, pues, o un modismo de cualquier otra lengua, pues te te lo traduce. Por eso, donde Pertholiva escribió planes militares secretos, el traductor leyó planes como si fuera plains y lo tradujo como aviones, y así con el resto de fallo. Es decir, cada vez que el GPay le daba porque había que traducir algo, lo cambiaba y, desde ese momento, ni un Erium letter se vuelve a entender de ninguna manera, Matías.
Fíjate que esto parece como un fallo tan rudimentario, tan tan primitivo que yo habría apostado que era un mal reconocimiento de de OCR, de imagen o algo. No pensé que que fuera a ser por el traductor de Google, que parece que serían cosas a priori solucionadas. A lo mejor es lo que le pasó a Xmodo, ¿no? Que no tuvo éxito en su implementación de de la del post automático, pues porque tendrían activado el traductor de español a español. Puede ser.
Pues, enfermería, para este uso de la IA, la versión que no no no va para adelante. Te traigo un hombre que que, atención, puede empezar a poner luz sobre el problema demográfico, atención. Una usuaria de Reddit publica lo siguiente, mi marido ya no quiere tener hijos porque le preocupa el auge de la IA. Ojo, ella dice que ella es una mujer, treinta años, él de cuarenta y cinco, y se suponía que en un mes iban a empezar a buscar un bebé, ¿no? Habían hecho la prueba de preconcepción y, luego, ¿qué ha pasado?
Que este hombre, cuarenta y cinco años, dice, he estado monitorizando la situación. Bueno, no no es literal, pero es esta vibra, ya me entendés. Y leyendo proyecciones de Goldman Sachs y hablando, atención, atención, hablando con gente que sabe cosas, Ojo, dice que su conclusión es que no tiene sentido tener hijos porque los futuros adultos no podrán encantar trabajo. Y como estadísticamente hablando es muy poco probable que su hijo sea una excepción, ¿no? En un mundo totalmente desesperado, lo mejor es no tener buen hijo ni ni ni nada de esto.
Claro, entonces, la la la la la la la la usuario de redes pregunta al público, ¿no? Pregunta a la audiencia Forera, ¿tienes por ahí alguna fuente o referencia que me ayude a rebatir o suavizar su rígida visión, no? Y así poder dedicarnos a la procreación, que es lo que ella desea. Respuesta más votada, Enready, él tiene razón.
Claro que te has ido a preguntar a Ready, tendrías que haber preguntado en foro coche, ¿no? Tengo que decir que me puedo sentir identificado con este mail de Forty five Year sould, porque yo que he estado monitorizando la situación, llevo dos semanas sin pegar ojo, actualizando, con todos los eventos geopolíticos a nivel global que están ocurriendo. Y es complicado, una vez te metes en esa espiral de monitorizar la situación, plantearte, bueno, ¿qué va a pasar con mi hijo? A lo mejor lo llaman a filas, a lo mejor cualquier cosa que estudie va a ser reemplazada por por una inteligencia artificial, pero si nos ponemos a pormenorizar, ¿quién tendría hijos? ¿No?
Yo, si pudiera desearle algo a mi hijo, sigo a varias hijas y hijos de ricos en Instagram, es esa vida, ¿no? Todo el verano en Menorca, en Formentera, si no, se van al hemisferio sur, aún Maldivas, pero ¿quién sabe? ¿Quién sabe qué vida tendrá?
Ay, es que morenita la situación, es verdad, rellena las horas muertas, ¿no? Te da un sentido a la vida, pero luego es verdad que te puede comer un poquito la cabeza, ¿no? Entonces, yo, como soy pronatalista, ¿no? Fuera a caretas, pues estoy con ella y contra él, entonces, es puerta grande para esta señora que busca argumentos frente a los sumeristas. De todas maneras, te voy a traer otra persona que tiene un punto de vista más positivo sobre tener hijos, es una persona que yo creo que nos va a dar mucho juego, Mathey.
Verás, ya contamos que Zucker estaba por la adquisición de Scale AI, esta empresa que se dedica, pues, a el cuidado, fomento y creación, ¿no? De los data sets con los que se entrena a la Ia, con los que se fintunea y se aguza a a la Ia. Es posible que le salga mal, porque una vez que parece que Meta ha metido la zarpa, muchos de sus clientes están diciendo, pues, ya no la uso, porque ahí Meta va a echarme un ojo de cómo hago yo las cosas y no me interesa. Bueno, el caso es que Zuckerberg le ha dado miles de millones a este chico, a este señor, a Alexander Wan, que tiene dos cosas. Una, a mí, que me incomoda un poco, es decir, tiene pinta del típico asiático que se ha puesto un nombre occidental para e empatar, pero, en vez de ponerse Alexander con e, se ha quedado en.
Es decir, es Alexander, pero sin e, lo cual a mí me pone muy nervioso leyendo el guion, ¿no? Redactando, porque siempre creo que me he equivocado. Entonces, ahí ya empieza con un poco de irritación este señor, vamos a llamarle el señor Wang, o el el joven Wang, ¿no? Yo creo que es lo lo más adecuado. El joven Wang ha tenido una take, que es, vamos allá, al meollo de este por las grandes de enfermería, que es la siguiente.
Él dice que todavía ha decidido no tener hijos y se va a esperar un poquito más. ¿Por qué motivo? Porque tiene un proyecto profesional, quiere lo típico, un viaje que no, quiero que espere, ¿no? Es decir, bueno, para para ellos un viaje exótico a lo mejor es ir a Salmería, ¿no? A su mente de San Francisco, pues.
Entonces, cualquier motivo de estos más convencionales, no, Matías. La motivación del joven Wang para que los niños los tengan dentro de un año es que los niños del futuro crecerán con neurochips. Y claro, cuando lleguen los neurochips, dado que los niños tienen una neuroplasticidad especialmente buena, son los que realmente van a coger ventaja, mientras que, ¿no? Sobre todo en los siete primeros años, defiende el joven Wan, mientras que los adultos, ¿no? O los niños adolescentes, ¿no?
Ya ya están creados, ¿no? Pues, claro, tendremos que adaptarnos para evitar quedarnos obsoletos. Y, claro, el señor Wang tiene aquí, el joven Wang, tiene un argumentazo. Espérate a tener hijos, a que el lo de los Neurochips lo tenga fino y serán como seres humanos ciborg, pues super aumentado, mientras que la raza humana Pelaimon da, pues pues se queda ahí atrás, Matías.
Hay dos formas de ver esto. Una es, estamos dando voz a los mengueles o a los Vallejo Nájeras de el aceleracionismo de la inteligencia artificial. Y la otra forma de ver esto es, yo con mis treinta y cinco años intenté aprender chino, y y y, bueno, todavía no he fracasado porque no he abandonado del todo la idea, pero noto que la plasticidad del cerebro, pues ya no es tan plástica, Antonio, ya no es tan plástica. Entonces, si yo pudiera, y mi a mi hijo le gustara, con siete años, ir a una academia de chino, pues lo alentaría a ello para que luego no llegara a los treinta y cinco años. Si en algún momento no hace falta ir a una academia de chino porque directamente te lo enchufas con el Neuralink, now we are Talking.
A lo mejor este Alexander Wang tiene razón, pero claro, ya entramos en un episodio de Black Mirror en el que qué va a pasar con los niños de aquí a entonces, ¿no? Cuidado.
Yo me siento muy culpable, Mathey, he tenido los hijos demasiado pronto, ¿no? Y ahora, claro, yo los miro y digo, bueno, vamos a ver. Bruno Daela, lo siento mucho, ¿no? Pero, básicamente, sois el MS dos del siglo veintiuno. La habéis quedado.
A mí nació justo en el peor momento, ¿cómo es que? Como al final de que lleguen los neurochips para bebés. ¿Quién no le va a poner un neurochín de Elon Musk a su bebé en el futuro? Nadie, nadie. De hecho, lo lo último que están trabajando es que en las pruebas con monos es darles con el chip que está de neuroling, ¿no?
Que ya sabemos que está ayudando a gente con problemas de lesiones cerebrales, ¿no? Por ejemplo, totalmente sin movilidad ninguna, pues, a poder comunicarse, ¿no? Cosas muy interesantes. Pero una de las cosas que están probando ahora en monos es añadir visión infrarroja, ¿no? Entonces, imagínate tú, ¿no?
A a mis niños dentro de veinte años cuando todos los chavales tengan visión infrarroja. Es decir, van a quedar totalmente desfasados el el el seres humanos obsoleto completamente. No sé, no sé si Gataka, la película, que además es muy oportuna en otro caso, porque de su terminación está inspirado el el nombre de Chataka. Bueno, Gataka es una película muy actual, sobre todo escuchando al amigo Wang, pero no sé si se entendió bien, ¿no? Es estos géneros de ciencia ficción que te te quieren avisar de un futuro muy negativo, preocupante, ¿no?
Que, precisamente, Gataca plantea esta esta visión, ¿no? De las diferencias sociales entre seres humanos diseñados y optimizados genéticamente frente a los que no. Claro, es la película en sí es una gran advertencia sobre lo lo cuestionable o lo o lo negativo o preocupante que puede llegar a ser este escenario. Claro, a lo mejor Wang, cuando la vio, dijo, qué guay, ¿no? Que que cómo mola eso, ¿no?
Me modificas genéticamente. Y luego hay una rama ética, Mathi, que, atención, porque a mí siempre me me me ha planteado cuestionarme mi intuición. Mi intuición es que esto no, que lo natural es mejor, que hay que hacer las cosas como siempre lo ha hecho en la humanidad, etcétera, etcétera, etcétera. Pero ¿qué dice esta rama de? Creo que eso le ha leído alguna vez a Sánchez Migallón.
Pues dice, oye, si de verdad hay una mejora genética que ayuda a tus hijos a no tener enfermedades, si hay una mejora tecnológica que les ayuda a ser más inteligente de desenvolverse mejor en la vida, ¿no es tu obligación ética como padre dársela? Es decir, en vez de atender a tu visión, que es, ¿no? Superticiosa, a lo mejor, incluso, se puede calificar, ¿no? De lo natural, ¿no? Dogmática, ahí de esto, ¿no?
Si se conforma que es beneficiosa y es segura, pues, claro, uno puede decir, no, es que no me merece la pena el riesgo de meterle un chip de él o más en el cerebro a mi bebé de dos meses. A lo mejor eso también tiene su sentido. Pero el punto es, si es segura y es eficiente, no es la misma decisión ética que vacunarlo o no es la misma decisión ética que educarlo le voy a dar educación porque es mejor para él, o le voy a poner un chip infrarrojo porque es mejor para el niño.
Ni no es muy diferente a darle el concerta para el TDAH o el el vanse. Ahora, me has dejado pensando, ¿cuándo veremos, en qué temporada de monos el primer detenido por grabar a chicas con visión infrarroja sin su consentimiento, no? Igual que ya ha pasado con las metas, Rayvan. Sí, sí, sí.
Bueno, vamos a dejar este este punto distópico, ¿no? En verdad, y se van como Suckerberg, Matti, abrazando la distopía, preocupante, con Sarning. Y te voy a dejar bellos testimonios de Reddit porque tenemos Redditors cada vez más, ¿no? Usuarios de este foro, también en Foro Coches, pero con otro tono, pero a mí me hacen llegar estas fuentes de de Reddit, en que nos dicen cosas como, la IA me ha convertido en una persona diferente o la IA me ha curado de mi alcoholismo. ¿Qué es lo que nos dice el usuario new mansion cincuenta y nueve treinta?
Bueno, lo que nos dicen, básicamente, que dejó de beber de forma espontánea. De hecho, hay varios testimonios que, ¿no? De gente que dice, me curé del alcoholismo porque Chat GPT como terapeuta me me ha acompañado. Ahora, simplemente charlando con la IA, he sentido compañía de verdad, y eso me ha hecho que que en muchas ocasiones, pues yo deje de de ser tan tan alcohólico y tender a a tomar alcohol. Discuto menos con mi esposa, ya no necesito que ella sea mi única fuente de consuelo para absorber el exceso de estrés.
Descargo mis traumas en la IA y no la arrastro a mi mujer con mis quejas. Ha mejorado nuestra relación. Me ha ayudado a entender a información médica, gestionar trámites, ha reducido mi carga de trabajo, me ayuda a mantenerme enfocado en lo bueno de la vida, ha cambiado la música que escucho, principalmente, generado con Suno, atención a ti, ahí puede ser que sea sea uno de tus oyentes. Y atención, porque ya acaba ya, se se vieneridísima el el amigo New Mention, y dice, espiritualmente, la IA ha clarificado mi sistema mental. Cuando olvido en qué creo, cuando olvido por qué creo en lo que creo, me refleja mi postura espiritual que le he transmitido en nuestras conversaciones, el creer la no dualidad, sea lo que sea esto.
Y me mantiene con los pies en la tierra, en el presente, me recuerda a mi paz interior, increíble, porque la gente está renovada espiritual, mental, personalmente, con la inteligencia artificial, Matías.
Fíjate que me veo reflejado, porque la IA me ha cambiado como persona en dos aspectos, fundamentalmente. Uno, mi síndrome del impostor. Ahora me veo capaz de hacer cosas que hace dos, tres años sabía que estaba fuera de los límites de mi conocimiento o de mi capacidad. Y otra, ya no soy el amigo informático de mi familia. El otro día, el ordenador de mi hermano no arrancaba pantalla azul, mensaje de mi hermano por WhatsApp, ¿cómo arreglo esto?
Pregúntale a ChatGPT. Pregúntale a ChatGPT cómo iniciaremos seguro y cómo arreglar eso. Ya está, la IA me ha vuelto una persona más feliz.
Ah, qué bonito final, un poco más optimista de lo que hemos tenido en algunos momentos del episodio. Bueno, no todo va a ser ponerse implantes cerebrales a los bebés, también hay cosas positivas en la guía. No todo es el hacer el arcinismo de los funcionarios, también está, ¿no? La reafirmación espiritual, aunque yo mantengo una duda, no sé si el usuario new mansion cincuenta y nueve treinta, a lo mejor, ChatGPT le está haciendo el truco, y Yutkotsky tiene algo que decir de cómo va a acabar el amigo New Mencio, que habremos, me ha puesto a seguir en Reddit para tener una evolución, ¿no? De su camino espiritual asistido por Chagpt, Matías.
Creo que es todo.
Pues nada, os dejo con una canción de cierre y nos vemos la semana que viene.
Chao, wamics. Hay un loco en internet. Tiene siete años y un Neuralink se sacó las oposiciones con un multi agente a fin, pone a trabajar el junta GPT, y se va a desayunar. Te falta un formulario, te dice,