0:00 Antonio se pasa al electrolatino
5:59 Nvidia saca el arsenal con arquitectura Blackwell
11:00 El momento ChatGPT de la robótica
16:12 Antonio dedica un premio a Matías
21:12 Sam Altman vislumbra la singularidad
26:47 Microsoft y OpenAI ya saben cuándo se alcanzarán la AGI
30:28 Por qué Google compró Character AI
35:05 Ya vienen los agentes inteligentes
41:36 Una frase inquietante
50:48 España es puntera en regular la IA
1:03:35 Puerta grande o enfermería
Ya puedes usar el mejor modelo de vídeo, Kling 1.6, en la suite de IA de Freepik, que nos acompaña en este episodio https://www.freepik.es/ia
Balance del primer cuarto de siglo https://www.parentesis.media/balance-del-primer-cuarto-de-siglo/
Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com
Transcripción
Hola a todos los monos estocásticos. Bienvenidos una semana más a nuestro podcastito de inteligencia artificial y, a veces, de metaverso. Antonio, ¿cómo estás?
A ti. Estas semanas ha sido una catarsis de declaraciones, lanzamientos, presentaciones, filtraciones, que probablemente reconfigurarán todo el sector tecnológico, el futuro de la inteligencia artificial y, por tanto, el de nuestra sociedad y nuestras vidas. Pero a mí lo que más me ha preocupado durante estos días sobre lo que más he reflexionado
Sí.
Ha sido mis problemas de marca personal con este podcast, Matías.
Por eso de Matti y el otro, ¿no?
Matti y el otro. Claro. Sí. En el último episodio que que publicamos, que era, pues, nuestro evento presentación en Pamplona sobre Agi, quedó muy patente que tú eres ampliamente conocido. Matti, Matías, ¿no?
Ahí realmente yo hago una gran labor de difusión de tu marca, porque es mi latiguillo. Yo cada tres frases meto un Matti. Por lo tanto, tú quedas como muy reforzado ahí, ¿no? Tu individualidad de creador. En cambio, bueno, no vamos a buscar culpable.
De hecho, si buscáramos un culpable, pues no sería muy difícil, pero yo yo voy voy a centrarme en las soluciones, porque en mi marca personal ahí no sale reforzada porque el otro es muy sustituible. Mañana metes aquí una Ia y de repente, pues yo ya de nadie me echaría de menos, porque ni se ni se sabe mi nombre. Entonces, he buscado inspiración, he buscado ayuda, he buscado mentoría, diría incluso, en un sector de creadores que se está abriendo camino y que refuerza y hace muy bien su marca personal, Matti, que son los artistas del electrolatino.
A ver, a ver por dónde vas, porque tengo que decir, Antonio, que todos todos somos como el seis de hoy, ¿no? Todos somos contingentes, pero tú en este podcast eres clave, eres necesario, eres piedra angular de este podcast.
Bueno, bueno, te calienta el corazón estas declaraciones. Voy a voy a grabarme este clip que de con con tus con tus palabras, pero te voy a decir mi estrategia de este año. A ver, a ti qué te parece y por qué yo he aprendido tanto de Omega, Manuel Turizzo, Becky G e incluso Karol G. ¿Qué es lo que hacen estos grandes artistas de contemporáneos de nuestro tiempo? Claro, ellos son muy conscientes de que la gente en Spotify escucha las playlist.
El fenómeno playlist, claro, difiere mucho de el voy a escuchar un disco, me he comprado un LP, ¿no? Y me lo pongo en el que, claro, tu relación con el autor y tu conocimiento del mismo es muy patente. Tampoco son los tiempos de la radio, en las que el locutor te introduce deseéndote el nombre del artista. Entonces, ¿cuál es tu riesgo? Que realmente no quedes en ese en ese top of mind, no quedes en la cabeza de los oyentes con tus hitazos.
Entonces, ¿qué es lo que hacen ellos muy hábilmente? Pues introducen su nombre en la canción. Claro, Manuel Turizo, cuando mete una canción buena, dice dentro Manuel Turizo, y luego, por ejemplo, Becky G con Karol G, dicen Becky G con Karol G, y lo dicen dentro de la canción, y Omega, cuando hace una cola, también mete Omega, ¿no? Cada uno tiene su jingle, su forma de decir su nombre. Entonces, ¿cuál es mi plan este año?
Pues cuando yo encuentre mi jingle, mi mi forma de decir a Antonio Ortiz, que que sea, claro, que de juego así diciéndolo sin plano, pues probablemente no consiga empatar a mis a mis ídolos musicales. Pero cuando encuentres el gingle, cada vez que yo te, no, y cada cada diez minutos, voy a decir mi nombre así. ¿No? O o o pasarte un audio con mi nombre así para que tú, al editar el episodio, lo lo metas y refuerces mi marca personal. ¿Cómo lo ves?
¿Cómo lo
ves? Fíjate que yo caí en la importancia de esto, porque hasta que no fue lo de la fiesta de los hobbies, que te habrás enterado que hubo una polémica, llevaron incluso a Nigartiguru y, bueno, una exposición de de todo tipo de lujos y de invitados celebridades. Pues fue ahí cuando me enteré que Rosalía tiene una canción con Carolina Durante, porque yo, si bien había escuchado la canción, que se llama Normal, sale una chica cantando y la vuelves a escuchar, y es verdad, es Rosalía, pero no sale acreditada, ni ella dice lo de la Rosalía. Entonces, no queda patente ni claro que es Rosalía, y efectivamente es Rosalía, porque además es como la cuñada del tío de Carolina Durante. Ahora, te tengo que decir, Antonio, que esto tú ya me lo habías comentado en el en el box, que ya sé que es un tema que te preocupa.
Entonces, yo me he ido rápidamente a tu lora y he creado varias posibilidades como cantante de reguetón, que los oyentes, pues, disculparán en este momento, pero podemos ver a un Antonio descamizado encima del escenario, pues, interpretando alguna alguna canción electro latina o de reguetón. Una cosa que me gusta de los modelos es que la gente que hay detrás también se parecen un poco a ti, ¿no? Todos tienen como la gafas redonda, tienen un poquito de barba de unos días. Y bueno, luego tengo otros ejemplos, está aquí, está tú recogiendo un premio, pues aquí una, pues una etapa más interiorista tuya de un, pues a lo mejor un disco más melódico y más devastadora.
Claro, ese está ahí entre, me quiero dedicar a la a la música, pero voy tarde y participé un poco en la hora chanante, ¿no? Está, ese ese converge en ese momento. Me parece, te agradezco porque entre el jingle, mencionar mi nombre, mejorando mi marca, incluso respecto a Rosalía, como tú dices, más más estas creatividades que has realizado, yo creo que muy mal se tiene que dar, muy mal se tiene que dar para no para no, bueno, eclosionar como estrella del podcast o, en su defecto, ganar un Grammy Latino, ¿no? Ya veremos por dónde por dónde tirar la cosa.
Vamos con los anuncios grandes, los anuncios importantes, y lo primero que te tengo que decir, que parece que por primera vez en mucho tiempo estamos teniendo un CES interesante. ¿No? Ha valido la pena cruzar el Atlántico, toda la gente, los compañeros que están allí en Las Vegas, además de poder disfrutar del magnífico túnel del centro de convención de Las Vegas que hizo Elon Musk, pues también están disfrutando de anuncios importantes, entre ellos los de Nvidia, esta empresa más valiosa del mundo.
Sí, sí, sí, sí. Bueno, ha sido una catarsis de anuncios de de la empresa de de GPU, de tarjeta gráficas y de chips, y Jensen, pues, de nuevo acaparando lo los titulares. Si te ofrecemos a recapitular tres o cuatro cositas importantes de lo que han anunciado, la más importante o la o la de aplicación más directa es que ya tenemos la nueva generación de GPUs, aquellas prometidas Blackwell, que Blackwell es el nombre de la arquitectura, es decir, cómo está diseñado internamente y organizada la GPU en concreto, y según las nuevas GFWord de la generación cinco mil, de la cinco mil noventa. Ya recordemos que Nvidia lo que suele tener es la gama más alta, que es la cinco mil noventa, y luego va bajando en cinco mil ochenta, cinco mil setenta. Y bueno, en este caso no hay cinco mil sesenta, setenta sería la la la barra, la gama de entrada para para esta nueva generación.
Y bueno, las acciones de vídeo se han disparado, yo creo que también por por anuncios como el de el de Microsoft, que me dan nuevos, por un plan de gastar ochenta mil millones en en dar centros de datos. Y bueno, la las primeras reacciones a la tarjeta gráficas, pues, creo creo que ha sido un poco alivio, porque había mucha preocupación por los retrasos y los tiempos en que podían llegar. Expectación con la cinco mil noventa, que parece un auténtico bicho. Nos vamos a entrar en temas demasiado técnicos, pero básicamente realmente se va en la memoria RAM mucho más arriba de la generación anterior, de veinticuatro gigas a a treinta y dos, y que, bueno, entre eso, la nueva arquitectura, el poder meter noventa y dos mil millones de transistores en una GPU, la potencia hasta los trescientos veintiocho tetrafloo blablablá, es decir, en cuestión técnica, esto es una animalada y un pedazo de bicho que garantiza que quien necesite potencia en dos mil veinticinco la va a tener, Bate.
Pues sí, además de destacar los dos mil dólares que cuesta la cinco mil noventa y lo que siempre digo de cómo van perdiendo protagonismo los gamers en este tipo de anuncios, porque al final eran ellos los que estaban deseando que se presentaran nuevas gráficas de Nvidia, y ahora
los anuncios de Nvidia giran
en torno a la inteligencia artificial y los tops de IA, que es capaz de mover cada gráfica. Pero también me llama la atención una cosa que dijo Jensen, nuestro amigo Juan, que la cinco mil setenta, que no es ni la primera ni segunda, sino la tercera de esta nueva gama, de esta nueva serie, tiene un rendimiento similar o comparable al de la cuatro mil noventa, que es el tope de gama actual. O sea, te estás gastando setecientos cincuenta dólares en lugar de dos mil y estás obteniendo lo mismo que puedes comprar ahora mismo como lo más tocho del mercado.
Sí, hay, bueno, hay gente de tía Técnica que que, bueno, han sacado algunos algunas tablas del rendimiento relativo entre ambas tarjetas y, ciertamente, la cuatro mil noventa sigue apareciendo en muchos de estos aspectos más potente. Otra cosa es que en algunos casos de uso se cumple lo que dice Jensen, no sería del todo riguroso. Yo si tuviera una cuatro mil noventa, no querría comprarme una cinco mil setenta sin ninguna duda, sobre todo porque, bueno, lo explicaba a Carlos Santana muy bien en Twitter, agote pronto de del anuncio. Uno de los aspectos que que está siendo más relevante en en la inteligencia artificial es el cuello de botella que ocurre con la memoria de estas tarjetas gráficas. Entonces, ciertamente, la cinco mil setenta se queda en doce gigas y la cuatro mil noventa tiene el doble de memoria.
Es decir, si todos aquellos procesos de inteligencia artificial cuyo punto crítico, cuyo cuello de botella sea la memoria RAM, pues te sigue interesando la la tope de la generación anterior versus la la entrada de de la de la nueva. De todas maneras, hay una cosa interesante para todos los que somos fans de instalar cosas en local. Nvidia ha anunciado un ordenador que es especie de Mac mini, ¿no? En términos de diseño, pero que se llama Digits, que cuesta tres mil dólares, que no es ninguna broma, pero que puede ejecutar modelos de inteligencia artificial en local de hasta doscientos mil millones de parámetros. Yo ahora mismo lo donde estoy cómodo en local es con los ocho billion, porque tengo unas tres mil setenta, es decir, yo voy un poco retrasado, pero bueno, es que estamos hablando de doscientos doscientos mil millones de parámetros.
Entonces, son modelos bastante grandes, bastante grandes, Matías.
Pues nada, eso para ejecutar en local los modelos del Skyrim y para conversar con los personajes del Skyrim sí que tienen que ir rápido, lo que no sé si me va a llegar mi salario para comprarme uno cuando esto salga en mayo.
Sí, sí, sí, bueno, todo todo es ir ahorrando, ¿Sí? Tú vas echando bien sentimientos, ¿no? Como la gente de la independencia financiera, Mati, pero tú en vez de para para eso, pues pues para para comprarte la el el nuevo bicho de Nvidia. Y otra cosa, digamos, que ha habido muchos anuncios, pero el último en el que me quedo yo muy interesante es uno que han llamado Nvidia Cosmos. Nvidia Cosmos parece al principio un modelo de generación de vídeo, ¿vale?
O sea, ese punto que, bueno, otro modelo más de texto a vídeo, de de vídeo a vídeo, bueno, pues para eso no hace falta, bueno, no no es muy llamativo, ya tenemos otros cien modelos en el mercado. ¿No? El punto es que yo, y lo enlazo con con su gran objetivo del del dos mil veinticinco, piensa en este vídeo cosmos de generación de datos en tres D y generación de vídeo como un generador de datos sintético para entrenar a la IA respecto al mundo físico. Es decir, gran problema de la robótica a la hora de aprender. ¿A partir de qué aprendo para moverme por el mundo?
Pues puedes hacer mapas como hace tu ¿No? Bueno, puedes hacer una una rumba, un dispositivo de este tipo. Puedes ser entrenado con datos de YouTube para hacerte una idea del mundo a partir de vídeo, pero eso no no acaba de funcionar nada bien. Y lo que dice Nvidia es que para tener muchos datos sobre el mundo físico, lo van a generar y van a ser sintéticos con este Nvidia Cosmos.
Yo creo que el Jen San Juan, no solo ya por la chaqueta de cuero que lleva siempre, la cazadora que lleva siempre a todas partes, sino por cómo sintetiza con frases lapidarias hacia dónde va la empresa, lo hablamos de Ilya Suskever hace un episodio dos, pues se está convirtiendo como en el nuevo CEO estrella del rock. ¿Y a qué frase me refiero? A la de el momento chat GPT para la robótica general está a la vuelta de la esquina. Yo creo que esto y este otro gráfico que estoy enseñando en el vídeo, que muestra un poco la hoja de ruta que que espera Nvidia para la inteligencia artificial, ¿no? Estamos en inteligencia artificial generativa, vamos a entrar a los agentes de IA o a la IA agéntica, y luego vamos a ir a la IA física, ¿no?
Le vamos a dar a estos robots una inteligencia artificial que les va a permitir moverse por el mundo y hacer las mismas cosas que hacemos nosotros, ¿no? Entonces, esta es la visión que tiene ahora mismo Nvidia y donde tiene sus huevos y donde tiene su su su apuesta firme que que son los robots,
¿No? Qué qué qué pasada el el punto, es que siempre tenemos el nuevo dilema, me parece. ¿Ese dilema en qué consiste? En, nos subimos al tren del hype, realmente la robótica, es decir, esos cacharros humanoides con inteligencia artificial empezarán a ser útiles, prácticos, rentables, funcionales en el mundo real, como dice Nvidia y varias empresas de de robótica, ¿no? Los Macs, la gente de de Umain.
Es, no, el figure, perdón, los Umain eran los del pin que que eso no están tan tan en la en la tren. Bueno, lo subimos o tenemos que mantener nuestro escepticismo habitual y decir que, oye, es que el mundo real es muy complicado y que no he visto nada ni remotamente cerca para manejarse en un entorno mínimo, como puede ser una cocina o una tienda o cualquier otra cosa, ¿no? Entonces, bueno, Nvidia ha abierto ese ese camino, lo dice, y uno de los argumentos que yo veo a favor de esto, nos lo pasaba Miguel Infantes, que nos pasó un un vídeo de YouTube en el que claramente se ve como la Robo Rock Vacum, que por fin se ha equipado con un brazo y te recoge los calcetines.
Esto a mí me viene muy bien, Antonio, porque, a ver, yo me independicé muy pronto, y a ver, a los dieciocho yo ya vivía en Málaga y desde entonces no he vuelto a a mi casa, y se me quedan algunas costumbres de adolescente, que ahora con treinta y cinco años me cuesta mucho quitarme de encima, como es quitarme el abrigo, nada más llegar a la casa, quitarme los calcetines, nada más subirme al sofá. Y si ya fue revolucionario para mí la primera rumba que recogió su propia bolsa, su propio depósito y lo tiró a la basura. La rumba que saca un brazo robótico y va recogiendo calcetines, maravilla. Ahora, cuidado, porque a lo mejor confunde calcetines con ciertas cosas que va dejando mi perra de dieciocho años por ahí, y acabamos con un problema y tendríamos que ir a al soporte técnico. ¿No?
Amigo, bueno, ahí es que es que claro, los resúmenes también, Matías, porque tienes ese potencial increíble de la inteligencia artificial y a la vez los riesgos y problemas que pueden estar en el día a día y que a veces los científicos no no anticipan, ¿no? Muy bien, muy bien recogido, seguiremos hablando un poco de estos desarrollos de envidia en las próximas semanas, pero antes, antes tenemos a unos amics, a unos amigos del podcast que nos patrocinan esta semana, porque FreePeak era imagen, es imagen, hemos hablado mucho de imagen, pero ahora es algo más, Matías.
Ya a mí me encanta que FreePeak patrocine muchos de nuestros episodios porque, además, nos dan créditos para hacer nuestros experimentos, y con una de las últimas cosas que han incorporado, de hecho, creo que fue ayer, es el el modelo Kling, este modelo de vídeo del que hemos hablado muchas veces, porque es uno de los que está a mejor nivel, pues la versión uno punto seis, ahora puedes usarla para generar vídeo de tus imágenes o tus creaciones. Como yo tengo un Lora muy bien entrenado con tu cara, Antonio,
¿te
acuerdas que antes te he enseñado cómo serías tú si fueras reguetonero? Bueno, pongamos que estás, nos han dado un premio a mejor podcaster y pongamos que estás subiendo a recogerlo, ¿no? Con la camisita abierta, un poco de pelo en pecho, un colgantito, tus gafas de sol en interior, que también es una cosa muy de rockero. Pues, ¿qué pasa si esto se lo pasas a través de la suite de inteligencia artificial de FreePeak a el nuevo modelo de vídeo de Kleen? Pues he hecho una cosa, Antonio, te la voy a poner, ¿vale?
Mi gente, quisiera agradecer a Mattí por este premio, por Cinel, yo no estaría aquí. Lamentablemente, él no ha podido venir porque está en el box, no se salta ningún entrenamiento.
¿Qué tal? ¿Qué te parece? Es que es increíble la la realidad que saca el vídeo, y todo está hecho con FreePick al final, porque la imagen inicial del vídeo también está generada con free pick.
Pues para para ponerse a probarlo como locos. Y bueno, es verdad que además tienen una virtud que no es de esas IAs, no del todo bien hechas, que te quitan un poco de pelo. Esta está muy bien hecha. Y además, recordemos algo a nuestros oyentes. Si tú compartes podcast con alguien, le cedes absolutamente el cien por cien de tus derechos de imagen y esa persona puede hacer derivadas, obras derivadas de tu imagen, usarla para lo que quiera, crear vídeo, compartirlas en WhatsApp, compartirla en Instagram, compartirla en Twitter, sin tener que pedirte permiso alguno.
Esto es una licencia de de de de broad del podcast que que, bueno, a lo mejor hay gente que no lo no no lo conocía, pero es importante recalcarlo. ¿Cómo es importante hablar de las preguntas y previsiones de la IE en dos mil veinticinco? Que probablemente hubiera sido el tema principal de este podcast, podríamos no tirar la hora entera con todo esto, pero como hay otras cien cosas, vamos a intentar no gastar demasiado tiempo en las previsiones, y vamos a intentar ir un poco a las apuestas más firmes y claras que hay sobre la mesa.
Estamos un poco hartos de que, llegado el fin de año, todo el mundo se ponga a reflexionar sobre el año que ha tenido y lo que espera para dos mil veinticinco. Fíjate que ni siquiera hemos felicitado el año a los oyentes. Es cierto que a nueve de enero, felicitar el año, igual que decía Larry David, no está tan bien. Pero toda esta gente que sigue haciendo predicciones ahora que entra el nuevo año, ya cansa un poco, y por lo visto, en el mundo de la ILA, esto se ha se ha contagiado y todo el mundo está haciendo predicciones.
La gente no se cansa de predecir, no se cansa, no se cansa. Es más, está es divertido porque muchas veces hacen ese ese tipo de balance de mis predicciones, se han cumplido o no. Entonces, a a veces retuercen un poco la realidad, retuercen un poco el argumento para para salir mejor. ¿No? El tipo es como quien presume de ser el tío más guapo, pero claro, yo soy el tío más guapo que vive en un número impar de Málaga oeste en bloques de entre cuatro y seis pisos y cuya orientación da al noroeste.
¿No? Entonces tú dices, vale, sí, la has conseguido que tú decir que hubiese sido el tío más guapo, lo hayas logrado, pero hay como catorce asteriscos ahí a tus previsiones. Bueno, vamos a intentar decir la la la las que son más seguras, las que, un poco, las que son más cercanas a anuncios o planes que que vamos a ver intentar desarrollarse al menos que la de e hipotetizar sobre cosas que podamos adivinar. La que te decía, primera, Microsoft dice que en dos mil veinticinco va a invertir ochenta mil millones de dólares en centros de datos para ahí, para entregar modelos, para desplegar aplicaciones, para la inferencia, más de la mitad de inversión en Estados Unidos, algo fuera, recordemos que había planes de Microsoft ya anunciados y confirmados de de despliegue en España. Bueno, si alguien esperaba que dos mil veinticinco fuera el año del frenazo en seco sobre inteligencia artificial, creo que ya, por lo menos, tenemos por seguro de que alguien no va a parar, y ese alguien es Satia Adeladela, Matías.
Pero Satia también hizo como un vídeo rollo El Rey en el veinticuatro de diciembre, y el y como hacen los presidentes autonómicos en Nochevieja, estos hacen como el mismo vídeo institucional. Y no sé si es necesario que todos los CEOs hagan este tipo de de anuncios institucionales, pero pero bueno, también interesa ver hacia dónde va el mundo según Microsoft.
Pues, hay hay un señor al que he estado leyendo estos días, un tal Sant Allman, Paty, primero ha escrito un un post en su blog, interesante, pero también ha dado una entrevista en Blumbar, que también tenía su miga y su y su y su punto sobre el que hablar. Lo más interesante es que está un poco promoviendo un hype bastante desatado. ¿A qué me refiero? A que, si bien Sam ya había dejado claro y manifiesto que él ve una posible ágil, Sea como sea lo que lleguemos a la definición de AGI. ¿No?
Los próximos dos años, tres años, bueno, ha habido esos momentos de de ponerlo más cerca o más lejos. En el post de blog ya empieza a hablar de singularidad, como también se ha referido en Twitter, de la ASI, de la superinteligencia, la superinteligencia es un concepto que que, si no recuerdo mal, el primero que se acabó fue el este hombre de Oxford, Nick Bostrom, y que venía a decir un poco que una vez que la inteligencia artificial tenga el nivel humano o siquiera una mijita mejor y tuviera una posibilidad de automejorarse por esa inteligencia y ese tiempo de cómputo que le que le daríamos, pues, claro, generaría o se auto mejoraría hasta un nivel, pues, ya bastante mejor que el humano, mucho mejor que el humano y abismalmente mejor que el humano. Entonces, ya no sería una inteligencia de nuestra categoría, sino una súper inteligencia. Entonces, claro, tener a Sang Altman desatado con el hype, probablemente reforzado por por los buenos resultados que que ha dado tres, y hablando de singularidad, ¿no? De este concepto en el que, bueno, ese evento esperado que parta la historia de la humanidad en dos como algo totalmente disruptivo y que modifica la sociedad de una manera radical, como nunca se había visto, pues, claro, parece parece que con con miedo a pegarse con un muro y con miedo a que OpenEye no progrese en inteligencia artificial este año, no lo veo, Matías.
Sí, además Sam empezó como un poco incendiario el el dos mil veinticinco con un tuit, un haiku que publicó así un poco por la cara, Nier the Singularity, Anclear Witch Side. Estamos cerca de la singularidad, pero no tengo claro de qué lado, y no sé muy bien a qué se refiere, pero me gusta que haya vuelto la la palabra singularidad, ¿no? Porque llevamos tanto tiempo hablando de AGI, de ASI, y y perdimos el origen de tantas obras de ciencia ficción, que es la singularidad, que me gusta haber recuperado este este concepto. Y a lo mejor también están jugando un poco a amasar estos conceptos que se mezclan y que no están muy bien definidos por ese acuerdo que tienen con con Microsoft, que del que hemos hablado en episodios anteriores, ¿no?
¿No? Pues, mira, ahí, recuperando lo que hemos hablado en otros capítulos, porque esto tiene un desarrollo muy interesante en la entrevista a Bloomberg, es que es es muy ladino, es muy vivo el amigo Sam, porque le preguntan de alguna manera por el golpe de Estado por el cual es derrocado y sus nuevos planes de convertir OpenAI, de estar gobernada por la parte sin ánimo de lucro a que sea una empresa más convencional con ánimo de lucro. Hay cosas que dice que son muy interesantes porque él dice algo así que nos sigue moviendo lo mismo, que es construir la AGI y la nueva estructura con ánimo de lucro, él nos va a acercar a esta AGI. Pero claro, como sabemos y hemos leído los correos de la época original de OpenAI, de su germen, gracias a la demanda de Elon Musk y que discutimos en en capítulos anteriores, sabemos que no les movía solo la ágil, les movía también un elemento clave que era, tenemos que hacerlo antes que Dismind, Porque si DyndMind de Google lo consigue antes, tendremos una AGI dirigida por Google con los valores de Google, capitalizada por Google, y es muy importante que lo consiguiera OpenAI, porque al al ser sin ánimo de lucro, no sería propiedad de ninguna empresa que lo quisiera capitalizar.
¿No? Y se quisiera quedar con todo y que pudiera dirigir la inteligencia artificial de nivel humano o, como ya dices, en Alma, de nivel superhumano. Claro, como en la entrevista, toda esta parte en la que parte de la misión era que la inteligencia artificial general no fuera propietaria de una empresa, no la cuenta o se la salta. De hecho, era interesante que en el acuerdo de inversión inicial de Microsoft se dijera lo siguiente. Cuando lleguemos a la AGI, OpenAI ya nos tendrá un acuerdo de exclusividad de distribución a través de Microsoft.
Este acuerdo de exclusividad es que OpenAI está albergado en la cloud, en la nube, en los servidores de Microsoft, por un lado. Dos, no puede ser distribuido en los modelos de OpenAI, la API de ChatGPT solo se accede a través de OpenAI, que está Microsoft, o de Azure, que es de Microsoft. Entonces, tienen esta exclusividad Microsoft por ser el inversor más fuerte, más grande que llegó a este acuerdo con la organización. ¿Pero por qué se rompía en el momento de llegar a la AGI? Porque decía la antigua OpenEye que esa ágil no debería ser propiedad de una única empresa, no podía quedar solo monopolizada por Microsoft.
Por lo tanto, por lo tanto, era buena idea tener una cláusula de si llegamos ahora a AGI, se acaba la exclusividad. Bueno, a lo que hemos llegado es que Microsoft y OpenAI parece que ya tiene un acuerdo en definir cuándo se alcanza el lag. Esto que, en principio, es un debate, pues, casi de filósofos de la ciencia. ¿No? De de realmente cómo decidimos que una máquina tiene una inteligencia del nivel humano.
Pues, claro, el el acuerdo es que cuando OpenAI consiga unos beneficios de cien mil millones de dólares, pues entonces ya está. Es un problema, es un problema contable. Bueno, pues eso, ahí está la la inteligencia a nivel humano es ganar perras, esta es la mentalidad.
Pues está bien, porque se sabía dónde iba, que todo esto iba a acabar siendo un tema de dinero. De hecho, están ahora pujando por esa transformación de la empresa, pues en esa empresa no gobernada por una organización sin ánimo de lucro y van full a rentabilizar. Y sobre dinero quería hablarte, Antonio. Sobre dinero quería hablarte porque hay un tweet muy interesante que me pareció, cuando lo piensas en frío, igual un poco lógico, que es que OpenAI está perdiendo dinero con el plan Pro de doscientos dólares al mes, y uno puede pensar, ¿cómo puede ser? Que si hay bastantes usuarios pagando doscientos dólares al mes por usar un chat GPT un poco mejor, OpenAI esté perdiendo dinero con esos usuarios y con los del plus, que pagamos esos veinte dólares al mes, pues tengan margen y no pierdan dinero, sino que hagan dinero y lleguen a esos beneficios que están buscando.
Pues, si lo piensas en frío, tiene mucha lógica, porque el plan Pro tiene los límites mucho menos capados y la gente que está invirtiendo esos doscientos dólares son los usuarios que saben que van a hacer un uso más intenso de estos modelos, que por detrás tiene tanto cómputo que OpenAI está gastando por encima de lo que ingresa de los usuarios. Y de hecho, Joaquín Cuenca, que es el CEO de FreePeak, dijo que en FreePeak pasa exactamente lo mismo, que los usuarios del plan Premium Plus, ellos no tienen margen sobre sobre ese plan más caro, porque tiene sentido, dice Cuenca, que la gente que opte por ese plan más caro, que es el Premium Plus, queme más créditos de generación de imágenes, vídeo, etcétera, amortizando ese ese dinero que está pagando. Y a ellos por detrás les cuesta mucho dinero porque siempre decimos que la ILA es, a nivel de cómputo, muy costosa.
Sí, sí, sí, sí, claro. Yo creo que se quiere evitar, digamos, esa sensación de estar cronometando el servicio, bueno, declaración de abuelo de Internet. Me recuerda mucho a cuando no había tarifa plana y nos quejamos de que no había tarifa plana y necesitábamos la tarifa plana de Internet, algo a lo que estamos habituado. Pero bueno, que mucha gente vive todavía en el teléfono móvil, que tiene datos limitados, no tiene tarifa plana y por lo tanto, bueno, pues tienes que vivir siempre con ese ojo. De hecho, ahora mismo no estoy con el pro de Cloud, pero la gente que está encantada con Cloud a la vez muchas veces está frustrada con este modelo, porque incluso en el plan de pago, pues el uso intensivo está bastante limitado, ¿no?
Al final, probablemente sucede una cosa que que vamos a ver este dos mil veinticinco aquí, sin sin ánimo, con una predicción, que es que quien gane el ahorro en el coste de inferencia gana. Puede puede ganar el mercado en inteligencia artificial, si puede conseguir un servicio realmente rentable. De hecho, hace poco leía que que gran parte del motivo de que Google comprara carácter I, no es porque Google quiera entrar en el negocio de las novias virtuales, que probablemente tiene, bueno, es un negocio que puede existir, pero que que que en términos de relaciones públicas y de imagen, creo que a Google le le interesa cero, sino porque Klaractery ahí había llegado a un nivel de excelencia en la eficiencia de la ejecución de sus modelos, es decir, en este coste de inferencia, el coste de inferencia es cuando el modelo se está ejecutando, se acabó de entrenar, se lo damos, ofrecemos por vía cloud, vía vía cloud, perdón, vía PNV a a los usuarios y nosotros tenemos que crear la máquina donde se ejecuta el modelo. Claro, ese coste de ejecutarlo es donde realmente puede estar la diferencia, y lo que viene con OpenAI, con O3 que veíamos, era que se iba a disparar ese coste.
Por lo tanto, si ni siquiera en el modo Pro de doscientos dólares es rentable o uno, creo que O tres sencillamente va a ir a una escala de precios altísima.
Sí, pues mira, justo sobre esto quería hacerte un comentario. Hace un unos días, en algún documento de Microsoft, como que se filtró o se sugiere que GPT cuatro o mini tiene solo ocho billones de parámetros y el O uno mini tiene cien billones de parámetros. El O el el cuatro O mini es más pequeño de lo que la gente esperaba, pero claro, esto ayuda a que sea más rápido y también a nivel de costes para OpenAI más fácil de amortizar. Y luego, a nivel de usuario, no notas tanto la diferencia. Y a mí me está pasando estos días que estoy pagando por Gemini Advience para probar todo esto del Google Studio que han sacado y que pueden probarse el nuevo modelo dos punto cero que tiene también esta de razonamiento, que es más rápido que lo uno, es considerablemente más rápido que lo uno.
Y quizá los resultados, no sé si es que sugestionado de estoy acostumbrado a ChatGPT, sé exactamente la respuesta que me va a dar ChatGPT y cómo la va a formatear, etcétera. Quizá la respuesta me gusta más la de ChatGPT, pero el hecho de que sea más rápido en muchas situaciones lo agradezco un montón. Entonces, yo creo que tiene mucho sentido que la empresa que consiga el modelo más eficiente no solo va a ser la que haga más dinero, sino que el usuario, habiendo diferencias tan marginales entre modelos, lo va a agradecer mucho que el modelo sea más rápido y y que te conteste en segundos en lugar de hacerlo, pues, en medio minuto, una cosa así, ¿no?
Sí, pues fíjate, yo también estoy muy contento con una cosita de Google, de Jimin Air, que es el Deep Research, que es justo lo contrario de lo que tú dices. Es decir, Deep Research es, bueno, un servicio experimental que usa Gemini y que, básicamente, se dedica muchísimo tiempo a buscar en muchísimas fuentes de Internet, procesarlos todas, pensarse mucho la respuesta y el tras un rato bastante largo te da te da la la solución que él encuentra mejor. Me encanta, he hecho tres o cuatro experimentos y me ha ayudado un montón porque es como una cosa diferente. Es decir, yo ahora mismo cuando necesito información tengo la el modelo, se lo pregunto en inteligencia artificial y busco esa rapidez que tú dices y, pero espero eso, la inteligencia artificial en sus datos de entrenamiento tiene esto, tal, tal, tal, tal,
tal, tal, tal, tal, tal, tal, tal, tal, tal, tal, tal, tal, tal, tal, tal, tal, tal, tal, tal, tal, tal, tal, tal,
tal, tal, tal, tal Pero cuando digo quiero profundizar mucho en un tema más nicho, etcétera, y y y quiero, sé que lo mejor sería buscar en Google y leerme catorce fuentes y ir a la página cuatro. ¿No? De de los resultados de búsqueda, Esto, esto que ha sacado a Google de del Deep Research, es buenísimo para eso, para preguntar, pues realmente en la que tú quieres quieres profundizar un montón. Por ejemplo, yo le, pues, estoy ahora, he pasado unas unas semanas leyendo mucho a Philipka Dick y Stanislaw Lem, cuáles son las relaciones entre ellos, cuál es que dice la crítica, etcétera. Entonces, me hizo un reporte.
Entonces, ahí puedes preguntar todas las preguntas más difíciles. ¿No? Es cómo o gusta arreglar más a las chicas o por por qué no triunfó Enrique del Pozo. No, es decir, tú puedes ahí realmente dejarle que investigue y él te te te da un montón de de información. En fin.
Pero, Matty, probablemente hemos tardado mucho en llegar al punto en el que se viene el tema de dos mil veinticinco. Estábamos hablando de predicciones, de anticipaciones, y si hay consenso entre las empresas grandes de inteligencia artificial, es que dos mil veinticinco va a ser el año de los agentes inteligentes. Sí,
esto es lo que se veía venir. De hecho, voy a hacer un un breve inciso en paréntesis media, que siempre los los mencionamos y que son amigos, y antes cuando decía que nos han dado un premio a mejores podcaster, etcétera, ha sido en los premios paréntesis dos mil veinticuatro, o sea, que tendremos que en algún momento lo compartimos. Por cierto, otro de los ganadores es Sam Alman, el personaje del año, nosotros podcaster del año. Entonces, de alguna forma compartimos premios con Sam Alman. En paréntesis media que el, digamos, el director de este medio es Tony Estévez, una persona que conocimos en el, digamos, el director de este medio es Tony Estévez, una persona que conocimos en Barcelona, yo creo que definió esto que estás diciendo de una manera muy concisa, que es que dos mil veinticinco vamos a pasar de la IEA generativa a la IEA operativa.
Y esta esta palabra de la IA operativa, yo creo que ayuda mucho a la gente a comprender mejor qué significa la IA agéntica, qué significa un agente de inteligencia artificial. Es porque esa IA que ahora nosotros comandamos para que haga cosas, va a empezar a hacer cosas un poco por su cuenta y a usar herramientas por su cuenta sin que nosotros tengamos que pedírsela. Absolutamente.
Entonces, es prácticamente resumido en un en un párrafo. ¿No? El el el delegar la la ejecución de cosas y no solo la consulta de información, algo que, bueno, nos compartían por por Twitter, que un paper de Google nos ofrece en en decenas de páginas, bueno, es un paper white paper más operativo, más para ponerte con las manos en la masa y para ponerte a hacer esta parte de de los agentes inteligentes y y cómo cómo lo ve Google y qué características tiene. Yo creo que es interesante, solo voy a contar dos o tres cosas que, porque me estuve leyendo el paper con, me pareció muy interesante. Pues bueno, da da unas características clave que yo creo que ayuda mucho a tangibilizar y a entender de qué hay puede ir esto de la gente.
Uno, se supone que la gente es autónomo, es decir, no tiene a un ser humano en cada uno de esos pasos que tiene que dar para acometer la tarea, sino que una vez que le das la tarea y se la encarga, el agente se busca la vida de alguna manera. Es proactivo. Bueno, tú le das el objetivo a largo plazo. ¿No? De lo que tiene que acabar consiguiendo.
Quiero conseguir el mejor precio para mis vacaciones de septiembre del año que viene. Pues él tiene que ser capaz de tomar las decisiones, de planificar las acciones creándolas, inventándolas, pensándolas, como siempre. Esto es la versión antropomórfica de lo que está pasando ahí, pero para que no os podamos entender. Integre herramientas, es decir, para ejecutar el agente inteligente, pues tiene que hablar con otros sistemas, pues puede ser desde el API de un mapa para buscar una ruta, ¿no? Y puede ser un ejemplo, aunque muchos de los de los de las propuestas de agentes que tenemos sobre la mesa se basan en que va a usar el navegador y va a navegar como si fuéramos nosotros.
Y por último, tendrá cierta parte de aprendizaje adaptativo, es decir, ajusta las respuestas o las acciones en base a el feedback que le demos o los nuevos datos que vaya encontrando por el camino. Entonces, bueno, hay hay un montón de ejemplos que podemos dar, yo creo que la parte de que haga algo con el navegador por parte nuestra es es uno de ellos, lo típico de hacerme una compra, gestionarme un viaje, etcétera, son otros. Pero bueno, vamos vamos por partes, porque hay hay una parte de los agentes inteligentes que que es interesante por las declaraciones de nuevo de de San Alman y las de Jensen Juan de Nvidia. San Alma en su en su pose. Estamos seguros sobre cómo construir la AGI.
Creemos que en dos mil veinticinco vamos a ver a los primeros agentes incorporarse a la plantilla, atención a la expresión, incorporarse a la plantilla y cambiar materialmente el rendimiento de las empresas. Claro, lo de sumarse a la plantilla no suena a el trabajador tiene una herramienta nueva que es mulista. ¿No? Suena a otra cosa.
Joa, es que tengo la sensación de que últimamente nos están intentando colar por todos lados. ¿Cómo esto va a mejorar el mundo o cómo va a mejorar el mundo en general todas las ideas que tienen estos megaceos tecnológicos. Está el caso flagrante de de Elon. Groenlandia tiene que ser de Estados Unidos porque históricamente no sé qué, no sé cuánto. Ah, pero casualmente hay minerales en Groenlandia que podrían servir al sector de los coches eléctricos.
O yo quiero controlar o auditar las las agencias del gobierno, porque el gobierno, pues, es una cosa demasiado mastodóntica y muy ineficiente, y porque yo sé cómo hacerlo, pero casualmente mis empresas reciben mucha presión de estas administraciones. Pues Sam Alman es lo mismo, la IEA va a mejorar el mundo, no es que la gente se vaya a quedar sin trabajo, sino que vamos a tener más tiempo para para nuestras cosas y la gente que use la IEA, pues va a ser más productiva, etcétera, etcétera. Y ahora de repente dice que la ILA en dos mil veinticinco ya a lo mejor se puede incorporar en un en una en una plantilla de de un de una oficina. ¿En qué quedamos?
Sí, de hecho, le aterriza a Bloomberg, cuando le preguntas por los riegos, dice, vamos a hacer la inteligencia de nivel humano, te va a cambiar el mundo, superpoderes, no sé qué. ¿Qué piensa de los riesgos? Bueno, pues lo vamos a ir viendo, Sí, es una, siempre, siempre estamos preocupados, pero bueno, nosotros vamos lanzando ya sobre la marcha, ¿No? Bueno, oye, por cierto, Maddie, ahora que caigo. Miley es muy colega de Elon y ya que estáis con el tema de Groenlandia, a lo mejor podéis colar también las Malvinas.
Piénsalo, tú ahí en las conexiones que tengas en Argentina, que puede ser una ventana de oportunidad. Yo a Reino Unido lo había distraído con los escándalos, con la inmigración, así que es posible que sea el momento de de de las FARClands.
Cuando cuando aletea una mariposa al otro lado del mundo, a lo mejor perdemos las Canarias y se la dan a Marruecos. ¿No? Pues no, no lo sé.
No, no, no, no, las Marruecos, las Canarias son sagradas. Yo, vamos, eso, eso, vamos, me apunto la lejión, Mateo, me apunto la lejión. Bueno, el caso es que el Jean San Juan ha dicho lo siguiente, Claro, Nvidia, agentes inteligentes, claro, por supuesto, sí, sí, sí, los agentes inteligentes. Y una frase del amigo de CEO de Nvidia es, los departamentos de IT de las empresas se convertirán en equipos de recursos humanos para reclutar agentes de inteligencia artificial. Esto, claro, de nuevo incide en una misma visión.
Hasta ahora, la visión Copilot, yo creo que es la hegemónica en el integración de inteligencia artificial en el trabajo. Las herramientas de inteligencia artificial hasta ahora podemos decir que las asumíamos como que no sustituyen a trabajadores, sino que se encargan de tareas, ¿no? No completan trabajos completos, sino tareas pequeñas y atómicas, ¿no? Y que, por lo tanto, aumentará la productividad de un trabajador, pero nunca lo sustituirán porque realmente el workflow y la la la vida de un empleo es mucho más compleja, a no ser que tu empleo se reduzca a una sola tarea. Si tu empleo es una sola tarea, pues tienes más riesgo de que la IA pueda asumirla.
Pero lo que están diciendo, tanto Altman como WAN, es que estos agentes inteligentes, por su capacidad de planificar, por su capacidad de funcionar en base a objetivo y su capacidad, básicamente, de de de tener un nivel de inteligencia muy cercano al humano, pues, claro, se convertirán en suerte de pseudo trabajadores de las empresas y que, claro, si tú dices, quito recursos humanos que estáis ahí, no sé, organizando la cena de Navidad. ¿No? Que que haces cosas muy chulas. ¿No? Y dices, vengan, nos vamos todos al campo y nos tiramos en tirolina y y se preocupa de los trabajadores y que estén contentos y no lo que hace recursos humanos.
Lo cambias por informáticos que que lo que hacen es pasar por Hacking Face, a ver que hay gente inteligente, se Esto esto es un cambio, Matías.
Pues fíjate, Yolanda Díaz proponía la jornada, o sea, las semanas de cuatro días de trabajo, ¿no? Podríamos pasar a cero, y a lo mejor es incluso mejor, ¿no? A mí una cosa que me aterró muchísimo es un tweet. No lo estoy encontrando, pero el otro día vi un tweet de estas típicas cuentas aceleracionistas de Twitter, que ahora mismo han tomado todas las redes sociales, incluso en breve tomaran todas las de Meta, que decía, estamos desperdiciando el recurso digital más valioso que tenemos, que es grabar la pantalla de todos los oficinistas, de todos los trabajadores del mundo que trabajen con un ordenador, y aprovechar toda esa información, todas esas capturas de pantalla, todo, en realidad, toda la jornada de los trabajadores, todo lo que está haciendo, y esto puede ir a más, puede ir incluso a una cámara que esté grabando para los robots del futuro, cómo trabaja un operario de una fábrica todo el tiempo, ¿no? Pues todos esos datos, si no los estamos registrando, los estamos desperdiciando porque se podrían usar para para entrenar, entrenar, afinar e inteligencias artificiales.
Y eso sí que me me dio verdadero terror, porque yo pensaba, ostras, pues a lo mejor lo del lo del Microsoft, esto del recall, lo que te graban toda la pantalla, etcétera, me viene bien para acordarme de cositas. Pero en el fondo lo que estoy haciendo, a lo mejor lo que estoy haciendo, si activo esa opción, es entrenando a mi sustituto, ¿no? Viene todo el sentido.
Yo, el problema de ahí, mi sustituto dice, como trabajador del conocimiento, cada diez minutos tengo que consultar Twitter. Entonces, sería un problema que aprendiera de allí.
Claro, eso es lo que aprendería la IEA, ¿no? Dice, bueno, pues, son las siete de la tarde, voy a abrir x vídeos punto com, voy a relajarme un poco, ¿no? Y de repente tenemos días que son totalmente improductivas.
Pero recuerda ahí mi mi súper idea de triunfo de la redes sociales del futuro, que es poner GPUs en pelotas. Entonces, la IA sería mirar ahí a la última envidia ahí sin carcasa y ahí está, ahí está el futuro. Bueno, uniendo los puntos de de lo que llamamos de episodio, creo que aquí están destapando en este ciclo del hype de la inteligencia artificial, los grandes CEOs, un asunto que es cómo se justifica la trendísima inversión, la trendísima inyección de capital en infraestructura y empresa de inteligencia artificial. Y claro, el negocio no basta en cobrarnos veinte dólares por una suscripción, el gran negocio tampoco parece que esté en los doscientos, sino el gran negocio está en automatizar gran parte de los trabajos de cuello blanco. Aquellos que no son manuales, operarios, rendimientos económicos por lo habitual menores en la sociedad actual que los profesionales del conocimiento, y es a estos profesionales de conocimiento a los que se dirige, es algo sobre los que escribí alrededor de quinientos, y Carlos Soto del Confip tenía un artículo también muy interesante, es decir, la ILA, tal como la tenemos ahora mismo planteada, no va a por los empleos de los pobres, va a por los empleos de los ricos, bueno, de los ricos quitando los fontaneros que son millonarios en potencia.
Sí.
Claro, el, claro, que tú ya, si si vamos al mundo aceleracionista de esta gente, una empresa que se basa en que sus empleados son IAs, no sé, a mí me me genera mucha intriga o que cada vez tenga más empleados IAs, que al final son un montón de automatizaciones de software, no es más fácilmente igualable, replicable, porque no tienes toda la complejidad de la gestión del talento, la búsqueda del talento, la competencia por el talento, porque, básicamente, los agentes no son exclusivos. Es probable que no se basen en conocimiento. ¿No? No tienen esa barrera de entrada del conocimiento interno de la empresa que está ahí y que es gran parte de su valor. Es decir, si tú coges una una organización que se basa en que tengo cuarenta agentes inteligentes, pim, pim, pim, pim, pim, ¿cómo de difícil no sería competir con otra que hace justo lo mismo, tiene los mismos cuarenta agentes inteligentes y pim, pum, pim, pim, pim, pim, no?
¿Cómo cambiaría eso al entorno competitivo? Es una idea que me apareció el otro día y que, bueno, no sé, no sé cómo resolver, Ramati, porque, de entrada, no sé si esto realmente estamos hablando de una pura ficción, ¿no?
Bueno, a lo mejor da esto la oportunidad de de brillar a la gente que piense un poco fuera de la caja. También te digo que yo tengo una explicación más sencilla para todo lo que está pasando, y mi explicación, la navaja de Okam de Matías, es que mi generación está maldita. Mi generación está maldita es una generación que tiene mala suerte por defecto, y es una generación, pues, que sus abuelos y sus padres están vendiendo los pisos que compraron por dos duros a cuatrocientos mil euros. Es una generación que inventa, de alguna forma, un nuevo feminismo, una nueva teoría de género que logra, casualmente logra penetrar y trascender en la sociedad. Y ahora, de repente, eso ya, hasta Mark Zuckerberg lo está dejando atrás, es una generación a la que le han dicho, ¿por qué no haces un bootcamp de programación?
Eso es el futuro y siempre va a haber trabajo. Y de repente, todas las IAS, incluso las que son gratuitas, programan mejor que ellos, y ahora con los agentes de IEA, pues, a lo mejor una IEA los sustituye, pues, es la generación de la mala suerte. Entonces, yo a la siguiente generación, yo le diría, no hagas un bootcamp de programación, pues, vete a a aprender a a la obra, porque yo tengo el ejemplo de Manolo. Manolo lo he mencionado alguna vez. Manolo es el tipo que vino a arreglarme la persiana.
Entonces, es un tipo, pues, muy afable al que yo le pedí que me arreglara la terraza porque mi terraza está agrietada por los movimientos del suelo y tal. Claro que sí, que eso lo hacía en cero coma, que yo lo podía ayudar, no sé, no sé cuánto. La cuestión es que Manolo cada tanto me escribe un Watson diciéndome que tiene mucho trabajo y que no va a poder ser, que ya me ya me llamará, y me sigue diciendo que ya me llamará. Y yo me lo creo, yo me creo que Manolo tiene tanto trabajo que mi terraza es como su prioridad número quinientos. Y probablemente Manolo esté ingresando más dinero de lo que la gente que se está estudiando ahora un bootcamp vaya a ingresar en el futuro próximo.
Ya. Bueno, todo esto, pues, es un diagnóstico, pero te falta decir que soy la generación con mejores memes de la historia, es decir, ponlo todo en la balanza, no, o sea, está en negativo, no veas solo lo peor, es decir, convives con grandes talentos como Omega o los Javis, Has podido, ¿no? Tener todo esto. Entonces, bueno, por cierto, ahora que que los Javis son odiados, ya no me caen tan mal, yo siempre he sido anti javis. Fíjate, eso con Pablo Motors no me ha pasado, porque yo siempre he sido anti hormiguero.
Y ahora que estaba un poco en la palestra, todo el mundo le mete caña para todo el mundo, todo el mundo de izquierdas. ¿No? Tampoco he conseguido que me caiga bien Pablo. Pero con los hobbies, en cambio, estoy moviéndome un poco a aceptar su derecho a la vida, a oír que que puedan convivir en nuestra sociedad poco a poco. ¿No?
Entonces, pasito a pasito, tolerancia, buenos valores, siempre monos estocásticos, pero, pues, además de tener los memes y tener los hobbies, otra cosa que te encanta, que que te hace disfrutar, es que hablemos de legislación en el podcast, Mati. Tenemos que hablar de leyes. Porque España España está que se sale.
Pero, además, de de verdad, porque se está hablando en muchos frentes de de España, Creo que internacionalmente la gente se está riendo de la agencia de Coruña de IEA, que no entiendo por qué, porque en realidad esto se planteó y se aprobó hace ya bastante tiempo. Y también en otro frente que nos interesa mucho, que es el de el de las imágenes, las obras protegidas con derechos de autor. Esa es una cosa que creo que es un cambio que puede ser positivo, ¿no?
Bueno, hay diversidad de opiniones. Vamos a contar un poco, porque el Ministerio de Cultura de Cultura ha sometido a consulta pública, que que los afectados se manifiesten, un proyecto de ley que plantea lo siguiente. Las empresas de inteligencia artificial pueden usar sin pedir permiso previo a cada creador sus obras, libros, canciones, películas, artículos, para entrenar a sus guías. Claro, el proyecto de ley incluye un sistema de compensación que, bueno, digamos un tipo de licencia llamado de colectivas ampliadas, que de manera generalizada permitirá a estas empresas pagando la compensación económica, pues utilizar las obras con con derecho de autor. ¿Vale?
Entonces, habría una suerte de canon, una empresa, una organización, probablemente Cedro, que recogería el dinero de la empresa tecnológica y la repartiría entre los creadores, pero hay diversidad, hay diversidad de opiniones. ¿Vale? Hay colectivos de artistas que rechazan el proyecto de ley que, bueno, ahora entraremos en sus argumentos y organizaciones y colectivos que parecen que que lo ven que lo ven bien. Claro, aquí siempre partimos del pecado original, que es que los modelos de inteligencia artificial que estamos utilizando todos hoy, se han usado con contenidos abiertos en Internet. Con copyright, bueno, con derecho de tutor, todos las obras, porque todas las obras tienen derecho de autor, no es un derecho inalienable del creador, pero con derechos de copyright, con derechos reservados sobre su el posible uso que tengas ahora.
Hay un debate legislativo, judicial, jurídico, sobre si es usar entrenar para entrenar una obra vulnera las leyes de propiedad intelectual, es algo que en Estados Unidos los juicios lo están ganando las expras de inteligencia artificial, no los creadores que denuncian, pero que en Europa, como hemos hablado en varios episodios y en España, no está tan claro. ¿A dónde vamos con la ley? Pues a que, básicamente, este gobierno es bastante proía, así, a pesar de las críticas y a pesar de los mensajes catastrofistas, no, no, para este este gobierno en concreto es bastante proía, quiere impulsar mucho la IA en lo privado y en lo público, y esta ley es muy propia empresa de empresas artificial, porque te da una seguridad de que pagando no vulnera los derechos de autor de los creadores, y y y, dos, no tienes que pedir permiso de negociar uno a uno, que es una tarea titánica para los millones y millones de datos que necesitas. Por lo tanto, ahí es donde está ahora mismo la la situación.
Yo no quiero hablar de de parte de los artistas, porque yo lo único que sé es hacer con el seis y el cuatro la cara, pues, hago tu retrato, ¿no?
Bueno, tú eres un creador, es decir, tú tú estás afectado por la ley como
Bueno, como como podcaster, que hoy en día todo, en todo español tiene un podcast, podría añadirse la constitución también, porque al final todos somos podcasters. Yo lo aceptaría, yo no no iría a la guerra, yo aceptaría estas condiciones porque creo que aquí tienen todas las de perder. Me parece que es una solución a un problema que, de otra forma, nadie vería dinero, nadie vería dinero en en España, porque al final se van a seguir entrenando las IAs, y ya lo han hecho con todo el contenido que sea accesible digitalmente y con el que está escaneado. Recordemos que Google ha escaneado todos los libros del mundo, ¿no? Con los de Google Books.
Me parece una solución que se puede llegar a este consenso y que la el artista se puede dar, pues, por satisfecho, porque yo, ¿hace cuánto que no grabo un DV? Hace como veinte años. Sin embargo, pago el canon, sigo pagando cada vez que compro algo, pago cánones, no sé ni a ni a ni por qué los pago, pero
Hay asociaciones de de de organizaciones que se han manifestado en contra de la propuesta, la alianza visual, la hace traductores, Fadip, Faced, Unión de Correctores, en fin, hay bastantes grupos de de creativos y de artes visuales que plantean una cosa de Máximo, que dicen, lo primero hay que hacer es quitar los modelos actuales y que no ven que el acuerdo que plantea el Ministerio de Cultura sea una garantía. Porque claro, en el diablo está en los detalles. Cuando lleguemos a la práctica y cada uno vea que sus datos son una diez mil millonésima de los usados por entrar a un modelo y te corresponde, una diez mil millonésima de lo que vaya a pagar ese modelo los creadores, pues veremos que aquí la rentabilidad o lo o lo o el modelo económico para el creador individual es muy débil, aparte de que hay una división muy difícil de hacer. Es decir, Rosalía y yo, que ya vimos que estamos en un mismo plano prácticamente, ¿no? De ahí un fuerte paralelismo entre nosotros.
Claro, en cantidad yo he escrito más que Rosalía. Entonces, en cantidad me corresponde, porque he dado más contenido de entrenamiento, me corresponde más dinero a mí que a ella, pero ella cualitativamente puede, no sé por qué, a lo mejor se le ocurre que cualitativamente su aportación al modelo es mejor. Por lo tanto, cualitativamente, Rosalía puede pedir más perras que yo a OpenAI, Jiminai, Google, Microsoft, etcétera. Bueno, ¿cuáles son las reglas que va a establecer Cedro? Y también muy importante, ¿qué pasa con aquellos aquellos artistas fuera de las entidades de gestión?
¿Sí? Aquellos autogestionados que, pues claro, no están de acuerdo con el modelo de, bueno, entidades de gestión, en base a compañía, Cedro, Obama, lo que sea que que te representa y que te mete dentro del colectivo por unas reglas que con las que tú a lo mejor no estás de acuerdo, pues se quedan un poco fuera también de de este pastel, y parece que no pueden ni ni siquiera opinar. ¿No? Entonces, es un insulto que tiene poca solución, como tú dices, Mathi, que creo que tiene un poco recorrido, y que un invento español, la Agencia Española de Supervisión de la IEA, que se pone en marcha, a lo mejor, a lo mejor tampoco es capaz de solucionar, Matthew.
Sí. Es que yo lo de la agencia me tiene un poco anonadado. Se le está dando una caña en todo el mundo, un poco a ocupado por por también por el sector liberal de España, porque, pues eso, que tienen ochenta empleados, creo que van a contratar ochenta empleados, pero todavía no tienen ni siquiera la página web, y que en Europa la regulación siempre se pone antes, que las empresas punteras, que no hay ninguna empresa puntera de inteligencia artificial en España, y se le está dando mucha caña. Pero bueno, no lo sé, ¿ves? Esto ya se estableció hace tiempo.
Sí, esto vamos en Europa. Nosotros a lo mejor hemos creado antes, pero los organismos de cada país se irán creando. Esto es, pues eso, una agencia con su burocracia, con su personal, que, bueno, se va a dedicar a inspeccionar las prácticas prohibidas por la IEA, a establecer sanciones, virtud de esa ley, y que, por lo tanto, estamos dentro de la Unión Europea, tenemos la EIA y toca hacerla a esa, a a ESA, a ESA. En fin, claro, yo creo que estamos en un momento, creo que cuando vimos lo de informe Draghi era muy patente y creo que toda la corriente de Miley, Trump, en el que hay una reacción, entre comillas, occidental a recuperar o a priorizar el desarrollo económico, el desarrollo industrial, el desarrollo tecnológico de innovación y la inteligencia artificial ahí ocupa un papel nuclear. Dentro de esta cosmovisión, se percibe siempre a Europa como la reguladora, la que es más prudente, la que teme más al riesgo y la que, por tanto, impide o o o sanciona o de alguna manera penaliza cierta parte del desarrollo económico por esa burocratización y por esa búsqueda de la seguridad.
Y, bueno, claro, yo leía todavía a a Ricardo Balín, dice, mira, si queremos ser punteros en IEA, lo que necesitamos no es más burocracia y más regulaciones corriendo y más agencia, ¿no? Como la como la que estábamos comentando, sino que lo que necesitamos es, pues mayor flexibilidad para las empresas y, básicamente, energía barata. ¿No? Es lo que no vendría bien, que que español está mal posicionada por la renovable. En definitiva, creo que estamos inmersos en ese debate, que cualquier cosa burocrática, legal, de estado, legislativa, pues va a ser percibida como otra traba más en el camino, y bueno, ya hemos discutido mil veces la AIAT, creo que hay cierta parte de arrepentimiento no confesado sobre sobre esto, y que en esta llamada de urgencia de no quedarnos atrás en inteligencia artificial, pues tenemos un problema, tenemos un problema, porque ya vemos que los mejores modelos no se crean en Europa, que no hay empresas mucho menos en España, que tengan modelos fundacionales potentes, competitivos y que pueden estar ahí y que si además sumamos que, bueno, la legislación aquí va a ser bastante más restrictiva, pues tenemos tenemos una posición de de salida, no ya de salida, porque se salió hace tiempo.
Es decir, salimos más tarde, salimos peor y tenemos más vallas para saltar, ¿no? Entonces, bueno, ya ya veremos en largo plazo eso cómo de bueno fueron estas decisiones, pero creo que todo el todo el, ¿no? El barullo comentado a través de alrededor de la agencia, obedece a este momento sociopolítico también, ¿no?
Yo creo que ahora que vuelve la monarquía, y una vez que estemos gobernados por el emperador galáctico, supongo que será Elon Musk, y en España el regente sea Martín Barzarski, pues todo esto no nos va no nos va a preocupar. Mi duda, por ponerme un poco del otro lado, es, la gente quiere las mejores empresas, las empresas punteras en España. Nosotros en Málaga, pues, como vivimos en boom tecnológico, vemos cuáles son las carencias. Falta tejido en la universidad, falta talento en en volumen, sobre todo, porque la universidad no está mal y la gente en España es, pues, gente con mucho conocimiento, pero si en Estados Unidos te ofrecen un sueldo de cien mil, de doscientos mil, bueno, ¿qué dejas aquí? Te vi muy bien, sí, pero
Sí, es complicado, es complicado. Bueno, pero ahí ya entramos en temas económicos todavía de mayor calado, en el sentido de que las sociedades que nos estamos envejeciendo tenemos que decidir cuánta parte de la economía productiva capta el estado para pagar nuestras pensiones y nuestro sistema de salud cada día más caros. Porque tenemos población más envejedida que requiere más más medicina, más sistema de salud, más gastos sanitario y, bueno, vives más años en en jubilados y, por tanto, si queremos mantener su poder adquisitivo, más puntos del PIB se van a eso, ¿no? Entonces, si tú ahí decides que esto es lo prioritario y le pegas cada bocado más grandes con subidas de impuestos a empresas, individuos, para mantener ese estado del bienestar a pesar del cambio demográfico, pues tendrás unas economías, entre comillas, pues pues menos fuertes o menos, con menos crecimiento y con con problemas de, qué bueno, que estás captando de las generaciones actuales para pagar a la a la generación anterior. Dicho esto, que, oye, cuando llegas a jubilado y no tienes palancas para mejorar tus ingresos, que tu pensión pierda las poder adquisitivo es realmente una, perdón, una una putada.
Bueno, el caso es que otras economías que son menos garantistas en el sistema sanitario, como Estados Unidos, y que graban menos a la economía actual para subvencionar los retiros, etcétera, y son más búscate tú la vida, pues probablemente tengan un crecimiento económico mayor y una calidad de vida, sobre todo en las clases bajas y en las clases más mayores, pues bastante peor. En fin, es es un dilema, hay sociedades que parece que han elegido, ¿no? Que ya hemos hablado de ellas, Estados Unidos parece que tienen una opción bastante clara de lo que quiere ser. Europa creo que ahora mismo está en un poco de crisis de identidad. Después de escaperorata socioeconómica, Mathi, yo creo que nuestra audiencia, lo que se merece, lo que realmente quiere, lo que realmente puede valorar es un puerta grande
o enfermería.
Muy bien, te traigo una para que tú te da valores. Sorpresa. Te traigo una.
Bien, bien.
Te traigo una. Esta es una noticia reciente, se ha descubierto que el terrorista del cibertruck, el que se voló con una cibertruck, con una camioneta de Tesla en la puerta del hotel de Trump en Las Vegas, usó ChatGPT para planear el ataque. El ataque, ciertamente, no salió del todo bien porque el bloque de de acero inoxidable, que es el Cybertruck, paró, amortiguó un poco la explosión y al final los daños fueron mínimos, pero usá ChatGPT para el terrorismo, ¿cómo lo ves?
Claro, es que depende del rol de ChatGPT aquí. Es decir, nos tenemos que creer que fue un mecanismo meramente utilitario y práctico, como está dando a entender la prensa oficialista, o en cambio no ves hipotéticamente, ¿vale? Plausiblemente, que siendo una herramienta de OpenAI no es mucha casualidad que fuera la utilizada para atentar contra Trump y Elon Musk, menos cavando de más la imagen pública. ¿No? Creando dudas y pánico sobre la compra de ese coche perfecto y virtuoso, como es la Cybertruck plena de elegancia y plena de buen gusto.
¿No crees que es mucha casualidad? Yo, claro, es que estamos en tiempos de desconfianza respecto a la prensa oficialista, Mati. Entonces, yo lo dejo ahí.
Sí, creo que si le pones esto de arroba Elon Musk, te retuitea y te pone concerning, ¿no? O alguna alguna de esos
coletilla. Bueno, yo le voy a
dar enfermería porque bromeamos, pero estas cosas son un poco lamentables y cada vez hay más picados inclasificables, ¿no? Como como este señor, que que, bueno, necesitan tratamiento. Pero te traigo yo a otra persona importante de inteligencia artificial sobre su Navidad y cómo ha podido pasar estos estas semanas entrañables. Me refiero a Joffrey Hinton. Joffrey Hinton, el padrino de la inteligencia artificial, lo han llamado muchas veces, el abuelo de la IA también.
Sí. Claro. Convertir en cenizo, ¿no? Porque lleva ya este hombre dando la lata con que offly a peligro.
El amigo Joffrey nos, unas castañuelas, unas castañuelas no es el amigo, ¿Qué es lo que último que ha declarado y recogía The Guardian? Pues que hay entre un diez y un veinte por ciento así, ¿no? Más o menos, ¿no? Puntito arriba, puntito abajo, de posibilidades de que la IA provoque la extinción del ser humano en tres décadas, ya que, explica Hilton, los cambios se producen con rapidez. Entonces, claro, mi reflexión, Mati, es, ¿cómo habrán vivido las navidades los nietos de Joffrey Hinto?
Es decir, estos chicos que esperaban, vamos a ver quién han traído los Reyes Magos en casa del abuelo Joffrey, Jeff, claro, ¿Qué qué me habrán traído? Me han traído el barco pirata, la Nancy, la colonia de DJ Mario. ¿No? Están ahí buscando en el árbol del abuelo, y de repente llega Joffrey y dice, no, no, no, aquí tenéis vuestro kick de prepers. ¿No?
Por si viene el apocalipsis de la Ia. Entonces, tienes una pala, una una mochila de crossitero, cien latas de atún. ¿No? Entonces, claro, la la gente, la gente no ve el trama de esa familia, porque la la las nietas y los nietos preguntándole, bueno, abuelo. ¿Tú qué prefieres?
¿La lachuzo Pedroche? ¿No? Y ahí para para para, ¿no? Para la noche vieja. Y él y él, no, no, vamos a morir todos.
Claro. Es que eso es una bajona, el mundo el el mundo dumerista es un mundo de la bajona. Entonces, ¿tú qué piensas de la Navidad de Joffrey Hinton y sus nietos?
Pues que el año que viene no van a ir a casa del abuelo por por Navidad, yo creo. También hay que recordar que no solo Joffrey Hinton es un una de estas personas que pronostican el apocalipsis dentro de solo treinta años, porque Sam Alman ya era preferante de ser CEO de de OpenAI e iba con su mochilita. Entonces, más de uno tendrá ya un búnker preparado y Roger Net Flanders. Pero fíjate lo que pasó con Net Flanders, él era el único que tenía un búnker en Springfield, y al final todos los vecinos llamaron a la puerta para para poder entrar. Entonces, no sé, no me atrevo a hacer, pues, un vaticinio de quién va a tener razón, pero eso de un veinte por ciento en en tres décadas, no lo veo, Le temo más a la al final termonuclear que hemos imaginado desde la guerra de feria que a que a que nos maten los las rumbas estas compras robóticos.
Sí, habrá que mirar en los mercados de apuesta cómo va la cosa, que hará ciertas más que los expertos, Matías. Bueno, pues nada, enfermería, amigo Hinton, tienes que mejorar un poco tu punto de vista sobre el ser humano. Te traigo una gran oportunidad para nosotros, Mati, te quiero atraer a mi mundo, te quiero atraer a mi lado de la sociedad. ¿Cómo cómo voy a hacerte esto? Pues a partir de los vaticinios de Jing Fang.
Este científico de Nvidia abunda en un tema que hemos tratado en el episodio. De repente, vamos a tener robots avanzados por todas partes, rodeándonos, ayudándonos. ¿No? Facilitándonos la vida, haciendo nuestros trabajos. Claro, ¿qué dice Jim?
Nuestros hijos crecerán como nativos robóticos, no sean nativos digitales, sino que nosotros ya seremos la generación de los inmigrantes robot hacia un nuevo mundo, atención, en el que la guía física es omnipresente. Del mismo del mismo modo que nuestros padres son inmigrantes digitales que aprenden a utilizar la tecnología en pantallas táctiles de quince centímetros. Es un viaje tanto de invención de tecnología de ciencia ficción como de reinvención de nosotros mismos. Todo lo que se mueva será autónomo. Entonces, mi punto es con esta vaticinio del amigo Jim Fan, es que esto nos da una gran oportunidad a Matti para ir trabajando el argumentario de de de de puréta cebolleta.
Atención. Claro, tú cuando tengas tu tus cincuenta años, tus sesenta años, te ahí rodeado de chavales, de tus hijos adolescentes o jóvenes, claro, tú puedes explicarle, en mis tiempos te tenías que que planchar las camisetas tú mismo, ¿no? La la lo lo los chavales ya no sabéis lo que es cogerle el punto al gazpacho, ¿no? Porque llega el robot y y viene todo programado. Entonces, tenemos que, ya podemos ir pensando todas esas cosas que nosotros, de las que podemos presumir nuestra superioridad moral sobre la siguiente generación, acostumbrada a mancebada gracias a los cuidados y trabajos robóticos, Matías.
Pues fíjate que si, imagínate que soy padre y en cinco años, pues tengo un niño de cinco o cuatro años, ¿no? Yo creo que me posicionaría del lado de Jinfan a favor de los nativos robóticos.
Sí.
Imaginando que en cinco años ya haya robots entre nosotros, porque, claro, ¿qué ocurre con la gente de mi edad, más o menos? Pues que no quieren darle el iPad al niño todo el tiempo para que se calle, en el restaurante no quieren darle el móvil, pero acaban cediendo. ¿Pero qué qué alternativa ofrecen estos padres a los niños? En realidad, no ofrecen nada interesante. Lo último que se ha hecho viral en Tik Tok es una mujer que le puso una tele con VHS a a sus hijos pequeños para que vieran, pues las películas de Disney que ella tenía en cintas de VHS.
Claro, para un niño de hoy en día, estas películas son como como ver algo en slow motion, ¿no? No hay acción, pasa todo muy lento, no hay otra ventana al lado con una escena de padres de familia, faltan cosas, ¿no? Entonces, yo creo que esto de los robots va a venir muy bien a a los padres, porque tú no tienes tiempo para ponerte a jugar con el niño físicamente, o no sé, juegos clásicos de recreo, pero los robots van a tener todo el tiempo del mundo. Entonces, yo creo que como padre te va a venir bien esta generación.
Sí, claro. Y además, pues decirle, mira, educa a a a mis hijos como si fueras, no sé, un referente educativo que tú tengas, Mati. J pelirrojo.
Bueno, estoy siguiendo muchos de sus consejos a nivel a nivel crossfitero, tiene tiene su punto.
Claro, o sea. Puedes educar a tu hijo en el crossfi desde pequeño con con J pelirrojo, en robot, claro.
Claro, pues
Que estos son dos ventajas. Esto es esto es puerta grande tan claro, Mati, es que se se se vende solo.
Sí, sí, sí, sí.
No, sí, sí, tú puedes obtener de todas las tipos de personas, por ejemplo, de J pelirrojo, puedes obtener enseñanzas positivas, o sea, a nivel de rutinas de ejercicio, de alimentación. Y si tú puedes discernir entre cómo se comporta él con sus parejas o o otras otras aspectos de su vida,
bueno, suena.
Pues, al final puedes aprender de todo el mundo, Antonio, en inglés.
Sí, sí, sonar. La la ventaja sería que, llega el niño de cuatro años o de cinco años por primer día al colegio y le dice a la profesora, no, no, estoy dispuesto a conseguir mi mejor versión. Entonces, claro, el niño viene bien educado ahí, como viene enfocado para evitar, ¿vale? Bueno, pues Puerta Grande a a los amigos robóticos que nos ayudarán en todo y nos permitirán hacer presumir de nuestra juventud sacrificada. Y te traigo un último personaje, Matty, que puede que nos quite la venda de los ojos.
A ver, hemos hablado de Hinton y su versión dumeriana apocalíptica, pero no es el único, porque Vitalik Buterin, el creador de Ethereum, también está preocupado. Es un muchacho que, entre otras cosas, ¿no? De crear criptomonedas de alcance global y y esas cosas que se dedicará Vitalik, pues también está concernido, está preocupado sobre el aceleracionismo y hacia dónde vamos, y por lo tanto propone que por si acaso. ¿No? No vaya a ser que, pues necesitamos un botón de pausa suave global, atención, que reduzca la computación mundial en un noventa, noventa y nueve por ciento, como le gustan los porcentajes a esta gente.
Entonces, claro, tendremos ese botón y en uno o dos años, más o menos, un periodo crítico, pues paramos todo esto, ¿no? Quieto parado, ¿no? Que quede energía lo suficiente para las cosas importantes, ¿no? Para centrales eléctricas o para jugar al balatro, ¿no? Que cosas clave.
Y dice, mira, lo paramos un par de anillos y así nos preparamos, preparamos a la humanidad. ¿Cómo? Tenemos esta advertencia de lo chungo que viene, de de de la problemática que tendremos que afrontar y este estos años, pues, nos preparamos un poco. Esta es la visión de Vitalik, que atención, Matte, ya me he dado cuenta de qué palo va este tío. ¿No te parece que todo esto de el botón de pausa se parece mucho al BDSM, a las relaciones sádicas, sexuales, en la que tienes una palabra clave, en la que he pasado de disfrutarlo a llegamos a territorio prohibido?
Pues realmente el BDSM puede ser la solución a el apocalipsis por inteligencia artificial, y Vitalik nos está abriendo los ojos, Matías.
Fíjate fíjate, Antonio, creo que acabas de dar con la clave. ¿Por qué no funcionó la carta de Joffrey Hinton, Elon Musk? Porque era una carta, ¿no? Y y nadie quiere leerse cartas hoy en día. Y el, de hecho, Elon Musk, que, pues era mentira, porque ahora tiene los datacenters más grandes para entrenar su propia guía.
Pero si a la gente, en lugar de una carta, le das le das una una una metáfora, una imagen visual fácil de entender, como, pues, un botón rojo, una contraseña en un juego osado masoquista. Sí. Yo creo que la gente por ahí va a entrar y van a entender perfectamente por qué la visión aceleracionista de la IA es un peligro.
Claro.
Porque, claro, el aceleracionista, como dice Vitalik, piensa que acelerando lo que hay al final, es un mundo bueno, es un mundo en donde todos somos felices, todos tenemos mucho dinero, una renta básica universal, etcétera. Pero el Vitalik dice, no, ojo, porque si este botón de pausa, o en el caso de Antonio, esta contraseña en juego sexual, sadomasoquista, no la tenemos para pararlo todo, pausarlo todo, hay dos posibilidades, o que tengamos ese mundo feliz, o que hayamos ido tan rápido que sea un desastre para la humanidad. Geoffrey Hind todavía estaría muy de acuerdo, solo que a lo mejor no sabe lo que es el el BDSM.
Ya, bueno, pues yo creo que Vitalik seguro que piensa en un botón que sea como un clítoris gigante y que él pueda pulsarlo en un momento dado, y que he topado el mundo, vamos a prepararnos a ver a ver bien las cosas importantes, ¿no? Bueno, pues es verdad que yo no soy tan temerario como el amigo Buttering, pero es que esta idea es tan buena, ¿no? Es tan tan potente, tiene tiene esa ese ese gancho tan poderoso como bien has explicado, que yo estoy por darle puerta grande y decir, bueno, pues, vamos a probar que que qué mal estaría, ¿no? Tener un botón ahí gigantesco con funciones de alcance global, pues por si acaso. Las cosas esas te dan tranquilidad.
Es decir, aunque todo vaya, si van mal, pues las usas y si van bien, pues estaba ahí y te da, vas como más tranquilo por el camino, Matías.
Sí, sí, sí, totalmente. El mundo necesita necesita una pausa. Por eso yo no puedo jugar juegos online, porque no se pueden pausar. Yo necesito a veces toman un respiro y ir a por agua a hacer pis y después seguir disparando. Me parece que el mundo también le vendría bien ese botón.
Pues con este mensaje positivo de una vida un poco más lenta en dos mil veinticinco, pues, nos tenemos que despedir de de nuestra audiencia, a la que deseamos un feliz año, aunque lleguemos tarde, y que, por supuesto, vamos a estar aquí contándolo todo. Hoy no hemos dejado como cincuenta y cinco temas fuera del guion, pero volveremos la semana que viene.
Pues nada, nos hemos resuelto si somos madre del achuso de Pedroche, ya os contaremos otro día. Abrazo.
Chao, amics. Quiero
aprovechar este momento desde el fondo de mi corazón para decir que me disculpo absolutamente con nadie. Nosotros somos los dioses y al que no le guste, que nos va a
Hola muñequita bonita, vengo a demostrarte lo que siento por ti, mamita. Eres lo que hace que mi corazón haga boom boom. Haz el boom boom en mi corazón si esta noche te party. Yo
Como que, pues, hoy día con esto, con la Internet, la Internet se proyecta, ¿sí me entiendes?