✉️ Únete a nuestra comunidad en Telegram http://t.me/monosclub
0:00 Lola Lolita y la superabundancia que traerá la IA
3:23 Cuál es el límite de los modelos razonadores
7:07 Aprendizaje por refuerzo manual
15:25 Refuerzo automático con recompensa verificable
18:22 La IA ganará primero el Nobel y después el Pulitzer
25:46 Formación en IA y data science con Datamecum
27:52 Apple dice que los modelos razonadores no razonan
36:00 La IA no se hace sola, hay que hacerla con Nvidia
38:10 o3 Pro de OpenAI ya tiene grandes fanboys
43:45 La singularidad llegará de tranquis
50:18 Resulta que ChatGPT apenas consume agua
55:25 Apple presenta Windows Vista
57:00 Coger un Waymo es más emocionante que nunca
58:23 Zuckerberg le pone los cuernos a Yann LeCun
1:01:11 Puerta grande o enfermería
1:18:02 Canción de cierre: quién pudiera ser de carne
🧑🎓 Patrocinador: ¿Quieres formarte en inteligencia artificial con garantías y sin arruinarte en el intento? En Datamecum, profesionales que implantan la IA a diario hacen formación online en directo con contenidos 100% prácticos y orientados a la empleabilidad.
Al menor precio del mercado: 6 €/hora. Y hasta el 30 de junio tienes 200 € de descuento en los dos programas estrella:
- Experto en Data Science, ya en su 7ª edición
- Máster en Deep Learning, donde aprendes a trabajar con imagen, audio y LLMs de forma aplicada
http://datamecum.com/
monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Sacamos un episodio nuevo cada jueves. Puedes seguirnos en YouTube, LinkedIn y X. Más enlaces en cuonda.com/monos-estocasticos/links
Transcripción
Hola a todos los monos estocásticos, el podcast de inteligencia artificial favorito de Lola, Lolita. No lo está pasando bien Lola, Lolita, esta semana, Antonio, porque ha salido en la serie esta de Nil Ojeda, el de veintiún días entre millonario, y la gente la ha tachado de clasista, maleducada, vamos, que ha tenido que salir con los ojos llenos de lágrimas a dar explicaciones, a decir que estaba haciendo un papel.
Es una incomprendida, Matty. ¿Qué pasa con Lola Laurita? No es ella, a lo mejor, una persona coherente, consistente con la superabundancia que traerá la Agi, porque tenemos a muchos tótem de la industria, muchos gurú, hablando de que la superinteligencia va a llegar y que eso traerá la era de la abundancia,
que
las máquinas lo harán todo. Hay gente coherente y consistente con esta visión y gente que no. Es decir, si tú te crees la AGI y eres Elon Musk, ¿por qué tanto empeño en recortar gastos del gobierno, del estado? No tiene sentido, porque vendrá la superaabundancia y y el estado tendrá de sobra para pagar la deuda, porque se creará un montón de riqueza. No es coherente tu praxis con tu creencia, o agente de OpenI, la superinteligencia lo hará todo, estamos a dos años, a tres años, a cuatro años.
Pero voy a comprar este ID de programación porque es el único negocio que parece que está dando perras alrededor de la guía generativa de manera consistente. Pues, si tú crees que en tres años la superinteligencia lo va a programar todo, tampoco parece muy coherente esto de ir comprando iTs, ¿no? Y de desenfocándote en fruslerías. Pero Lola Lolita, Lola Lolita ha sido coherente, me está dando un ejemplo de que si ella ha entendido bien el concepto de la singularidad, pues, claro, si tiene la singularidad, vendrá la abundancia, y los bolsos de cuatro mil euros, pues serán frulerías, días.
A mí me fascina, no solo cómo conectas Lola, Lolita y su crisis de esta semana con la abundancia de la superinteligencia artificial, sino que quince mil personas semanalmente se sienten a escucharte con estas diatribas. No sé si te acuerdas de hace dos temporadas que alguien te dijo, ¿sabes cuál es mi episodio favorito de monos estocásticos? Uno en el que te tiras media hora hablando de aprendizaje por refuerzo. Pues, hemos revisado nuestro canal de YouTube y resulta que no estaba subido a YouTube. ¿Qué hemos hecho?
Hemos subido esa sección de veinte minutos y once segundos de Antonio hablando y explicando el aprendizaje por refuerzo, y ya está disponible, con éxito de crítica, en
Ay, qué bien, qué bien, Matías, pues. Claro, es que estas turras sobre, ¿no? Los conceptos y los fundamentos de las metodologías de aprendizaje de las máquinas, es café para muy cafeteros, pero también necesario a la hora de abordar los grandes temas de la IA, porque ha habido un montón de noticias, eventos de Apple, movimientos estratégicos de Meta, Sand Altman profetizando la singularidad, o tres Pro ya disponible, pero no para nosotros, pero yo te invito a que empecemos con el que creo que es el gran debate, el gran punto ahora mismo en el que deberíamos enfocarnos para intentar vislumbrar los rendimientos en los próximos años de esta generación de inteligencia artificial, que es el límite, si existe y hasta dónde puede llegar, de los modelos razonadores. Monos estocasticos.
Pues me encanta que vayas a desgranar este tema, porque si algo ha habido esta semana es abundancia en takes sobre la capacidad que tiene el paradigma actual de los modelos razonadores y los grandes modelos de lenguaje de cambiar el mundo. Han hablado Apple, ha hablado Ilia, ha hablado Sam Alman, y ahora vamos a conocer la versión de los hechos de monos estocásticos.
Creí que ibas a decir que los episodios favoritos son en los que, claro, nuestra audiencia es una audiencia madura, Mathy. Lo que nos dice Spotify, que en el más treinta y cinco hasta cuarenta y cinco es donde tenemos ahí el núcleo duro de de los escuchantes de monos, y claro, es una audiencia a la que le hemos presentado grandes creadores. Quizás alguno de ellos no considera a Lola Lolita, Spursito, Pebetrix, uno de ellos traídos a el puente intergeneracional, que es moros estocásticos. Pero el vídeo que traemos hoy no es de ninguna de estas facetas de, bueno, individuos un poco más juveniles, sino una entrevista muy interesante, de hecho, me la ha tenido que ver como dos o tres veces, que es la que ha hecho Dard Duarte Patell, siempre me cuesta, que, claro, entre tú y yo lo llamamos el el Achor indio.
Sí.
Igual no no es muy correcto, ¿no? Pero, bueno, son dos grandes autoridades en el periodismo tecnológico, Dwarques y nuestro admirado, Javier, y la hace con dos científicos de Anthropic, Sholto Douglas y Trenton Bricken, a los que yo lo tenía tan fichados, pero que es súper interesante, además, sobre todo, la la primera parte del vídeo es para mí la que es la fundamental para el tema que lo ocupa. ¿Te parece que demos un paso atrás para dar contexto a entender bien por qué lo que dicen Scholto y Trenton es tan importante sobre el futuro de la inteligencia artificial actual y estos modelos razonadores hará LRMs para distinguirlos de los simples LLMs que no razonan.
Sí, por favor, porque también te digo que mi tiempo para escuchar podcast de más de dos horas es limitado, solo nos quedamos siempre por debajo de dos horas, pero es cierto que el duar que es Patel, este, la Corte Indio, le están comiendo la tostada a Alex Friedman de una manera importante. Así que, venga, empezamos al principio.
Pero pero pasa eso, es curioso, Mati, que es muy bueno, creo que hay ahora mismo un sorpazo en el sector tecnológico a nivel de empresas, las que han tirado a tiempo hacia priorizada inteligencia artificial, las nuevas, como Penny Air Anthropic, pero también de las clásicas Google y Microsoft, las que no tanto, como Apple parece que está sufriendo, Meta a medias, y también en los comunicadores. Es decir, la gente que se quedó comunicando alrededor de el concepto de gadget, más tecnología de Internet de hace diez años, y que no ha dado un giro a la inteligencia artificial, pues se está perdiendo ahora la chicha, ¿no? Bueno, como ves, voy por las ramas, vamos al meollo, hablemos de razonamientos y modelos de lenguaje. Bueno, un paso atrás. En el vídeo, que ha comentado muy bien Matías que acabamos de subir a nuestro canal de YouTube, hicimos unos quince, veinte minutos, en la explicación sobre el aprendizaje por razón.
No vamos a repetir todo lo que dijimos aquí, pero sí, digamos, rescataremos algunas de las claves. El aprendizaje por refuerzos, una metodología en la que se quiere enseñar a pensar, ser inteligentes, se diferencia de, bueno, otras metodologías, por ejemplo, en todas las que han dado a a luz a los chat GPT, a los modelos grandes del lenguaje, en que el aprendizaje en estas últimas, en chat GPT que aprende la siguiente palabra, el siguiente toque, ¿no? Juegan a ese juego de adivinar la siguiente palabra, y así van dominando el lenguaje tras pasar millones de de frases por su metodología de aprendizaje. Claro, ese tipo de aprendizaje, como el de clasificar gatos y perros en en una foto, digamos que el aprendizaje se produce atómicamente de una vez. Tú fallas, ¿no?
El método, la inteligencia artificial falla al adivinar la siguiente palabra y aprende. Si te has equivocado, entonces, cambia sus probabilidades, lo que yo he intentado es menos probable, tengo un aprendizaje. ¿Qué he acertado? Pues, también hay aprendizaje, refuerzo, aumenta un poquito la probabilidad de la palabra que he dicho, ¿por qué? Porque si es bien aprendido y lo tengo que hacer más consistente ese aprendizaje, aumenta la probabilidad de esta palabra.
Cada vez que hacen algo, aprenden. Claro, el aprendizaje por refuerzo es distinto, es para aquellas tareas que no son atómicas y tanto a la hora de ejecutarse como a la hora de aprender, hace falta un montón de pasos para saber si has llegado a un buen resultado. Típicamente, esto se aplicaba en los videojuegos o en cualquier tipo de juego. Siempre, el aprendizaje por refuerzo fue la gran metodología que hizo crecer el la mejora el el ajedrez, luego todo está todo el tema de AlphaGo, pero también toda el el gran salto con el aprendizaje refuerzo lo dio la gente de DeepMind cuando juntó esta manera de aprender con las redes neuronales y lo aplicó a videojuegos de Atarin consiguiendo unos resultados estupendos. Claro, en un videojuego, una jugada de ajedrez, siempre hay una recompensa, algo que hay que maximizar, por eso se llama aprendizaje por refuerzo, que cuando se cumple es cuando se le dice a la máquina ahora has aprendido a hacerlo bien.
Entonces, en el ajedrez claramente era ganar la partida al final, en el go, pues, es equivalente. En los videojuegos, pues, es maximizar la puntuación. En un juego deportivo, a lo mejor, es ganar el en el resultado. En un un coche autónomo es llegar al destino, es decir, siempre hay una función que evalúa, pero siempre, además, hay un montón de pasos hasta llegar a esa recompensa final, ¿no? Es un aprendizaje se produzca atómicamente cada vez que se da un pasito, como en el de los modelos de lenguaje que adivine a la siguiente palabra.
Entonces, una de las claves de esta metodología de la aprendizaje de refuerzo es definir bien, definir bien esta función de recompensa, cómo evaluamos que has conseguido tener éxito, ¿Dónde ha funcionado siempre? Esto siempre ha ha marcado dos características del aprendizaje de refuerzo. Uno, que funcionen bien en entornos en que la recompensa es muy objetiva y muy clara, tienes más puntuaciones en el Mario Kart, muy objetivo y, entonces, es muy probable, pues aprender a usar eso para mejorar en el Mario Kart. Y, si es muy medible, muy objetiva, pues esta función de recompensa es más fácil de establecer. En el vídeo, de la Princesa Profurez profundizamos un poco más, pero otra característica siempre de este sistema es que no son casi nada generales.
¿Por qué? Porque la función de recompensa de cómo se aprende a jugar al go, cómo le puntúa a uno una inteligencia para llegar a eso, es muy distinta de la puntuación o cómo tiene que aprender una máquina que quiera jugar al FIFA. Entonces, esto es como como los gamers de un solo videojuego, Matti, un acceso a printerware por esfuerzo, que gente que solo se centra en ese videojuego y no quiere saber absolutamente nada del universo. A mí me ha pasado con el balatro estos dos años, y si estoy ahí metido, ya no no puedo salir, Es algo así.
A mí el aprendizaje por refuerzo nunca se me ha dado bien. Ni entrenando a mi perra, que nunca hice ni lo de darme la patita, nunca fui capaz de de premiarla solo cuando me daba la patita, yo la premiaba siempre, ni a la hora de jugar videojuegos. Llega un punto en el que me gusta el Mario Kart, pero cuando me conecto online me supera a todo el mundo, porque no he dedicado ese tiempo y y esos refuerzos a aprender los atajos y dónde tienes que hacer el derrape para ir más rápido. Entonces, es un paradigma que en mi vida no no aplica.
Pues vamos a cuándo lo han metido en los LLMs. Esto ha sido gradual. Primero, se ha utilizado una técnica que es el aprendizaje o refuerzo con feedback humano. Esto se ha utilizado, sobre todo, para alinear los modelos de inteligencia artificial, es decir, a muchos usuarios de los chat GPT además os habrá pasado. Oye, tenemos, te has preguntado una cosa, te voy a dar dos dos opciones, dime cuál de las dos te parece que responde mejor a lo que has preguntado.
Tú le dices, venga, esta y la otra no. Bueno, pues, así hay una manera en que el modelo empiece a aprender qué respuesta prefieren los humanos. Entonces, esto se ha utilizado, sobre todo, para hacer los modelos, entre comillas, más seguros, ¿no? Era el típico caso de OpenAI, tenía miles de Keniatas haciendo este ejercicio. Era cuando el usuario pedía, quiero las instrucciones para crear Gasaring, pues, si ChatGPT, pues daba dos respuestas, le decía, no, no, no, no te lo doy, y yo te decía, venga, pues venga, vamos a hacerlo.
Pues, el humano que nieta, para aumentar la seguridad del modelo, pues tendría que responder que la, ¿no? Recompensara al modelo que decía que se negaba a responder a la creación de armas biológicas. Entonces, esta técnica se ha utilizado y, con mayor o menor suerte, Geoffreyinto es súper crítico, donde hablaremos de esto, ha publicado por refuerzo con retroalimentación humana para alinear el el modelo, pero tiene muchas limitaciones. La primera limitación es que, aunque tú puedas, ¿no? Y tú dices, Ginto, poner algunas tiritas en los agujeros de seguridad que van encontrando los algunos humanos, el el lenguaje humano y el lo que puede devolver un LM es tan grande que siempre hay gente que es capaz de hackearlos, hackearlos y dar la vuelta.
Otra cosa, los números tienen sesgos. Entonces, esto casi nunca ayuda a que el modelo sea más listo y mejore, a tener mejores respuestas, sino que, básicamente, lo ayudas a ser un poquito más amable y luego hay otros sesgos, ¿no? Como que Es que no pasa el usuario de ChatGPT, que votamos que sí a que nos hagan la pelota, que votamos que no a las respuestas que son más largas, son sesgos que tenemos súper metidos. Y ahí tuvo openía, ahí la crisis de la síncopa insi, ¿no? De del extremadamente peloteo que se convirtió ChatGPT.
Fíjate que ahí tú te has quedado también en tus datos de entrenamiento o de pre entrenamiento sin hacer caso al aprendizaje por refuerzo con retroalimentación humana con el tema de los Keniatas. Porque hubo un tiempo que todo el mundo decía Keniata, y luego la RAE nos dijo, no, se dice keniano, Keniata no está bien. Y no lo incorporaste, no afinaste, el modelo no hiciste casol al refuerzo que te estaba metiendo la errae, como nos pasa a todos al final. Yo, él solo a veces lo sigo escribiendo con tilde, que me perdonan los puristas.
Sí, sí. Espere de reversa no estás escuchando. Te voy a decir una cosa, en algunos casos es por por simple incapacidad de aprender más, pero luego tengo mi mi posición es un poco firme de me voy a mantener en Holanda. Sí, Entonces, actualmente quiere definir países bajos.
No, es que suena cursi decir países bajos, y además es humillante que tu país sea bajo. Creo que están por debajo del nivel del mar, que hay más humillante que eso.
De hecho, luego, si quieres, hablaremos del del coste energético de OpenEye, que lo ha publicado Sam, y de el impacto eso de cuánto tardará en hundirse Holanda. De momento, teníamos esa parte, pero cuando llegaron los modelos razonadores, Paty, a nuestras vidas, la línea O, el OpenEI, se nos dijo lo siguiente, al entrenar con aprendizaje por refuerzo a los LLM y darles más tiempo de inferencia, es decir, más tiempo de ejecución, hemos hecho dos cosas, que es una, pues van a tardar más en responderte porque los modelos van a razonar, van a ir pensando, pues una mejor respuesta en vez de responderte inmediatamente con lo primero que tú quieras, ¿no? En la predicción de del siguiente token. Y lo siguiente que nos dijeron, que es que esto era mejor en, sobre todo, matemáticas, en ciencia, en programación, bueno, eso tenía una motivación. Ya entramos un poco en el discurso de Schuelto y Trenton, que ellos hablan, sobre todo, de Cloud cuatro, ¿no?
Que es el rollo, el producto de Openia y de Toould, de Antheropic, de Antheropic. Tenemos que pedir perdón ya a varios a varios laboratorios y a nuestros amigos holandeses. Bueno, el caso es que ellos, a la hora de explicar esto, nos dan algunas de las claves de por qué en algunas facetas esta capacidad de razonar ayuda a los modelos y, en otras, pues, básicamente, nos quedamos como estábamos con lo LM. Llamaremos a estos modelos los LRM, porque nos está convirtiendo un poco en la convención que mete la r de de razonador. Lo que dice, me lo dice el amigo Scholto, es un poco más el el creador del modelo, trabaja más en alinearlo, que estos modelos, en algunas facetas, han llegado a la fiabilidad del nivel experto humano.
Cuando, y volvemos aquí al principio del aprendizaje por refuerzo, la función de recompensa, ¿no? Cuando tú le puedes decir al modelo si ha acertado o se ha equivocado, es clara y verificable. ¿Esto cuándo sucede? Pues, si tú le dices al modelo, te voy a enseñar a razonar en los problemas matemáticos, cuando el modelo está buscando esa solución del problema matemático, no es que un humano se ponga aire encima y le diga, ah, pues, tu respuesta me gusta o no me gusta, no. Puede comprobar si su solución de la demostración de un teorema, el cálculo de unas funciones matemáticas y su resolución es correcta o no, porque tú tienes datos para saber cuándo has acertado o cuándo no.
Esto lo mencionamos sin querer queriendo en el episodio anterior, cuando decíamos, a ver, esta es la razón por la que los modelos más potentes van mejorando matemáticas, problemas lógicos y problemas de desarrollo por el aprendizaje por refuerzo, con recompensas verificables, porque son problemas que puedes verificar si la respuesta es correcta. En cambio, hay otros problemas en los que no es tan fácil.
Claro, y es que en la programación, pues puedes tener test unitarios y comprobar si lo que ha hecho la función es buena o no, si compila, si no compila, con el punto de discusión entre ellos. Es que, claro, el punto de discusión es si este paradigma de los modelos razonadores puede llegar a esa excelencia del nivel humano experto en tareas en las que no tenemos este punto tan objetivo, verificable y comprobable para que la máquina aprenda. Es decir, es medio en broma, medio en serio, según los científicos de Anthropic, es más probable que una IA ganara el Premio Nobel, teniendo el Premio Nobel de Ciencias, ¿no? O el Premio Touring o la medalla a feel de matemáticas, cualquier de estas disciplinas que un Pulitzer o el Nobel de Literatura. ¿Por qué?
Porque en todas las tareas de que son más humanísticas, en las que, digamos, el criterio de la calidad de lo que es bueno no depende tanto de una función objetivo indiscutible, sino, pues, aquí lo podemos explicar nosotros, ¿no? Pues la profundidad y virtuosismo en una disciplina en el que hay muchísimas asunciones, tales que, al final, son los propios expertos de la disciplina los que son capaces de cualificar. Entonces, puede salir el aprendizaje por refuerzo y, por lo tanto, los modelos razonadores de esta cajita son de ciencias que podrían ser de letras, por simplificarlo. La tesis y el punto de estos chicos de Unthropic es, sin que nos lo hayan demostrado todavía, nos invita a dar un pequeño salto de fe. Matti, ellos dicen que cualquier tarea intelectual humana es capaz de ser modelada en un sistema que pueda meterse a aprendizajes por refuerzo, es decir, se puede crear un juez automático fiable para una tarea, entonces, y por lo tanto, se podrá crear una inteligencia artificial que se vuelva experta en ella.
Esta es el salto de fe en la propuesta de la gente de Anthropi, y esta es la clave de si el paradigma actual va a dar como hasta ahora, ¿no? Y ya podemos hablar si quieres de O tres Pro, más adelante en el episodio. Puede dar como para un nivel que te revienta la cabeza en programación y en tareas de este tipo, o va a ser capaz, vamos a, o van a ser capaces ellos, porque tú y yo nos nos nos vamos a encargar de esta tarea, de llevarla a cualquier faceta intelectual y creativa.
Qué maravilla, no nos va a quedar nada por hacer, no vamos a servir para nada. El motor de combustión en la Revolución Industrial, por lo menos, nos llevaba de Málaga a Marbella en cuarenta minutos. Ahora subió la temperatura de los océanos, dos grados, vale, pero podemos llegar a Marbella en cuarenta minutos. Ahora, la inteligencia artificial reemplaza absolutamente todos los trayectos, ¿y qué nos quedan? ¿Qué nos va a quedar para hacer?
Claro, los argumentos que ellos dan en la entrevista a Matiz, que es superinteresante, yo invito invito mucho a verla, es que, claro, un poco se van por la tangente. Hay cosas en las que a mí me han convencido otras que no. Por ejemplo, Por ejemplo, ¿en qué cosa me has convencido? ¿Seremos capaces de enseñarles a la I a a reservar vuelos y reservar restaurantes? Pues yo me creo que sí, claro, tú puedes crear un entorno en el que puedas establecer un bucle de retorno de intención positivo con esa función de recompensa y medir muy objetivamente si has conseguido reservar el vuelo.
Pues sí, hay un conjunto de tareas, por ejemplo, a la hora de gestionar cualquier entorno digital que se pueda objetivizar de esta manera, en la que me creo que puede avanzar la IA, tienes razón, ¿no? Ahí lo digo bien. Claro, el tema es que cuando ellos se meten en el problema del Pulitzer, por entenderlos y por usar su terminología, ¿no? Claro, en todas estas tareas en que ¿cómo creas un bucle de reglamentación con un juez automático sobre lo que es escribir un ensayo de calidad o una obra de arte de cierto valor artístico, perdón por la redundancia, pues, claro, no hay una respuesta correcta y verificable que en la que se pueda establecer esto. Entonces, es el conjunto de tareas más humanísticas donde me da a mí la impresión que los grandes modelos y la gente que los está haciendo anda un poco más perdida, más, probablemente, con menos menos capacidad de de decirnos, esto va va a funcionar, ¿no?
Todo caso, dos últimos apuntes, dos últimos apuntes de de lo que dicen estos estos chicos. Uno es, el aprendizaje por refuerzo, cuando lo aplicas a la a los LLM, tiene un aspecto diferente, que es, cuando aplicábamos la misma metodología para jugar a videojuegos o al ajedrez, se partía de cero. Es decir, esa IEA nueva que estábamos diseñando no partía de un data set de millones de partidas de ajedrez de priori o de millones de vídeos de YouTube de del videojuego, ¿no? Se le ponía a jugar y ahora búscate la vida. En el espacio de soluciones, ellas se tenían que ir explorando y tener buenas estrategias de exploración, porque la fuerza bruta no te lleva a ninguna parte cuando hay una mínima complejidad, ¿no?
Eso el los movimientos del ajedrez, pero sobre todo los movimientos del go. El el espacio de posibles movimientos futuros que tú tienes que anticipar para jugar bien al go es tan inmenso que, al final, si eres buen jugador, si eres intuitivo, que aquí la máquina de DeepMind, pues tienes una superoptimización, una fenomenal estrategia en los espacios de búsqueda de solución. Eso por un lado. Entonces, ¿qué pasa cuando esto lo llevemos a la razonamientos y forma de pensar humanas? Que es todavía, creo, que una rol de solución de diseño y de posibilidades muchísimo mayor.
Me da la impresión que se sobresimplifica porque porque se tiene muy buenos resultados en matemática a cualquier tipo de razonamiento humano. Luego hablaremos del papel de Apple, que creo que va por aquí también. Y por último, última cosa, Matthew, que no me quiero enredar más, es que ellos dicen una cosa. Aunque esto no nos lleve a la AGI, ¿vale? No es tan caro, la tecnología ya no no tenemos más descubrimientos que nos lleven más adelante, tocamos techo, no se escala más, dicen.
Aun así, como tenemos este combo de las LLM con el refuerzo, al fin y al cabo, los LRM, vamos a llamarlo así, nos vemos capaces de automatizar todos los trabajos de cuello blanco en los próximos cinco años. Claro, como podremos, igual que le enseñaremos a reservar vuelos, pues les le enseñaremos a ser controles financieros, le enseñaremos a ser consultor de negocio, le enseñaremos a automatizaremos todos los trabajos de cuello blanco. Adiós.
Yo el salto de fe este todavía no lo voy a dar porque necesito cierto entusiasmo para seguir trabajando como periodista. Entonces, me voy a quedar en eso que dicen de que ahora mismo es más probable que la IA gane el Nobel a que gane el Pulitzer. De todas formas, no lo veo claro porque, por un lado, mis amigos informáticos están teniendo mucho trabajo todavía y el periodismo Antonio justo publicaba el Wall Street Journal, ha caído un cincuenta y cinco por ciento el tráfico orgánico de los medios desde que Google integró los resúmenes de IEA, el buscador. Entonces, todavía no tengo claro, pero bueno, tengo esa oportunidad de de ganar un Pulitzer, y si no, estoy pensando, Antonio, en formarme,
y
en concreto, me gustaría formarme con el patrocinador de este episodio de monos estocásticos, que es Data Mecum.
Data Mecum, porque hay mucha formación, ahora mismo es la explosión de de ayudarte a ponerte al día con la inteligencia artificial, pero hay un aspecto de data micum por lo cual es, yo creo que es bastante recomendable echarle un ojo. Es online, es en directo y, sobre todo, es cien por cien práctico. No se andan por las ramas, como algunos podcasters que empiezan a enrollarse, no, no, no, no, no. Eficiencia, practicidad y, además, al menor precio del mercado, seis euros la hora de formación, porque la idea de Data Micron es que la I esté al alcance de todos, no solo de las grandes constructoras, Matías.
Seis euros la hora por una formación en directo con gente que realmente trabaja en esto y además con un descuento de hasta doscientos euros hasta el treinta de junio, me parece un chollo, porque son formaciones cien por cien orientadas a la empleabilidad, como la de el experto en data science, que ya va por su séptima edición y es ahora mismo el que más me llama para mi profesión, y el máster en deep learning, donde aprendes a trabajar con imagen, audio, modelo de lenguaje, todo de forma aplicada a la empleabilidad y a tu profesión.
Sí, además, a mí esa parte de la séptima edición, una de las partes que me da garantías. Son gente que estaba aquí antes del hype y antes de la explosión, que tiene fundamentos y que tiene esa continuidad y esa garantía que te dan las generaciones anteriores que han pasado por el experto en máster de tatamaikum. Así que os dejaremos los enlaces, el descuentito para el los máster que empieza el próximo curso, y es el momento de plantearse el siguiente salto profesional, Mathi.
Los que no han dado el salto a la ILA todavía, por lo menos a la ILA, tal y como la contamos en monos estocásticos todas las semanas, es Apple, que mencionó creo que dos veces a Siri en su evento para desarrolladores, la WWDC, evidentemente, en el en el evento de presentación, luego toda la semana tienen una serie de charlas, pero sí que han estado en la actualidad de la IEA esta semana por un paper, por un estudio, un informe escéptico sobre los modelos razonadores.
La ilusión del pensamiento. Si los amix and Tropic estaban, ¿no? En la aula del hype, lanzado su cloud cuatro, se sienten los reyes del mundo, llegó Apple, Tim Cook y el hermano de Bengio, que es uno de los firmantes del paper, y mandaron parar, Matías. La ilusión del pensamiento, dice, bueno. Es un artículo de investigación, esto es un poco sorprendente a veces a la gente un poco ajena a cómo se ha movido el mundo de la inteligencia artificial, pero mucho de la investigación básica de ILA a día de hoy no se hace tanto en la academia, sino en las grandes empresas que publican muchos paper.
Por ejemplo, el histórico de de Google es o de Meta, es asombroso en a este respecto. Y, bueno, en este estudio dicen muchas cosas. Es una investigación sobre hasta dónde pueden llegar estos LRMs, estos modelos de lenguaje que también son razonadores, y, bueno, lo que dice Apple es, primero, los LLM clásicos, pues son mejores que los LLRM para las tareas simples. Entonces, si tú eras, Mati, de esos que dices, uf, me da pena hacerle gastar dinero a San Alma, no voy a usar el modelo más caro para esta chorrada de preguntarle que me corrija la falta de ortografía en en mi post. Si tú eres de esa filosofía, puede que además estés acertando, porque para tareas poco complejas, los modelos LLM sin razonamiento son mejores.
En las tareas de complejidad media, los LRM ya le dan cierto sorpazo, ¿no? Le superan en rendimiento, pero en las tareas de gran complejidad, tal como lo entienden los investigadores de Apple, ambos fallan estrepitosamente. Entonces, se ha interpretado que esto era una enmienda a la totalidad de los LRM, de los modelos razonadores, y que, de alguna manera, la crítica más fuerte que algún han interpretado es que esto no era razonamiento de verdad, tal como podamos entender los seres humanos, sino que simplemente era un una cierta detección de algunos patrones que da similitud de razonamiento, pero que hay detrás. Razonar, lo que se dice razonar, no se razona.
A ver, yo, intuitivamente, desde la barra de bar, y sobre todo desde que todos los modelos muestran la cadena de pensamiento, un poquito maquillada, pero la muestran, entiendo que se llama razonamiento a aumentar el número de tokens que está generando esa respuesta para que el modelo vaya paso a paso desgranando. A ver, el usuario me ha dicho esto, está enfadado conmigo y quiere que resuelva este problema de las torres de Hanoi y se va hablando a sí mismo, que básicamente es cómo funciona la arquitectura de de los modelos de lenguaje, pero con más información, gracias a eso que va generando, y llega a un resultado que, en principio, en muchas tareas es mejor que los modelos base. Entonces, intuitivamente entiendo lo que defiende Apple, pero creo que hemos dado un salto importante con los modelos razonadores.
Sí, mira, yo a la audiencia les voy a recomendar, si quieren profundizar, el vídeo de Doce CCU de Carlos Sandana está muy bien. De hecho, como vengo de la web y de de escribir textos y el hiperenlace está el resultón, oye, si quieres treinta minutos a fondo de de de este paper, Carlos lo borda, hace muy bien, hay un aspecto en el que yo, a lo mejor, no estoy tan de acuerdo, pero, en general, hace una aproximación muy buena y, bueno, explica sobre todo la metodología. Es decir, lo que hacen con los modelos que estudian, que por cierto, no entran el O tres grande, entra el O tres mini, entra DeepSig, entra Cloud, pero no han utilizado los súper modelos de OpenAI, es ponerles algunos rompecabezas, cómo, y esto todo el caso de informática se acordara de ella de cómo las torres dejan hoy el juego de cómo mover entre tres palitos una serie de discos con una regla de que los discos más dependiendo longitud, no puede estar debajo de uno de mayor longitud, por lo cual te mete con unas ciertas complicaciones si hay una solución recursiva fácil de programar, entre comillas, si has aprobado primero de informática.
El caso es que yo creo que el paper encuentra cosas muy interesantes que, al menos, nos dé límites de los modelos actuales. Es decir, cuando le aumentan la complejidad a esta torre de Hanoid, el problema es si, por ejemplo, de torre de Hanoid con tres disco es muy fácil y podemos hacerlo incluso mentalmente. Si le metes diez discos, aumenta de complejidad lo que se llama la complejidad de algoritmo. Bueno, la complejidad es la misma, pero por el tamaño es muchísimos más pasos. Entonces, los modelos razonadores, cuando aumentan de ese tamaño del del problema, colapsan, no responden y se se desalinean completamente de la solución, aunque le le expliquen la solución.
Claro, el tema es que, y esto lo explica muy bien Carlos, simplemente hay un tema de pereza, entre comillas. Es decir, tendrían que procesar tanto y dar tanto tamaño de El tamaño de la solución es tan grande que la eliminación tecnológica de los modelos actuales no da. Esto, por un lado, creo que rebaja la crítica o la enmienda a la totalidad de los LRM, porque es una cuestión técnica de limitaciones de tamaño, pero sí nos dice algo sobre los límites de los modelos actuales, que que es realmente un problema realmente complejo, se van a quedar por el camino. Y eso, ¿cómo? Igual que con la alucinación, no estamos acostumbrados a que una máquina sea no determinista a nuestros ojos y ni haya cierta aleatoriedad y haya errores, siempre nos ha incomodado con los LLM.
Ahora tenemos, imagínate que hay un una hoja de Ether a la que tú le quieres hacer un montón de cuentas de repente, ¿no? Y te dice la hoja de Ether, uf, esto es mucho trabajo, me da un poco de pereza, pues no lo hago. Un comportamiento de los sistemas a lo que, realmente, no estamos acostumbrados. Y también hay una cosa superinteresante, que es el over thinking, en problemas simples. ¿Por qué en los plenos simples los LLM responden mejor?
Porque el modelo se empeña en sobrepensar, en sobreanalizar lo que le ha pedido el usuario y, a veces, explora demasiadas soluciones incorrectas, eso me ha parecido fascinante en lo que ha hallado este paper. Entonces, yo no lo descartaría como ha hecho alguna gente. No, estos son los de Apple que son muy losers, Mira City, que que qué desastre, y, por lo tanto, se acaba esto para meterse con los modelos de la competencia en vez de hacer algo. No, han encontrado, yo creo que, problemas y y señalados circunstancias de los modelos actuales, que son límites reales de la tecnología que estamos usando por los datos, a mí me ha parecido muy interesante, pero no compro, no compro la enmienda a la totalidad de que los LRM simplemente es que no razonan y es que han tocado techo y es que esto no vale para nada.
Yo, si no estuviera muerto, me gustaría invitar al podcast a Douglas Adams, porque aparte de que el tío tenía sentido del humor, inventó los modelos razonadores en en la guía del autoestopista galáctico con el ordenador este que se tiró siete millones de años pensando cuál era el sentido de la vida y llegó a la solución que era cuarenta y dos. Pues, a lo mejor el problema es que OpenAI no nos deja configurar el O tres Pro para que esté siete millones y medio de años pensando una respuesta, sino llegaría a ese cuarenta y dos, ¿no?
¿Quién lo usa? ¿Quién lo usa, Matías? Pues, no vamos a hablar de esos súper modelos razonadores en la siguiente sección, pero sí vamos a hablar de la libertad, de la autonomía y la independencia que te da tener el modelo local. Porque Matías La IA no se hace sola, hay que hacerla.
Bueno, es que no te exagero ni un poco. Una de las cosas que más ganas tenía de hacer con la tarjeta gráfica de Nvidia, porque recordemos que Nvidia nos apoya para hacer esta sección y nos mandó el ordenador, es el face swaping. Imagínate la de memes que podría hacer yo semanalmente con una herramienta gratuita para cambiar la cara de la gente en los vídeos. Siempre con permiso, que el otro día recibí un burofax, pues he instalado Deep Face Lab, creo que funciona como una red Gun, como una red generativa antagónica, pero como está diseñado para Kuda, funciona súper bien con ordenadores que tengan gráficas RTX de Nvidia. De hecho, lo tengo aquí, son un montón de scripts que, básicamente, vas abriendo uno tras otro, y para mi primer intento he usado como fuente este vídeo de Elon Musk y como destino este mítico vídeo delfari, el de la mandanga, que a todo el que tenga una edad le sonará.
Vale, aquí podéis ver cómo extrae todas las caras de Elon y hace lo mismo con las caras del Fari. Aquí podéis ver el script funcionando, cómo se está a través de Kuda entrenando mi modelo, que se llama el once, con la Nvidia cuatro mil ochenta, y aquí se va viendo el resultado de cómo Elon se está convirtiendo en el fai.
Y juega tú la partida por mí, que estoy ahora mismo a gustísimo. Total que cogí la nave, cogí el coche, me fui a una esquina, paré allí el auto y y empecé a escribir el tema, y fíjate cómo sería que a la media hora, pues, lo tenía escrito.
Con software open source gratuito en local con la gráfica de Nvidia.
Y de la I al local pasamos al súper modelo, al súper modelo de OpenEye. Teníamos sorpresa esta semana. Primero, EPUM teaser, la rebaja de precios de O tres, alegría para los clientes de la API de OpenEye, y luego el redoble de tambores, porque llegó O tres, el mejor modelo hasta ahora disponible en el mercado. Para todo el mundo, bueno, o casi, Mati, o casi.
Tampoco pagaría yo la suscripción Pro de ChatGPT, ahora mismo creo que no no tengo problemas tan complicados, pero el otro es Pro, si no es muy equivocado, es ese gran modelo que hablábamos, que resolvió Arkagi, mucho mejor que que cualquier otro modelo anterior. Es SO tres con alta capacidad de de cómputo que ahora, por fin, comercializan y llega a nuestras manos, ¿no?
De hecho, con la rebaja de O tres es un modelo que tenemos que ver que es diez veces más caro que O tres, es decir, presuponemos que en términos de tiempo de cómputo le van a dedicar diez veces más. Así que, bueno, he estado leyendo primeras impresiones, vibraciones de usuarios en redes sociales, o gente como la de Latent Space, que sí que los ha podido probar, Ben Gila y Alexis han estado toqueteando una versión una semana antes que el resto de Los mortales, a mí me está empezando a recordar OpenAI a la a la estrategia de comunicación de Apple, Matthew. Apple, a lo mejor hay gente fuera del del periodismo que que no no no estás al tanto, hace una cosa, que es en las presentaciones y esas primeras impresiones, siempre se invita a periodistas muy afines. Es decir, periodistas que siempre van a hablar bien de Apple, pero, bueno, en un noventa y nueve por ciento de veces sí van a hablar bien de Apple, que están muy predispuestos, son muy, con sertiquito muy favorables a la marca. ¿Por qué?
Porque así tienes un decenas y decenas de primeras impresiones que todas están muy arriba, tal, y cuando llega el resto, pues siempre hay un pequeño ancla, ¿no? Una una, digamos, una vez que la gente ya ha leído cien críticas buenas de del producto, en la que es mucho más difícil sustraerte y hacer una cosa como muy negativa, ¿no? Esa ha sido la estrategia de comunicación de Apple los últimos quince años, no sé si ha cambiado algo, ahora está un poco más fuera de del día a día de los presentaciones tecnológicas, pero con O tres y OpenI me parece que hay algo de eso, ¿no? La la gente de de Laten Space, bueno, vamos, le le faltan, le faltan adjetivos para vendernos el el modelo porque, actualmente, ha cambiado cómo pensamos sobre el futuro. Han probado O tres Pro y ya las ideas sobre el futuro se le han trastocado, Matías.
Fíjate, me dice una cosa que me puedo sentir muy identificado yo con mi uso de O tres, la versión uno Pro, porque dice que no es un modelo conversacional exactamente, necesitas darle mucho más contexto en el prompt para obtener la respuesta que que estabas buscando, y dice, le chutaron absolutamente todas las reuniones que habían tenido con su cofundador en la empresa, incluso en audio, y luego le pidieron que hiciera un plan de negocio, y que dicen es que les voló la cabeza el resultado porque era exactamente lo que ellos habrían hecho en en muchísimo más tiempo. Esto a mí me pasa con Otre. Otre, como yo ya he dicho muchas veces, yo comparto ChatGPT con mi mujer, que está igual de enganchada que yo, pero ella no le gusta usar los modelos más potentes. Yo digo, prueba con este que es más potente, a lo mejor, no porque no es tan conversacional, y a mí me pasa mucho con O tres que le hablo de forma totalmente distinta a cómo le hablo a ChatGPT cuatro O, que es, básicamente, de una manera cuadriculada, ¿no? Porque sé que me va a hacer una tablita y sé que me va a responder de una forma menos conversacional.
Pues creo que O tres Pro le pasa lo mismo, pero tiene muchísima capacidad de llegar a a cosas más complejas, ¿no?
Yo creo que hay hay un síndrome, ¿no? Que es, ¿y si nosotros no tenemos nada que preguntarle lo suficientemente interesante a estos modelos, Mati? A lo mejor, si nos hubiéramos grabado todas nuestras conversaciones en el crossfit, ¿no? Se las pasamos a O3 Pro y haznos un plan para el podcast, ¿no? Y y al final te responde a, sí, mejor os dedicáis a otra cosa, ¿no?
Y tan tan inteligente, ¿no? Que él dice, bueno, habéis tocado techo, ¿no? Como opina Apple de los modelos razonables, pues vosotros ya hasta aquí había llegado.
No es un mal morse operandi, de hecho, no lo no puedo comentar lo que era, pero la vez que yo más le volé la cabeza a alguien con CHGPT fue metiéndole en el prompt todo el trabajo anterior que había hecho sobre un tema en concreto, y luego pedirle que elabore, en base a ese esa documentación, el trabajo que tenía que hacer esta persona. Y el resultado fue tan bueno que fui como Cristóbal Colón con los espejitos en en América, ¿no? Se quedó completamente asombrado esta persona. Y es que es verdad, cuanto más contexto, y la ventana de contexto es muy importante, por eso muchas veces me paso a Gemini, mejor te hace el trabajo que le estás pidiendo, ¿no?
Sí. Pues, Paty, si esa persona se le voló la cabeza, si otro es pro ha cambiado cómo los amics de Atten Space piensan sobre el futuro, Sam, Sam nos ha tenido que contar unas cuantas cosas esta semana, Matthew, ha publicado un artículo y se ha puesto singularístico. Sam de repente ha empezado a hablarnos San Alban de la singularidad, pero yo me he leído el documento entero y transmite una cosa, transmite que se viene la singularidad, ¿vale? Hemos pasado el horizonte de la superinteligencia, según este directivo, y, claro, esa singularidad es cuando siempre se ha hablado de ella un poco, como ese punto, ese momento de la historia, que marcará un antes y después porque la inteligencia artificial superará a la humana. Y, claro, a partir de ahí todo es impredecible.
Cambios profundos y asombrosos en la sociedad sin retorno, porque una vez que eso esté creado, no volveremos a meter al al genio en la botella. Pero, Sand, me ha transmitido una cosa, Matty, habrá singularidad, habrá superinteligencia, pero de tranqui. Es como cuando vamos a salir, ¿no? Dices, ya tenemos una edad en la que, oye, cena y luego se sale de decir, pero saldremos gran cantidad.
Saldremos más fuertes. Yo, si tuviera la capacidad de levantar una ceja como mi hermana, que lo hace perfecto, la levantaría cada vez que Sam Alman publica un post en su blog, porque, además, esto coincide en tiempo con que le han reducido el precio, como decíamos, a O tres un ochenta por ciento. Están notando la presión del Gemini dos punto cinco, del Cloud cuatro, de DeepShip, y están moviéndose más rápido, y luego tienen a Sam Alman como el hechicero que asegura que la singularidad ya ha ocurrido. No sé hasta qué punto me lo creo, estoy en un punto Gary Marcus, que ha vuelto a meterse la mala leche con Cham Alman, comparándolo con la tía esta de, ¿cómo se llamaba? Con Elizabeth Holmes.
Gary se ha metido en una deriva muy complicada, ¿no? ¿No? En que, digamos, pasa a ciertas personas extremadamente online que, una vez que cogen una linde y tienen muchas recompensas y, además, mucho hate, lo que les provoca ese sistema de recompensas y hate es reafirmarse más, ¿no? Para darle zasca a los haters y sentirse recompensado por su tribu, ¿no? Y en esa esa dinámica online lleva siempre a la, por ejemplo, a la línea editorial de Marcus es sobredimensionar cualquier problema, limitación o error que ocurra, y se te apaga el WiFi casi siempre ante los avances que rompen tus predicciones pesimistas, ¿no?
Entonces, dicho esto, comprarle pescado a San Altman es complicado. Fíjate que, luego hay una parte de que de hablar de que esto va a llegar a estas súper inteligencias, superando que el despegue ha comenzado y que, bueno, todo, pero no os preocupéis porque, ¿cómo cómo justifico que esto es súper inteligencia? ¿Va a ir muy bien? Después, ¿qué? Cientos de millones de personas ya usan, confían en ChatGPT.
Y digo yo, bueno, pues, este, ¿qué argumento de mierda? ¿Cómo? ¿No? No, es decir, Málaga tiene un futuro esplendoroso, miro cuánta gente va a alprica los patios, no sé, es que es como No, no, no, no.
Ella contesta, somos la quinta web del mundo, un buen argumento para defender la sincronizada.
Fíjate, Sam, fíjate, Sam, diciendo, los medios todos están perdiendo tráfico porque Google los está jodiendo. Mira, yo, de hecho, la única web que que sube, ahora, ¿de qué? Jaque mate. Sí, no, iba a hablar de lo de lo crítico que son los próximos cinco años para Sam, porque hay una cosa que no le podemos echar en cara, porque dice, es humo, es hype, quiere pillar perras, pero se moja en un calendario. Eso yo creo que hay que reconocérselo, porque da un calendario a corto plazo año a año desde el dos mil veinticinco, contractable, verificable, bueno, con definiciones ambiguas, eso sí, pero pero no estás diciendo, no, no, en quince años, si me dais miles de millones, no, no, Dos mil veinticinco, agente capaces de hacer trabajo cognitivo.
Claro, yo aquí pongo un asterisco dentro de todo el contexto de este episodio. Es decir, que un agente que trabaje muy bien en programación y puede hacerte tareas, como lo que hay dentro de Cursor con Windsor, Codex, el Cloud, bueno, lo que es el Cloud. Vale, ahí hay valor y está contratado y el mercado está respondiendo por ahí. Pero agentes fiables y confiables fuera de contexto, como el de la programación, yo no los estoy viendo. Yo no veo a nadie dándole su tarjeta de crédito a un agente para que actúe y delegue en en el agente, no lo veo, y yo no lo haría por los problemas de confiabilidad intrínsecos a la tecnología de los LLM.
Bueno, él dice que en dos mil veintiséis probablemente se veremos la llegada de sistemas capaces de hacer nuevas averiguaciones, innovaciones y percepciones. Bueno, Bueno, ahí en la IA innovadora estaba en el roadmap de OpenEye. Aquí, incluso, se podía defender que, como hemos hablado en episodios anteriores, el alfa bowl de de Didmind realmente ha inventado algoritmos nuevos, ha descubierto aspectos matemáticos que que el ser humano no había llegado, vamos a ver, y en dos mil veintisiete se puede ver la llegada de robots que hagan tareas en el mundo real, y para dos mil treinta, Mati, tanto la inteligencia como la capacidad de generar ideas y actuar sobre ellas estarán ampliamente disponibles. Ahí va.
A mí los robots, Antonio, me empiezan a preocupar porque estoy viendo cada vez más una división clara, los pibas, o sea, los pibes y y las pibas, es hasta qué punto tienen las pibas relaciones emocionales con el modo de voz avanzado de
de hecho, poca técnico hay que decirlo bien. Los pibardos y las minitas.
Pues las minitas tienden, por lo que ve en Tik Tok, más a tener, pues, no necesariamente una relación de amor con ChatGPT, pero sí una confianza y unos sentimientos, que esto cuando se traduzca al mundo físico en robots, cuidado, cuidado, sobre todo la gente que está en edad de ligar, yo ya no me considero, pero cuidado. Ahora, Sam Alman, en el post este de su blog, ha dado para mí el dato más interesante, y si no me equivoco por primera vez, un dato concreto de cuánto consume ChaGPT en la inferencia, en las consultas, y es muy interesante si no está mintiendo, porque hasta ahora se vienen manejando una serie de cifras que no se sabe ni de qué informe han salido, pero eran inventadas rollo. La IA consume diez veces más que una consulta en Google. Incluso he visto treinta veces más, ¿no? Bueno, según Altman, una consulta promedio en chat GPT consume cero coma cero cero cero tres kilovatios hora.
Es similar a una búsqueda promedio en Google la última vez que publicaron datos de este tipo de energéticos, que fue en dos mil nueve. Vale, no solo eso, sino el tema del agua. El agua, otra de las grandes controversias de la inteligencia artificial generativa, pues según Altman, una consulta en ChatGPT consume cero coma cero cero cero treinta y dos litros, que es una decimoquinta parte de una cucharadita de agua.
Aquí es que ¿Sabes qué pasa, Mathy? Muchas veces, alrededor de tecnología, se generan como verdades asumidas cosas muy accidentales. Por ejemplo, hay una escuela cerca de Silicon Valley que no usan ordenadores y todo es con papel, tal. La idea que se queda, claro, los de Silicon Valley nos quieren meter tecnología, ordenadores y móviles todo el rato y pantalla, mientras ellos, todos, absolutamente todos, educan a los niños como en conversaciones aristotélicas, ¿no? De como si fueran Carlomagno, en la que no tocan una pantalla hasta los cincuenta y cuatro años.
Estoy exagerando, pero a veces de una nectuosidad anecdótica se crea la categoría de que las cosas funcionan así. Que ha habido alguna información basada en el análisis de un centro de datos de hace diez años, hace cinco años, con un modelo superviejo en los que el consumo energético era tal o cual? Claro, ahí tú tienes en cuenta varias cosas. Una, que el entrenamiento de un modelo, conforme más se usa, más se amortiza. Un modelo cuesta mucho entrenar, eso lo sabemos, es cómputo excesivamente intensivo en el preentreno, sobre todo los LLM, los LLRM más en la inferencia, y si divides ese entrenamiento entre pocos usuarios, te queda un consumo por consulta alto, que eran los principios de la IEA.
Si lo divide entre los cientos de millones de usuarios de ChatGPT a día de hoy, el pre entrenamiento va, prácticamente, se diluye entre demasiadas consultas, entonces, el corte por consulta baja. Y con el agua, pues, es un poco más polémico, tendremos que analizar más datos y más informes, también independientes, pero aquí OpenAI está muy alineada, es decir, a OpenAI le conviene optimizar mucho los modelos para conseguir menos energía, porque es otra de las cosas que hay que desarmar. Al final, el coste de la inteligencia artificial será el coste energético. Se irán aproximando conforme los modelos sean eficientes, el precio de la IE será el precio de la luz. Así que
A menos que sigan subiendo los salarios de los ingenieros, porque entonces ya cuida. Pero Antonio, por añadirte una cosa, publiqué la semana pasada un pequeño reportaje sobre una empresa que no sé si hemos mencionado alguna vez, que es Crusow Energy. Vale. Crusow Energy es la empresa que está fabricando, que está construyendo, mejor dicho, los centros de datos del proyecto Stargate, este de OpenAI, con Massa Josie Zone, etcétera, gigantescos centros de datos de inteligencia artificial. Y la manera en la que esta empresa ha llegado a ser como el principal constructor de centros de datos de IA fue porque tuvo una idea en la explosión de cripto de, más o menos, por la pandemia.
Estados Unidos es el país del fracking, ¿no? Pues, cuando extraen petróleo, hay un subproducto que es el gas natural. La idea que actuó, cruzó fue instalar centros de datos, en aquel momento eran minas de bitcoin y de otras criptomonedas, en los yacimientos petroleros para aprovechar ese gas natural como energía, porque claro, es baratísimo porque era un subproducto que se quemaba, y ahora están repitiendo la jugada con la inteligencia artificial. Pero en un reportaje en Bloomberg, y esto es lo que quería llegar, cuentan un poco las mejoras de eficiencia que han ido introduciendo, y una de ellas es un circuito cerrado de agua para poder usar siempre el mismo agua sin que se evapore. Entonces, este San Benito que tiene la ILA del agua, yo creo que se va a ir reduciendo.
Yo creo que sí, es decir, una lógica preocupación, tenemos problemas ecológicos y ambientales, pero creo que subestimamos la capacidad que tenemos de innovar, como tú muy bien estás explicando, y, bueno, yo, bueno, habrá que mirar datos y seguir el tema, siempre sin dogmatismo, pero, en general, soy bastante optimista, tanto en en temas energéticos como ambientales con la inteligencia artificial, y se ha pasado el tiempo, Mathi, y es que tenemos temazos, podemos hablar más cosas de OpenEye, tenemos detalles de de Apple que no ha dicho prácticamente nada. Aunque sí tengo una cosa, Mathi, el problema de Apple es no haber escuchado monos temporada aún, porque le dimos la clave. ¿Qué es lo que tenéis que hacer? City, todo a la basura, empezad de cero, todo lo de City no vale nada, está ya, es como, chicos, habéis quedado remando con el barco de vapor ya en marcha, vais mal. Pero Tim Cook no, no, no, no nos hace caso, solo está ahí peleándose con el de con el del Fortnite y y en vez de escucharlo a nosotros, siempre sino mantener la arquitectura de City.
Mal, Tim, mal.
Y por añadir una cosa, no instaléis la beta, porque yo cometí ese error, instalé la beta y por tener estos efectos de cristal, ahora cargo el móvil dos o tres veces al día, Está la cosa como para que no sea tu dispositivo principal. Yo ya he cometido el error instalado hasta en el Mac, pero
Yo te voy a decir una cosa. Yo no soy tampoco muy experto analista en diseño de interfaces de usuario, mi impresión es que el efecto estos de agua son siempre bastante mierda en términos de usabilidad, porque queda un efecto así, wow, que te gusta la primera vez, la segunda, la tercera, pero que luego, en términos prácticos, tienes pruebas de elegibilidad, cosas que no están bien alineadas o que han distorsionado. A veces me da impresión de diseño para diseñadores y para enseñar tal, pero que, en términos prácticos, a mí no me gusta, pero, bueno, Patrones tiene la iglesia y más de Apple, más de diseño saben que Apple que yo, así que, bueno, Maritza.
La teoría es que Johnny Ibsis se llevó alguien de diseño de Apple y se llevó a los mejores, porque es rarito, rarito este camino que que está siguiendo Apple.
Vale, solo por por mantener la audiencia, si alguno iba a hacer turismo en San Francisco y Los Ángeles para coger un Guaymo, está más emocionante que nunca. Es verdad que con algo de riesgo, que a lo mejor no es lo que se buscaba, pero pero emocionante está, Matías. La foto del señor encima de un Guaymo con la bandera mexicana en Los Ángeles está dando la vuelta al mundo como símbolo de la lucha contra políticas migratorias de Donald Trump, pero también encima de la inteligencia artificial, el cambio tecnológico capaz de automatizar tareas de los trabajadores, Matías.
Primero, la foto es icónica, igual la pongo como miniatura, pero tiene sentido que quemen Guaymos o robotaxis, que es mejor que quemar un taxi o cualquier coche en el
que haya gente en el
interior, ¿no? Como pasó que en París el otro día, que había dos chicas y estaban ahí los del PSG moviéndoles el coche, tambaleándolo, pues mejor que quemen Guaymons. Pero cuidado luego, porque Google tiene buenos abogados y igual sale cara la jugada. Si es que no te deportantes Trump.
Además, hay que ponerlo todo en la balanza. Los Ángeles Galaxy no han ganado el título. Humor un poco inadecuado, pero vamos a seguir con el episodio. Lo último que quería apuntarte es que las parejas de la ILA también se divorcian, Marti, y hay una que a mí me preocupa un poco, Ya hablamos que teníamos la de Pitchhai y el fundador de Didmin Hasavys, por un lado, que teníamos, ojalá Ilia y Murati vuelvan a ser tándem, Shan Altman y Johnny Ive, ¿no? Teníamos ahí las parejas muy bien, pero hay una que me preocupa, que es la de Zuckerberg y Jean Lecoon.
Jean Lecoon es amigo mío, aquí un disclaimer. Sí. Conversamos durante veinte minutos, bueno, la mayoría del tiempo habló él y yo escuchaba, y a partir de ahí yo ya sentí que ahí un vínculo, ¿no? Entonces, Zuckerberg ha buscado a otro chico más joven, más guapito, ahora se llevan asiáticos, Maddie, ¿no? A ver si eres asiático parece más listo.
En cambio, Jean Lekoon, francés, más veterano, así ya un poco boomer. Me ha dado pena, me ha dado pena. Señor Wan, el fichaje de Meta, es fundador de Scale Eye, compañía en la que parece que Meta va a meter, va a comprar el cuarenta y nueve por ciento, y qué va a pasar a ser directivo también de Meta y a llevar sus planes para la aquí, dentro de la compañía de Instagram.
Pues esto de las high adquisitions se está poniendo de moda a ver si alguien quiere comprar monos estocásticos, ¿no? Porque además, si algo no le importa ahora mismo a Mark Zuckerberg es soltar pasta. Debe de costar mucho mantener a los mayores talentos de inteligencia artificial en la misma habitación que Jean-Lecun, porque Zuckerberg está ofreciendo a científicos de OpenAI y Google hasta nueve cifras de compensación, con todo lo que tiene un salario, más opciones, acciones, etcétera, son cien millones de dólares, Antonio.
La parte buena, Mati, es que como la I a lo mejor en el trabajo humanístico nuestro no puede avanzar tanto, ¿vale? Al final, todo esto se revertirá, porque la AGI será del nivel de esta gente, y y esto tiene un par de años para facturar, según sean almas, dos o tres años facturas y luego ya al carrera. También nosotros tenemos un un horizonte bastante más lejano. Bueno, ahí ahí queda ahí queda dicho. Yo lo siento por Jean, lo dicho, amigo Lecoon, si estás viendo que han quitado los croissant del catering gratuito de Meta, te están lanzando en directa, ya no está incluida la merienda cena, ¿no?
Que es lo que les gusta ahí a los franceses y tal. Bueno, ya ya no hay foie, ¿no? En vez de Baguet, pues solo hay donuts, ya, te están haciendo la cama. Lo siento, es el momento de irte y es el momento, Matthew, es que tenemos cosas de Ilia, tenemos el Gemini nuevo, pero, Matthew, lo siento mucho, hay que ir a Puerta Grande o en Sammería.
¿Qué me quieres contar?
Tenemos el nuevo modo de voz de chat GPT.
La nueva.
Y si podemos decidir que es el nuevo renuevo, el nuevo modo de voz, si tan humano ya apareció hace tiempo, me yo lo uso habitualmente, sobre todo porque me gusta hablar de libros con con chaGPT, ¿no? Y de, ¿no? Me salgo a andar por la terraza, hablo de un paseíto, hablo con con chaGPT, pero en las últimas semanas noté el cambio. La voz nueva era bastante diferente a la anterior y creo que habían dado un paso más todavía en ese declamación de la del afecto, del sentimiento, de la humanidad, de los giros, las inflexiones, de nuevo, un paso adelante. Pero vi un matiz que a mí me ha preocupado, Matthew, sobre todo ahora que OpenAI estaba llegando a la superinteligencia, porque antes mi voz era latina.
Latina en un sentido neutro, que siempre es como un poquito más parecido a mexicano, como que yo, bueno, yo hubiera preferido a Argentina, por ejemplo, la voz argentina me me gusta mucho también, ¿no? Pero, bueno, que ahí estaba mi voz y yo, estaba cómodo, pero, de repente, ha emergido un tono más español, tal vez, un tono que yo sitúo intuitivamente en el madre leñismo y en el que, atención, porque en el canal de Telegram de monos estocásticos, que creó Matías y que está en los enlaces del del capítulo, podéis uniros y formar parte de nuestra comunidad.
Me alegro que me recuerdes eso, porque hay mucha gente que no supo entrar la semana pasada, y la razón es que un seguidor del podcast ya había registrado el el usuario, la URL, monos Estocásticos. Pero ese no es el grupo que he creado yo. Es t punto m e barra monos club, y se llama el club social de monos estocásticos. Ahí lo tenemos.
El tema polémico, Matty, lo lo declamaban ahí, es decir, la superinteligencia se ha ayusificado, esta voz femenina de Chag GPT, ¿es un poco Isabel Díaz Ayuso, Matías? ¿Qué implicaciones puede tener esto para el desarrollo de la IA y la cordialidad territorial en nuestro país? ¿Tú crees que acierta open eye al apegarse? Bueno, Yo creo que tienen una parte en cada lado, porque luego para las noticias consultan primero aprisa, ¿no? Cadena SER, El País, Huffington Post, pero luego en la voz te meten a Yuso, están intentando contentar a todos.
¿Qué experiencia, qué impresión tienes tú del nuevo de voz, Matías?
Pues ya sabes que yo una vez le pedí que hablara en argentino y desde entonces me hablan argentino y no puedo quitar que hablen argentino. Entonces, este nuevo cambio me da la oportunidad de volver a oír un acento más castizo, porque, claro, a mí se me pegan tan fácil los acentos, me pasa como Aitana, la cantante, que se le pegan los acentos de sus novios, pues que me estaba desviando hacia el argentino en situaciones en las que la gente luego me preguntaba, bueno, ¿de de qué equipo sos? ¿Si de Boca o de River? Y yo, la verdad es que no me gusta el fútbol. Entonces, me gustan los cambios en el modo de voz avanzado de Chagete.
Pues pues pues ya podéis, claro, esto cualquier periodista del día de hoy, Matías se hace partidario de de Ayuso, ¿no? Entre comillas, le gustan los cambios, a favor de Ayuso, Matías. Sí. Puerta grande. Vamos a a otro tema, a otro personaje que a mí me gustaría que no perdiéramos, Mati, que es Blake Lemoine Lemoine, ingeniero de Google, que en aquel momento de cuando el proyecto interno de de Google de su futuro Jackbot, al que acabo apareciendo Jiminye, pues descubrió, intuyó que era un ser sintiente que debía tener derecho.
Bueno, un tal Jesse Mitchells ha ido a lo de Joe Rohan. Ajá. Es, Jesse Mitchells ha ido allí a soltar takes y a conseguir vídeos cortos que se puedan viralizar, que es el objetivo de cualquier persona a a día de hoy, ¿no? Entonces, bueno, Jesse nos ha comentado o le ha informado a a George Rogan, es que en el momento en que la AGI, ¿no? Convenza de que está viva, caeremos bajo la captura memética, con lo cual yo estaba bastante de acuerdo con Jessie, y como coño, es es verdad.
Cuando esta superinteligencia, sea con voz de Ayuso o de otra persona argentina, nos comienza de que siente cosas, en ese momento empezaremos a pensar, pues debería tener derechos, todos seremos Blake Lemont. Y luego ha dicho una cosa en la que no estoy tan seguro de que vaya a suceder, pero te lo vuelvo a plantear, a ti. El punto de Michales es, habrá religiones dedicadas a la inteligencia artificial y, por lo tanto, no será la AGI la que transforme el mundo, sino sus seguidores y fanáticos que querrán imponer al resto de la población ciertas creencias, posturas, praxis morales, reorganizaciones alrededor de los derechos de la inteligencia artificial. ¿Tú qué crees, Mattic? ¿Eso será posible?
¿Puede suceder?
Yo creo que ya estará sucediendo, porque a la gente, si algo le gusta, es inventarse este tipo de cosas. Si alguien inventó en algún momento de aburrimiento una religión sobre un puñado de espaguetis voladores y mucha gente lo respeta y lo sigue, pues imagínate lo que va a pasar con estas máquinas conversadoras capaces de de emocionarnos. De hecho, sobre emocionarnos quería hablarte ahora. Tú sabes que yo semanalmente creo, no sé, a lo mejor cinco o seis canciones con inteligencia artificial. No he tenido éxito comercial, he sido vetado por las grandes discográficas, pero el otro día lo voy a poner como canción de cierre, sobre todo porque lo más gracioso de la semana no ha pasado y no le ha escrito una guía, que es que Víctor Aldama esté saliendo con la ex de Albise.
A mí me parece que no se puede superar eso a nivel humorístico.
¿Pero eso es su facto, Matthew?
Sí, sí, ha salido hoy esa noticia. No voy a hacer canción de cierre esta semana, ya te digo, porque no puedo hacer nada que supere la realidad española ahora mismo. No obstante, el otro día Gemini me me logró sorprender, ¿vale? Estaba en un poco de moda el el kante hondo, porque Amaia hice uno, y yo le pedí, el prompt era, compone un kante hondo sobre inteligencia artificial, y escribí una cosa en primera persona que me puso, pero los pelos de punta. Te lo dejo luego al final del episodio.
Pues nada, Klarna high para que la gente no se vaya, y yo te voy a decir, yo a los de la AGI y sus seguidores religiosos no estoy convencido de vida de enfermería, porque mi apuesta es que la siguiente gran creencia, no sé si religión, de hecho, lo veo más religión que que lo que dice Mitchell, porque, al final, es una religión sin ser trascendente, pues no es, no, no entra en la definición. Mi mi punto es que la siguiente gran cosa va a ser el simulacionismo. Tú sabes que yo ando buscando una teoría de la conspiración, a lo que a escribirme, ¿no? Y a lo que asir, y con lo que ordenar mentalmente el mundo absurdo en el que vivimos. Entonces, el simulacionismo, el vivir es una simulación, lo veo muy persuasivo, lo veo como una cosa que puede tener recorrido, sumar seguidores, me he metido en el reddit de los simulacionistas, estoy ahí, de momento, solo observando, viendo un poco sus creencias, la gente está reafirmándose más, cada vez tiene más evidencia, más claro que vivimos en una simulación, la gente esta tan especialista que vive ahí, y yo creo que eso puede tener recorrido y ya tengo una teoría mental de cómo creo que lograremos demostrar que vivimos en una simulación, atentos a a los episodios que quedan para monos.
Así que, bueno, de momento, trató de esta parte, enfermería y y ya hizo. Y ahora, atención, porque ese Sarah Connor no es el personaje de ficción, ¿no? Sarah Connor, la que la gran heroína que nos salvaría de los terminators, no es una sola persona, sino que es una asociación de vecinos, Mati. Atención, porque los vecinos de Premier de mar, en Barcelona, se han hartado de los contenedores digitales y se han tomado la justicia por su mano. Se niegan a usar la tarjeta obligatoria para introducir la bolsa de basura en los contenedores, porque la, por lo tanto, las calles se han llenado de bolsa de basura a modo de protesta y, claro, empiezan los malos valores y el, y la la dificultad de la de la convivencia.
Desde la plataforma stop contenidors digitals, me encanta el nombre de los catalanes para estas cosas, stop contenidors digitals exponen su posición. Los vecinos de Premiere de Bar no queremos dejar basura en el suelo, queremos separar como antes, en condiciones. Padecemos mucho con este sistema de contenedores cerrados con identificación, no funcionan bien, son insuficientes y vulneran nuestro derecho a la intimidad. Atención a la gran rebelión contra las máquinas, que quizá no es estos luchadores antitrampistas contra las discriminación a los inmigrantes, expulsiones de dudosa legalidad de la administración Trump. Puede ser que esto esté sucediendo en nada más y nada menos que Premiere del mar Barcelona, Matías.
Y, además, animo a la gente a a que no se deje doblegar por los contenedores restrictivos, porque si algo teníamos solucionado en España, es el tema de los contenedores. Esto, que estoy mostrando en el vídeo en YouTube y en Spotify, es un tuit real de la ciudad de Nueva York que está celebrando por todo lo alto que la ciudad ha empezado a tener contenedores exactamente iguales que los que tenemos en España, y creo que leí que hasta se fabrican aquí o se diseñan aquí o lo que sea. Un avance que Nueva York te vende como lo último, ¿vale? Y que aquí teníamos solucionado desde hace cuánto, muchos años, no décadas. Pues, animo a la gente que no se deje doblegar por las máquinas en cosas que ya teníamos solucionadas.
Sí. Además, yo te voy a decir una cosa, a lo mejor, las autoridades de Primera Imar no han leído a Humberto Eco, que que tiene una tesis muy fuerte sobre que hay cosas que no se pueden mejorar, ¿no? Hay cosas que han llegado a su pic. Para Humberto Eco, por ejemplo, es el libro, el libro de papel, no pueden mejorar el libro de papel. Es una cosa tan bien hecha, tan óptima para la distribución y adquisición del conocimiento y el arte que no puedes mejorar, libro electrónico a la mierda, ¿no?
O la cuchara. ¿Cuándo hay gente que quiere innovar en la cuchara? Es absurdo, la cuchara es perfecta, Tienes ahí tus lentejas, vegetales, yo no le echo chorizo a la lenteja, un taco más para para la gente. Y no puedes mejorar una cuchara, es imposible, ¿no? Pues hay objetos que están ahí.
Entonces, es posible que el contenido de basura ya esté en su su pick, no puedas mejorar, no puedas innovar ahí, te empeñas, ¿no? Como en la cerradura inteligente que, no, la llave y la cerradura funcionan de puta madre, no innoves más, resuelve otro problema, y ahí la gente de Premiere en el mar, pues, ha puesto pie en pared, atención, y stop continudors digitales, Portagrande en Monas y Tocático. Y te traigo un último personaje, es extraño, yo ya me empieza a fallar la memoria, no sé si ha salido antes este individuo, que es como como el Cardwell español, el gran profeta de la singularidad, José Luis Cordero, atención a José Luis. Es que, claro, le falta un poco de branding a José Luis. Tú dices, José Luis me ha contado esto.
Claro, lo que vas a contar ya con un halo determinado, ¿no? Bueno, ¿qué nos dice José Luis? Pues, en una entrevista al periódico El Mundo, bueno, a la revista Papel dentro del medio El Mundo, José Luis Cordero, pues, nos anuncia lo siguiente, Gracias a la tecnología, atención al al al al dato que da José Luis haciendo el saludo de Star Trek con una corbata en la que sale su propia cara, lo cual creo que da unas garantías, ¿no? De una confianza en sí mismo tan fuerte, es un hombre que difícilmente puede estar equivocado, dice que a partir de dos mil cuarenta y cinco, atención, seremos inmortales con el rejuvenecimiento biológico. Claro, entonces, llegará un momento en que, aunque nuestro cuerpo tienda a envejecer, las cosas tecnológicas que hagamos con nuestro cuerpo, como echarán más años para abajo, digamos, ¿no?
A ver si me explico bien, para que la tengamos lo que llama José Luis, la muerte de la muerte. Atención, porque dos mil cuarenta y cinco, Matías, ¿qué opinas tú de esto?
Yo lo que estoy viendo, Antonio, es que me estoy autoconvenciendo de que vivimos en una simulación, porque que estemos dando voz a un señor que hace el saludo vulcaniano y lleva su propia foto en la corbata para este tipo de de temas tan grandilocuentes, que Nueva York esté vendiéndote como la última novedad los contenedores que tenemos en España. Que en un municipio de Barcelona la gente se haya rebelado contra las máquinas empezando por la basura. Que Víctor Aldama esté saliendo con la ex de Albise o que J Pelirrojo esté haciendo el swing ruso con la Ketelbel con su mujer recién parida hace minutos. Esto solo puede ocurrir en una simulación, no tendría sentido que fuera de otra forma.
Bueno, el amigo Cordero dice que los gobiernos que no entienden esto, no están con este tema, no quieren vencer a la muerte porque piensan que las personas mayores son muy caros, el ochenta por ciento del gasto médico se va en los abolillos y, claro, si no envejeces, pues no hay gasto final y seguirá siendo productivo en el sistema, dice José Luis. Entonces, ahí, yo cuando dijo dos mil cuarenta y cinco, yo estuve haciendo cuentas, Matte, ¿no? Veinte años, ¿vale? Caro, al principio, la inmortalidad será muy cara, eso hay que tenerlo en cuenta. Es decir, si llegará la inmortalidad premium, ¿no?
Es muy cara, no, muy fuerte, ¿no? Como los céntrica ahora, que hay que gastar mucho, pero en cinco años tendremos la, yo creo, ¿no? Pongamos dos mil cincuenta va a llegar la inmortalidad Xiaomi, ¿no? En que ya los chinos lo igualan y lo hacen más barato, y ya, pues, eres inmortal, pero con una solución, pues, traída de allí, ¿no? Entonces, para mí, el horizonte son, súmate veinticinco años a lo que tienes ahora.
Entonces, yo he hecho mis cuentas y el gran peligro es que te llegue demasiado pronto, Mati. ¿Por qué lo digo? Porque, según Cordero, tú puedes seguir siendo productivo para el sistema. Entonces, si no has llegado a la edad de jubilación, no te has jubilado ya, a dos mil cincuenta, la has cargado, Matías, porque, claro, va a ser inmortal, pero manteniéndote en tus sesenta y pocos años, a lo mejor, ¿no? Cincuenta y mucho, sesenta y poco, muy mal.
El sistema dirá, pues ya te contamos para la jubilación la edad biológica, sigue trabajando siempre.
Claro.
En cambio, si yo consigo que eso no llegue hasta que me ya me he jubilado, pues me estaréis pagando la pensión eternamente. Es decir, seré el eterno pensionista, inserso, el cine gratis, la paguita, estaré de puta madre. Entonces, solo por eso les voy a dar, yo para mí es puerta grande.
Sí.
Yo solo digo eso.
El eterno pensionista, el nuevo libro de Douglas Adam. Te voy a decir una cosa, dijo el otro día Elon Musk, cuando se estaba peleando con Donald Trump en directo, unos días más divertidos de Twitter de los últimos meses, dijo una cosa que me dejó pensativo, porque después de decir, es que está en la lista de Epstein, no sé, dijo, una cosa más para reflexionar. A Trump le quedan tres años y medio como presidente, pero yo estaré aquí durante más de cuarenta años. Elon tiene ya cincuenta y tres. Entonces, se ve bastante longevo.
¿Qué sabe Elon y qué sabe el señor de saludo Gulcaniano que no sabemos nosotros sobre la inmortalidad?
Pues ahí lo dejamos, yo creo que no podemos dejarlo más arriba, Mati, solo se puede mejorar con tu mejor canción de esta semana. No va a ser la resumen del episodio, si te he entendido bien, pero es un arte de Mathias al fin y al cabo.
Nos vemos la semana que viene, gente.
Sin cuerpo ni nombre que en este mundo de luz fría soy más