Reescribir la IA desde el punto de vista de los orcos

00:00 /56:09

Descubrimos que Sam Altman hace peso muerto para tener claridad mental, lo que nos pone en una encrucijada.

NOTICIAS

Bruselas ultima una propuesta de ley para regular el desarrollo de la Inteligencia Artificial en la UE https://www.newtral.es/ley-inteligencia-artificial-ia-chatgpt-union-europea-ue/20230427/

Las plataformas también quieren cobrar. Reddit y Twitter y Stack Overflow están en esto https://www.nytimes.com/2023/04/18/technology/reddit-ai-openai-google.html

Biden de colegueo con la chupipandi de la IA https://www.whitehouse.gov/briefing-room/statements-releases/2023/05/04/fact-sheet-biden-harris-administration-announces-new-actions-to-promote-responsible-ai-innovation-that-protects-americans-rights-and-safety/

ChatGPT Derrota a los médicos en la respuesta a los pacientes https://www.wsj.com/articles/dr-chatgpt-physicians-are-sending-patients-advice-using-ai-945cf60b

Geoffrey Hinton acaba de abandonar Google para advertir al mundo de los peligros que se avecinan https://www.technologyreview.com/2023/05/02/1072528/geoffrey-hinton-google-why-scared-ai/

El CEO de Google DeepMind afirma que la verdadera inteligencia artificial "general" podría estar a menos de una década de distancia https://www.wsj.com/articles/google-deepmind-ceo-says-some-form-of-agi-possible-in-a-few-years-2705f452

Google se hace caquita con los modelos opensource https://www.semianalysis.com/p/google-we-have-no-moat-and-neither

La IA hace posible la lectura de la mente https://www.theguardian.com/technology/2023/may/01/ai-makes-non-invasive-mind-reading-possible-by-turning-thoughts-into-text

BASADO O HACIENDO LA CIENCIA

Joanna Stern hizo un clon de sí misma y lo utilizó para gastarle una broma a Evan Spiegel, CEO de Snap https://www.wsj.com/articles/i-cloned-myself-with-ai-she-fooled-my-bank-and-my-family-356bd1a3

Grimes presenta un software que imita su voz https://elf.tech

El hombre que publica más de 400 libros al mes https://www.chatgptimpact.com/blog/

PUERTA GRANDE O ENFERMERÍA

Boston Dynamics ha probado a poner ChatGPT en uno de sus robots https://twitter.com/monospodcast/status/1651645577015296001

Haz fotos de tus amigos: poco a poco, aparecerán fotos de ellos desde universos paralelos en el carrete de tu cámara https://twitter.com/bnj/status/1653837250210430976

"Tengo 40 años y Sólo salgo con chicas de 24 años o menos. Ahora salgo con tres" (procede a pegar fotos autogeneradas) https://twitter.com/shadesofgame/status/1654426304404664321

Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com

Transcripción

Bienvenidos una semana más a Monos Estocásticos, este podcast que, por ahora, va sobre inteligencia artificial. A lo mejor pivotamos al metaverso. ¿Quién sabe? ¿Quién sabe? Antonio, ¿cómo estás? Estoy preocupado, Matías.

Estoy preocupado. Creo que llega un momento de la verdad para este podcast, Mati. ¿Qué ha pasado ahora? Estoy sospecho. Estoy con la duda de si por primera vez viene un choque editorial dentro de Monos Estocásticos, Matías. Porque siempre hemos ido de la mano, siempre bien avenidos, siempre con buen rollo, con las ideas afines. Pero esta semana ha pasado algo que puede romper un poco este consenso constitucional de Monos Estocásticos. Creo que ya sé a lo que te refieres. Sí.

Este podcast es probar. En los últimos episodios hemos dado argumentos más que suficientes. Es un chatbot que no hemos podido usar, eso es cierto, pero que es un chatbot que lo tiene todo, te responde a los resultados del Betis, habla bien del podcast, pero de repente saltó la noticia esta semana sobre Sanalman y Sander Pichai. Alguien en Twitter lo señaló, lo subrayó.

El chat Sanalman es un powerlifter y hace peso muerto, Matías. Sanalman, el CEO de OpenAI. Yo inmediatamente me identifiqué. Matías se va a identificar con él, porque los oyentes, a lo mejor, alguno no lo sabe, pero Matías es un loco del peso muerto, del deadlift. Y claro, aquí se puede partir entonces el podcast porque yo sigo con mi corazón conquistado por VAR y tú probablemente, ahora que eres un alma gemela, ahora que compartes todo con Sanalman, Matías,

probablemente te vayas de nuevo a ser pro-chat GPT. Bueno, por ahora, al único al que le he dado dinero de mi bolsillo ha sido a Sanalman con el chat GPT+. Así que ya en mi corazón algo se sentía. Y es cierto, bueno, esto es un usuario de Twitter de estos que pagan por Twitter Blue, así que te imaginas por dónde va el tuit, ¿no? Un tío hace peso muerto para tener claridad mental y el otro no, señalando claramente el cuerpo escombro

de Sundar Pichai en comparación con, bueno, los hombros. Pero también te digo que Sanalman hace mucho hombro, hace mucho brazo, pero no sé si hace mucha pierna. Sí, se vea como los bros de los gimnasios de los 2000, que, claro, los muchachos que estaban muy concentrados en la parte superior de su cuerpo, pero desatendían el tren inferior, Matías. Entonces, bueno, ahí puede haber una diferencia porque tú eres el rey del tren inferior, Mati, en el gimnasio.

Y, por lo tanto, puede que tu afinidad con Sam no sea tanta, ¿eh? Bueno, además pone aquí tres veces a la semana que hace Alman levantar peso. Nosotros vamos cuatro en principio al CrossFit, o sea que por ahora le estamos ganando a Alman. Vengao. Vamos con las noticias de la semana, a ver qué está pasando en la inteligencia artificial. Bueno, el primer tema que te traigo, Matías, es súper divertido y va de legislación.

Tema apasionante y fascinante donde los haya porque, bueno, los oyentes lo saben, tenemos que recopilar dos semanas de grandes noticias de la inteligencia artificial y, bueno, esta es, digamos, una que se ha ido desarrollando en estos últimos 14 días. Bueno, Bruselas ultima una propuesta de ley para regular el desarrollo de la inteligencia artificial en la Unión Europea. Esto viene de lejos, es decir, lleva años preparando este borrador.

Lo que pasa es que, de alguna manera, los últimos avances creo que han enviado con el pie cambiado a la Unión Europea. En una historia que sorprenderá a muy pocos, los esquemas bajo los presupuestos, bajo los que se estaba legislando, no contemplaban la explosión, por ejemplo, de la inteligencia artificial generativa. Así que, bueno, de momento es un mero borrador que además no está terminado y que, bueno, en lo más destacable podríamos decir que incluye cuatro niveles de riesgo para los sistemas de inteligencia artificial

y cada nivel de riesgo tendrá, pues, unas exigencias para su desarrollador diferentes. Está el nivel mínimo, que es una inteligencia artificial, pues, de chichinabo, una, supongo, las menos peligrosas según los legisladores, riesgo limitado, riesgo algo y riesgo inaceptable, que es como, bueno, ya aquí se pone Josep Borrell en el kimono y te cierra la empresa rápidamente, ¿no? Bueno, entonces, esos sistemas pues tendrán que, según la legislación europea, si finalmente ve la luz,

pues tendrán que mirarse las exigencias de cada nivel de riesgo y en función de ello cumplir una serie de normativas. Todo esto suena un poco etéreo, ¿no? Es como oyen campanas y no sabes dónde, no sabes por dónde tirar. No sé, es la impresión que me da sin haberme metido muy a fondo. Por cierto, el artículo que estamos compartiendo es escrito por Marilín Gonzalo, que es oyente del podcast. ¿Tenemos oyentes en todas partes?

Sí, sí, además Marilín lo está cubriendo muy bien en Neutral, todo este tema, y además ella lo plantea de una manera interesante porque una de las grandes dudas de esta legislación es chat GPT, mid-journey, stable diffusion, todo lo que estamos usando ahora, big chat, VAR, todo esto, ¿dónde queda? ¿Es de riesgo bajo, de riesgo alto? ¿Por poder generar defects son inaceptables? Bueno, se hizo la recomendación en la anterior presidencia de la Unión Europea de que fueran considerados de riesgo alto.

No inaceptables, pero sí de riesgo alto, lo cual los encruzaría en los que más, de alguna manera, más obligaciones tendrían para con la norma si se aprobara. Y bueno, hay una disposición final que parece que ha entrado como de última hora para ser considerada, que tiene que ver con cómo se entrenan los sistemas de inteligencia artificial generativa, que deberán declarar si se han entrenado con contenidos protegidos con derechos de autor.

Entonces, esto nos devuelve a todo el debate y toda la discusión que tuvimos en el penúltimo episodio, Mate. Sobre si realmente esto infringe las normas de derechos de autor, por cómo se entrenan estos modelos. Bueno, ida al episodio anterior, o mejor dicho, al anterior del anterior, porque el anterior fue la entrevista a Lucia para entender de lo que estamos hablando. Mate, ¿qué te parece todo esto, Antonio?

Yo tengo muchas dudas, porque a la vez Joe Biden hizo una merienda cena, que es de donde salió la foto de Sander Pichai y Sam Alma, donde fueron algunos de los grandes jefes de las empresas tecnológicas que están desarrollando sistemas de inteligencia artificial. Hubo ausencias notables. Uno estuvo SAC, que por mucho que sigue hablando de inteligencia artificial últimamente, no le consideran de la chupipanda y de la IA, Matías.

Bueno, pero espérate, mira dónde estaba. Lo tengo aquí, lo tengo aquí. Estaba ganando un campeonato de jiu-jitsu. Este hombre tiene un historial de fotos, el de surfeando con la bandera de Estados Unidos, la dedicación que tiene con el deporte, pero bueno, como dice el propio Sam Alma, hay que mantener la mente clara, estando saludables, para luego ponerte al lío con la inteligencia artificial. Pues te tengo que contar, tengo un sobrino campeón de Europa de su edad, a cumplir 17, de jiu-jitsu.

Entonces ya tengo dos colocados, tú en el puesto con Sam Alma y mi sobrino José, el mejor del planeta, con Suki. Bueno, sé que ver jiu-jitsu bien, inteligencia artificial de momento no lo consideran, pero fíjate, yo creo que el estilo ahora mismo de la reunión de Estados Unidos con la europea, reflejan vibras diferentes.

¿Qué vibras son? O por lo menos me da a mí esa impresión, Mati. Los estadounidenses se han reunido en, oye, nos reunimos con vosotros, no hagáis cosas malas, vamos a estar observando, no hagáis cosas malas, gastad cuidado, como decían las abuelas. Y la Unión Europea es, no, no, no, hay que elegirla rápido, pronto, que todo el mundo sepa que vamos a elegirla, hay que elegirla, hay que poner leyes y hay que poner normas ya. Entonces yo creo que estamos en momentos bastante diferentes.

De hecho Estados Unidos ha creado un fondo para financiar investigación en inteligencia artificial, es decir, lo que hablamos en ese episodio, que nadie espere que Estados Unidos vaya a sabotear a una de las grandes industrias del futuro en la que ahora mismo va líder, eso no va a pasar. Y la Unión Europea, desde luego, parece mucho menos preocupada por ser líder en tener empresas de base tecnológica fuerte de la inteligencia artificial.

Supongo que en este tipo de reuniones con los grandes líderes, al final siempre lo que importa es ¿pero vais a poner el dinero para algo? Porque todo lo que sea regular sobre algo que no está claro qué va a pasar, como esta teoría del AGI apocalíptico, es un poco raro, ¿no? A ver si nos llaman aleatoriamente de la Comisión Europea como con el metaverso para ir a debatir cómo se regula la inteligencia artificial.

Porque me parece que los comisarios van a necesitar mucha ayuda también. Sí, yo también tengo una duda. Hay una escuela que aboga a que hay que regularla por casos, es decir, la inteligencia artificial en su relación con la propiedad intelectual, la inteligencia artificial en su relación con la investigación médica en sellos clínicas, la inteligencia artificial en el caso de la usurpación de identidad.

Y yo tengo una duda de a qué nivel tecnológico se deben regular las cosas. Es decir, ¿se debe regular a nivel TCP y IP? Porque con las redes sobre ellas se construye todo el Internet y ahí suceden cosas. Entonces, ¿cuál es el nivel acertado? ¿Se tiene que regular cuando sale la base de datos relacional? ¿O cuando sale la hoja de cálculo? Pues, tú dirías, me parece bastante discutible. Entonces, mi reflexión últimamente, Matías, va mucho más en que creo que tiene bastante más sentido

el regular por categoría, por caso de uso, que decir una regulación general de la IA. Porque al final, ¿qué es IA? ¿Qué no es IA? ¿Cómo va a ser la IA de dentro de un año con respecto a lo que es ahora? Es muy difícil, ¿no? Entonces, bueno, yo tengo por ahí ahora mismo esas cuitas, esas dudas. Bueno, este es el caso de los más, que creo que lo vamos a comentar después, no sé si me estoy adelantando, de la guerrilla esta que tiene con Microsoft, ¿no?

Porque Microsoft entrenó, bueno, Microsoft no, OpenAI entrenó sus modelos con los tweets de Twitter y ahora Elon amenaza con desmandar a Microsoft. Pero es que, además, esto ha escalado hasta tal punto que Microsoft directamente ha dejado de poner publicidad en Twitter, que bueno, Microsoft, como Google Adsense, o como Google Ads, pues es una agencia muy grande de vender publicidad. Y aparte, ya no puedes ni compartir tweets desde la Xbox, o sea que imagínate el nivel de ridícula

que está llegando. Yo estoy a favor de Elon Musk porque desde que intentó sabotear Substack, yo ahí, claro, tengo los dos huevos puestos. Aquí soy de parte, ¿no? Tengo los huevos puestos. Por cierto, eso retrocedió y ya se puede enlazar sin problemas. Sí, pero si compartes un enlace del subdominio Substack, como son las newletters que se generan ahí, no te genera la vista chula con la previsualización de la imagen, etcétera.

Se queda mal, ¿no? Tienes que añadir tú la foto a propósito. Pero bueno, ese no es el caso de hoy. El caso es que 2.0 es un negocio interesante. Teníamos un debate muy fuerte sobre derechos de autor en el que parecía que había algunos actores, claro, los sistemas de inteligencia artificial y sus empresas, los creadores de los contenidos, los propietarios de derechos de contenido, que puede ser una discográfica, puede ser un medio de comunicación.

Bueno, pero hay otro actor que es la plataforma de contenido generado por usuarios. Y de repente hay tanto Twitter, como tú habías explicado, Mati, como Reddit, como Staroverflop, como Pinterest, es decir, todos están un poco en la línea de, oye, yo tengo un montón de datos que han sido usados o podrían ser muy bien usados para entrenar inteligencia artificiales, yo también quiero cobrar. Pero claro, estos sistemas, casi ninguno va a compartir esos ingresos con los usuarios que los generaron.

Yo creo que siempre volvemos a la frase de César Alierta, ¿no? Al final, sí, si están usando algo mío, yo lo que quiero es cobrar, ¿no? Bueno, claro, César Alierta, el espíritu de Alierta, que descanse en paz, yo creo que reflejaba, a mí me gustaba mucho porque era, en crudo y directo, una forma muy clara de hablar las cosas. De hecho, me cae bastante mejor que Payete, ahora que no escucha poca gente.

Ojo, que Payete me sigue en Twitter. Te sigue en Twitter. Bueno, pues entonces, Matías, no contaremos la carta que escribió Payete sobre inteligencia artificial, porque la carta de Payete sobre inteligencia artificial, para no confiar mucho en el futuro de Telefónica, lo voy a decir claramente, lo siento mucho. No sé si la escribió él o se la escribieron, pero hay cosas raras, confunde agi con modelos generativos, hay cosas raras.

Y ahora que todo se está descentralizando con Tokens Web 3, hijo mío, por favor, que alguien traiga de nuevo a este planeta a Payete. Madre mía. Igual lo podemos invitar al podcast y preguntarle directamente. Darle el derecho de réplica, claro que sí. Bueno, pues hemos contado tanto la parte de la Unión Europea, como la parte del colegueo de Biden con los gerifaltes de la IA, y luego hay un tema que a mí me ha parecido curioso, Matías,

a ver si lo puedes comentar tú también un poco, que es la compartida que han hecho entre Chad GPT y la respuesta que dan los médicos a los pacientes. Ah, esta es muy buena, ¿no? Porque la relación de los pacientes con los médicos depende mucho del médico y del estado de ánimo y del estrés del médico, ¿no? Entonces, ha habido un estudio que dice que Chad GPT derrota a los médicos en respuesta a pacientes,

¿no? Un estudio que demuestra que Chad GPT es preferido el 79% de las veces a los médicos a la hora de responder a preguntas de los pacientes. Preferido como más empático y conversacional, es decir, como más majo, ¿no? Esto es habitual.

Yo no sé si en tu ambulatorio de tu barrio los médicos están o no un poco hasta arriba de trabajo, pero en el mío la relación paciente-médico se ha visto deteriorada en los últimos años bastante por el estrés que tiene esta gente y el número de pacientes, ¿no? Entonces, no me extraña que si tú le haces estas preguntas a Chad GPT directamente te la solucione de forma más empática. Esto lo veríamos hablando incluso con el tema hasta de veterinario, ¿no? A qué capacidad tiene Chad GPT de resolver consultas médicas que son serias, ¿no?

Pero también de racionalizar o de poner en palabras que pueda entender un paciente lo que te puede estar pasando, ¿no? Yo creo que ahí está lo mejor y lo peor de la IA, es decir, esa capacidad de que no se cansa, no se estresa, es capaz de adaptar su lenguaje de un dominio súper técnico a un lenguaje muy cercano y a la vez, oye, no puedes poner a un paciente en manos de la IA y dejar que te diagnostique y te trate

porque alucina, falla, inventa, etcétera, lo que ya sabemos, ¿no? Y además de que el trabajo de un médico no se reduce a eso de miro una analítica y te digo cosas, ¿no? Sino que de la comprensión y el conocimiento del paciente se dirían muchos otros temas, ¿no? De todas maneras, yo mantengo a mi doctora, que me encanta ir a verla, ¿no? No porque me quiera estar malo, pero soy muy fan de ella.

Además, hablamos muchas veces de entrenamiento, de cómo lo llevamos cada uno. Está súper maja mi doctora, yo siempre la hago caso. Yo creo que precisamente para analíticas, esto puede estar muy bien. Porque hay veces que te entregan el resultado del analítico, lo puedes ver en el informe. Por ejemplo, aquí en la Junta Andalucía, te metes en salud de la Junta Andalucía y puedes descargarte tus informes y de analítica.

Esto se lo pasas al chat PDF, que es mi servicio favorito. A lo mejor, no lo he probado, pero a lo mejor le preguntas, ¿qué significa esto que tengo alto? Y me dice, mira, estás comiendo demasiada carne o no sé, ¿sabes? Puede ser, esto llevado a un terreno de explicar de forma simple cosas complejas puede estar chulo. Por cierto, hablando de esto, ¿has probado Py? Esta chatbot que ha creado, creo que un cofundador de LinkedIn.

Porque es como un chat GPT, pero empático. O sea, está hecho para tener conversaciones, ¿no? Acabo yo de abrir y le he dicho, me siento solo. Y dice, bueno, me contesta en inglés. Dice, ah, ¿te sientes solo? Es frecuente que la gente se esté sintiendo aislado con esto de la pandemia, no sé qué. O sea, bastante, eso, bastante empático y bastante conversacional, ¿no? Sí, sí, sí. Fíjate, yo he probado este y el nuevo que sacó la gente de Stable Diffusion,

que creo que es Stable LM o Stable ML, algo así. Y este me gustó más. Está mejor resuelto, más fino. En español se hace un poco de lío, pero el de Stable Diffusion lo vi en inglés. Y en español, flojete, flojete, flojete. Yo creo que van bastante por detrás de nuestros, de chat GPT. No digamos ya de bar, ¿no? Bueno, pues nada, chat GPT y médicos, en el system prompt le pones, eres un médico, pero simpático, hablador y con mucho tiempo para resolverte preguntas.

Y esto, no estamos en Puerta Grande Enfermería, pero esto va para Puerta Grande. Y bueno, hablando de gente que está llamando la atención, Geoffrey Hinton, uno de los... Sí, yo le he dado que hablar. Además, que todo el mundo le ha gustado eso de el padrino de la IA, ¿no? El padrino de la IA, sí. Le ha gustado a la gente. Bueno, este hombre es un genio de redes neuronales y de aprendizaje profundo.

Lo que pasa es que se está compartiendo mucho la noticia de que se va de Google como si fuera por sus propias preocupaciones, por cómo se está tornando todo y cómo se está dirigiendo todo. Pero este hombre tiene 75 años. Tendrá que descansar, ¿no? Tendrá que irse a su casa algún día. Además, me imagino que estaría cobrando un pastizal como asesor o no sé, algún puesto de estos suaves en Google.

Bueno, yo creo que, de alguna manera, Geoffrey Hinton, además, no sé si lo llegué a estudiar en la carrera porque, bueno, en su investigación hay dos elementos clave. La backpropagation, la retropropagación. Yo creo que fue uno de los que avanzó de los pioneros en el no supervisado, que es clave en todos los generadores de texto que estamos viendo ahora. Pero a mí me da la impresión un poco de jubilado de la IA,

de bueno, de señor, que deja su trabajo y empieza a decir que mal está todo y que estos chavales que están haciendo ahora cosas no lo están haciendo bien. De todas maneras, yo creo que hay una contradicción en términos con la postura de Hinton y de otros grandes investigadores algunos de los cuales firmaron la carta famosa que es, oye, tan bueno no sé, prediciendo el futuro ustedes. Es decir, lo que no puedes decir a la vez,

yo he hecho varias de las tecnologías clave para los sistemas de inteligencia artificial que hay ahora y puedo predecir que los sistemas de inteligencia artificial van a causar todas estas catástrofes y problemáticas. Bueno, pues tío, tú eres el que ha contribuido a ello. Si eras tan bueno prediciendo lo que va a pasar lo habrías predicho hace 20 años cuando descubriste todo esto y no lo habrías hecho, digo yo, ¿no?

Bueno, no sé, no estoy muy convencido de la postura de estos amigos. Bueno, pues el padrino de la IA que nos deja, pero he visto por ahí que hasta Elon Musk lo ha contactado para que se una a su club de, no sé cómo llamarlo, los villanos de la IA, los anti-IA, no sé. Claro, pero desde su punto de vista son los buenos, ¿no? A mí me recuerda el tío ese que escribió El señor del anillo desde el punto de vista de los orcos

que era un colega que hizo ese libro. Pues nada, los orcos de la IA. Bueno, nosotros no somos los malos, nosotros estamos aquí como viendo la cosa pasar, pero bueno, ese es otro tema. Y bueno, quien ha dicho la cosa más gorda estas semanas, Mati, es el nuevo flamante CEO de Google DeepMind. Tu amigo Hasavis. El amigo Hasavis, que es otro de los investigadores estrella del mundo de la IA de los últimos 20, 30 años,

que bueno, ha dicho muchas cosas en una entrevista del Wall Street Journal, pero hay una interesante que es que él cree que de la IA general podríamos estar a unos pocos años, quizás a una década, Matías. ¿A una década? Yo no estoy preparado, Mati. Pero ¿para qué vamos a usarla? Ya tenemos modelos multimodales, ¿para qué vamos a usar la AGI que no tengamos ahora? Claro, de hecho, hay un debate sobre lo que es la AGI.

La Inteligencia Artificial General a veces se interpreta como inteligencia artificial fuerte, por distinguirla de los siempre casos muy específicos. Esta IA juega al ajedrez, esta IA reconoce gatitos en las fotos, esta IA traduce. Bueno, una general tiene una inteligencia capaz de superar esos casos de uso estrechos y servir para todo, entre comillas, y además lo haría a un nivel similar al de los seres humanos.

Hay gente que usa el término inteligencia artificial a nivel humano, pero eso va a ser un poco imposible. ¿Por qué? Porque estos sistemas ya sabemos que en algunas cosas siempre van a ser mejores que nosotros. Si al final esa IA tiene la capacidad de cálculo de un ordenador, ya sabemos que es mejor que un ser humano calculando. Pero bueno, lo que se espera es ese punto, a un nivel parecido, similar a los humanos,

y que no esté constreñida a un solo caso de uso. ¿Para qué le vamos a usar? Bueno, es una buena pregunta. ¿Para qué nos van a usar ellas a nosotros? Igual ese es el enfoque correcto. El enfoque correcto es el de tu amigo de los pesos muertos, que dice que él personalmente cree... Hay gente que dice que Alman ha dicho esto, no lo ha publicado ahí a las bravas. Que necesitarán 100.000 millones de dólares de capital

para desarrollar la IA general. Entonces, bueno, se conseguirá, no se conseguirá, pero mientras Sam está pidiendo perras. Claro, a Sam hay que ponerle lo de solo veo tuits tuyos pidiendo perras. Porque ya tiene suficiente dinero de Microsoft y ahora de dónde vas a sacar estos 540 millones. Vale, yo te propongo, Mati, que el próximo capítulo va a ser una presentación especial de la Inteligencia Artificial General

y cómo podemos pensar alrededor de ella. Yo soy escéptico. Yo realmente no creo que con los modelos de Deep Learning se vaya a crecer muchísimo más. Pero bueno, es que el amigo Hinton, el jubilado de la IA, yo ya no lo llamo el padrino de la IA, yo lo llamo el jubilado de la IA, que está dando entrevistas a todo el mundo, ha pasado por el país y una de las preguntas que le preguntan es cuándo cree usted

que llegará esto de la IA general. Y Hinton dice de 5 a 20 años. Bueno, claro, esto es como en los concursos de la tele, ¿no? Si te dejan decidir un rango muy gordo pues tienes más probabilidad de acertar, ¿no? Bueno, Hinton antes, hace unos años, era más pesimista y ahora pues ve la cosa mucho más cerca. Pues nada, unos dicen 10, otros dicen 5 a 20, así que la cosa está un poco a la vuelta de la esquina.

Tú y yo lo vamos a vivir. Igual llega antes que la llegada a Marte, ¿no? De la NASA o de los chinos. Puede ser que lo veamos. También te digo, estamos hablando de la AGI, que me imagino que serán modelos gigantescos y al mismo tiempo Google está temiendo a los modelos más pequeños, ¿no? Sobre todo a los open source. Sí, se ha filtrado. Claro, nadie lo ha confirmado muchísimo y en la web de semianalysis.com

se filtraba un documento, lo que pasa es que el documento estaba muy bien hecho y de hecho tenía un pensamiento estratégico bastante chulo para los que les interesa el mundillo de la estrategia de las empresas tecnológicas, en la que supuestamente se filtraba un documento interno de la propia Google en el que la tesis más fuerte era que Google lo tenía muy mal, lo tiene muy negro en inteligencia artificial

y opene ahí también, porque el futuro no es de estos grandes gigantescos modelos de lenguaje propietarios y cerrados, sino de modelos muy pequeños, o más pequeños al menos, libres, que tienen la ventaja de que no necesitan un montón de meses para actualizarse, sino que en pocas semanas van evolucionando, van cambiando y era un poco el David o el un millón de Davids contra Goliat, que plantea el documento y el análisis.

Aquí pone un ejemplo este documento filtrado, la gente está ejecutando modelos en un píxel 6 a 5 tokens por segundo, venimos hablando de estos modelos que, sobre todo a partir de que se filtró de llama, que se han ido ejecutando en ordenadores y teléfonos, y es donde Google ve el peligro, porque si estos modelos van a ser más pequeños por limitaciones de hardware, tienen la capacidad de resolverte la mayor parte

de cosas que necesites, y si no la te la resuelves, pues ya llama con una API o lo que sea, a un modelo más grande, pues es donde corre el peligro. También te digo que puede ser que Google haya filtrado esto para desviar la atención de OpenAI, para que OpenAI no se vea como la clara ganadora en todo esto. Yo me acuerdo que nos reímos cuando hablamos de llama y hicimos la broma de, oye, el LeCun y Zuckerberg

nos habían dicho, venga, vamos a joder tanto a OpenAI como a Google, liberando el modelo y que el futuro sea OpenSource, ya que lo de los bots conversacionales no lo vamos a ganar porque no lo van a ganar tampoco esta gente. No sé, a mí me parece muy atractivo el modelo ejecutándose en tu móvil, porque la dependencia de la API y del servicio online primero tiene un problema de privacidad mayor, que si tú

te lo ejecutas en tu móvil, tiene un problema de dependencia mayor, de costes, de mantenimiento, también de control por parte de la empresa que te está proporcionando el servicio. A mí me parece muy chulo todo el mundo de OpenSource, de modelos de lenguaje, pero no estoy para nada convencido de la tesis de este documento, porque eso de que Google no tiene protección contra esto, no lo sé, tío, es que tiene

una posición todavía buenísima y tampoco tengo yo muy claro por lo que he probado, de que la calidad de los modelos se acerque siquiera un poquito, por lo menos a GPT-4. No, de hecho lo tenemos comprobadísimo, estos modelos OpenSource que están saliendo por ahora, por ahora dan vergüenza ajena en comparación con lo que echa GPT, GPT-4 y BART, bueno, no he probado BART, pero también está por encima.

También creo que este es el juego que va a jugar, por ejemplo, Apple o sea, Apple se tiene que meter en los modelos de lenguaje tarde o temprano, yo creo que igual que hizo con Siri, no, que mira, a diferencia de Alexa o de Google Assistant, perdona a todos los oyentes que acabo de despertar sus altavoces, pues Siri es totalmente privado hace la mayoría del procesado lo hace en local, con los procesadores, pues a lo mejor Apple acaba jugando este juego

de modelos pequeños. Pasa que aquí, fíjate puede tener las de perder, es decir, a corto plazo, mientras estos modelos pequeños, que se ejecutan en un teléfono no pueden competir con los grandes que se ejecutan en superservidores la aproximación de Apple lleva las de perder, es decir, si es verdad, y por lo menos lo han dicho, lo han rumoreado, lo han anticipado, que Amazon va a convertir, va a pasar Alexa al

estado del arte de la tecnología, a un GPT-4, de repente Alexa va a estar como 8 sistemas solares por encima de Siri. Si tú te mantienes en que no, no, no todo local, nada sale del teléfono, etcétera, pues oye, no vas a poder competir, por lo menos, con cómo está la cosa actualmente. Y de hecho, si tú pagas el chat GPT Plus, que tienes acceso al GPT 3.5 Turbo, la velocidad a la que te responde eso es mayor a la que te responde

Siri o te responde un Google Assistant, o sea, que eso ya se puede trasladar a un teléfono de alguna forma, y lo veremos en próximos sistemas operativos, seguramente, a lo mejor en el Google I.O., que es esta semana vemos algo. Esto se está grabando antes del Google I.O., lo mismo han presentado la releche de la inteligencia artificial, yo creo que algo tienen que decir, no pueden decir, venga, tenemos cacharritos nuevos,

no puede ser solo eso, si sobre todo Sander Pichai quiere ser el turrón este año. Y bueno, ya hablaremos y discutiremos la Google I.O. De alguna manera, se filtró de que Google, en este proyecto mágico del que hemos hablado alguna vez en el podcast, quieren hacer una renovación de la búsqueda que va a ser más visual, más personal y más humana. Y lo de la más humana, no sé yo cómo lo van a conseguir,

pero bueno, al final es que van a meter el chat, van a meter, supongo que más contenido multimedia, y van a meter la parte conversacional, pero que no molesta a los propietarios de sitios web. Eso es un poco lo que ha trascendido del plan de la renovación del buscador de Google. Pues poniendo el enlacito al final, ¿no? Sigue leyendo en chataca.com, si no, no sé cómo van a hacer. No sé, yo, bueno, si hay algún

editor de medios que nos está escuchando, yo cada vez estoy más convencido que al Evergreen le quedan dos o tres años, no creo que mucho más, y que esto se reconfigura y que nos va a llevar de nuevo a peleas y preguntas de ese concepto de hemos alimentado a quien nos va a matar, ¿no? Estamos pesimistas, ¿no? Ha sido una semana, bueno, un par de semanas, porque el episodio anterior fue de entrevistas. Yo creo que hay cosas divertidas

en este podcast, pero están envasados o haciendo la fecha. Venga, pasemos a envasados o haciendo la ciencia. Tienes a Joana Stern aquí. La verdad es que a Joana Stern le cae bien a todo el mundo, pero a mi gusto se esfuerza demasiado en... en ser siempre original. Sí, es verdad que se esfuerza mucho, Joana, es muy creativa.

El mundo de la IA, yo creo que no le viene bien a la Joana, porque ella se esfuerza tanto, y a lo mejor gente mucho más vaga, no voy a decir que nosotros, que pueden conseguir resultados similares a lo que ella ha hecho. Cuéntame un poco lo que ha montado esta vez, Mati. Pues básicamente un clon de sí misma, con estas Eleven Labs y todas estas aplicaciones y plataformas que se están usando para clonar voces, para clonar incluso un vídeo

de sí misma, y luego engañó pues a alguien de su familia, a Ivan Spiegel, el CEO de Snap, y bueno, ya habíamos hablado de dobles con tu voz e incluso con tu cara, y esta mujer lo ha llevado al punto de engañar a la gente entrevistando a Ivan Spiegel. Sí, a mí me ha decepcionado Joana, porque me he sentido un poco frustrado, Matías. Es que nosotros ya hicimos la divulgación, es decir, ya hemos explicado el mecanismo

para que todo el mundo sepa si eres tú o una IA, que es hablarle de molletes de panes andaluces en el que tú, pues, haciendo eso, ya automáticamente la gente sabe si eres el IA o eres el normal. Pero a pesar de nuestro esfuerzo divulgativo, Joana se ofusca y se empeña en un callejón sin salida, Matías.

He pensado en otra fórmula, Antonio. Hoy ha tocado correr en el CrawlFit. Si yo algún día digo me encantan las clases de correr en el CrawlFit, no soy yo. Es mi clon de chat. Es cierto. Lo que pasa es que esto nos mete en una derivada, porque si el clon ha aprendido de ti, dirá que no le gusta correr.

Entonces, para reconocer que eres tú, tendrías que a lo mejor exagerar tu pasión por el running, Matías. Pues sí, algo de eso tendremos que hacer. Bueno, tenemos aparte de nuestra amiga Joana, un chico en Reddit que ha dicho que pues ChatGT está... Tengo una carrera construida de hace cinco años y ChatGT, pues, y la IA la van a terminar y a lanzar a la basura.

Atención a la profesión de este hombre, que es escribo notas de programas para podcast. Y en cuanto salió ChatGT, supe que llegaría para ser usado en mi trabajo, pero pensé que se tardarían años. Hoy, mi tercer y mayor cliente me ha dicho que se están pasando a las notas de programas creadas con Pila.

Esto yo se lo escuché por primera vez a Javier Lacorte, que él tiene un podcast loop infinito y usa Notion. Que en Notion tienen la API de OpenAI, pero es más barato porque son 10 euros al mes, creo. Y usa Notion para resumir el guión de sus podcasts. Yo esto lo intenté, lo intenté con Monos y lo intenté con otros podcasts y no salía bien.

Los resúmenes, es que yo no sé si es que hay que meterle un prompt muy específico para que el resumen salga bien. Pero se notaba demasiado la mano de ChatGT y no era muy útil. Ahora, ahora, en Cunda, que es donde alojamos el podcast, están transcribiendo todos los podcasts con Whisper.

O sea, ya hay inteligencia artificial en todos lados, hasta en Cunda. Y esa transcripción yo no he probado enchutarla de alguna forma. Habría que dividirla por el tamaño de la transcripción a ChatGT o a Bing o a lo que sea y de ahí sacar un resumen para la descripción del episodio.

Eso habría que probarlo. El problema, Mati, es que la cosa no se queda aquí porque me crucé con uno de estos chavales entusiastas de que hacen hilos de cómo cada día hay una revolución que lo cambia todo. Y esta semana era el ChatGT con acceso a Internet.

Es uno de esos plugins y modalidades. Ya sabemos que ChatGT en principio es la experiencia inicial. Lo que planteaba es que puedes hablar con el modelo, que está preentrenado y sus últimos datos son 2021, pero al igual que, por ejemplo, hace Bing Chat, pues puede acceder a Internet gracias a esta idea de los plugins que hemos explicado en otras ocasiones. Él hizo este ejemplo. Le dijo a ChatGT, busca las últimas noticias de Inteligencia Artificial y

colócalas en una tabla con fuentes y resúmelas. Entonces yo estaba diciendo, claro, esto que hace Rogoan Cheun, si tú, una vez que has hecho la recuperación de las noticias de IA, las has resumido y ya sólo falta que alguien diga y que las compute y de repente ya tienes el podcast semanal de Inteligencia Artificial Matías, pues hecho con pura IA.

Está todo ahí. Yo creo que tú y yo en esto estamos a salvo, Antonio. Yo creo que la gente nos escucha porque somos tú y yo. De vez en cuando metemos ahí un chascarrillo, metemos ahí alguna opinión. Yo creo que ¿sabes qué podcast corre en peligro? Los que son de leer noticias y los que están muy guionizados. Sí, porque de hecho ya hay resúmenes de noticias.

El otro día me puse a escuchar uno que creo que era de Hacker News. Un resumen de noticias, de todas las noticias de Hacker News del día. Y claro, la sintetiz de voz está tan avanzada que es como que si te estuviera leyendo una locutora profesional y en cinco minutos tienes todas las noticias escuchadas.

Y tú sabes que yo soy muy de escuchar cosas en el coche. Es tentador, es tentador la verdad. Pero yo creo que los podcasts como el tuyo y el mío están más a salvo. Vale, pues yo de momento tengo que... Joana no está basada porque no usa la técnica del mollete ni del running. Por lo tanto, ha hecho la ciencia, pero no ha conseguido basarse.

Este chico de pobre que ve perecer su empleo pues, claro, tampoco resulta basado. Se quedará haciendo la ciencia. Pero tengo una persona, Matías, que yo creo que va a ser la gran basada de la era de la IA que es Grimes. Que ha seguido con su tema, ya lo habíamos comentado que ella quería dividir a la mitad todo lo recaudado con las canciones que hacen con su voz con la IA y ahora directamente ha presentado un software

con su voz basado en inteligencia artificial. Es elf.tech buen dominio, por cierto. Y ahí te invitan pues a subir tu propia voz, a grabar cosas que luego se traducen a la voz de Grimes, ¿no? Por si alguien no canta bien o quiere hacer su propio tema pero con la voz de Grimes y luego llevarse el 50% del dinerito.

Por cierto, no es totalmente libre. Dice que van a hacer van a tirar por infracción de copyright las canciones que sean tóxicas o que tengan letras tóxicas. Grimes, al estar un poco en el círculo de Elon Musk, puede llegar a pasar y empiecen a que las canciones transfobas a llover y cosas así. Así que no hay totalmente no hay total libertad artística.

Yo estoy descubriendo el universo Grimes porque en el Reddit de los frangs de Grimes en el subreddit, claro están muy enfadados porque su nuevo disco Music for Machines se retrasa continuamente y el nuevo single no saben si pertenecerá al nuevo EP I wanna be software. Me encanta Grimes.

I wanna be software. Yo he intentado varias veces escuchar su podcast con Lex Friedman, que no sé si dura cinco horas como todos los de Lex Friedman y era demasiado para mí. Filosofaban demasiado. Pues Grimes, súper basada y tenemos a un señor atención Matías, que se llama Barrett Williams, del que te he compartido una foto en el guión. Que atención la noticia en que reflejan lo logrado por nuestro amigo Barrett. ¿Puede alguien escribir

400 libros en un mes? Este hombre lo ha conseguido, con la ayuda de, claro, ChatGPT. Barrett Williams publicó 424 libros en coautoría con la inteligencia artificial de OpenAI. Sólo el 4 de abril, atención, el 4 de abril publicó 45 obras. Se trata de libros de no ficción que van desde obras culinarias sobre cómo hacer hummus, pasta fresca o quesos, hasta guías prácticas sobre el cuidado de mascotas o la fabricación

del jabón casero. Porque, claro, de nuevo aquí volvemos al tema de los libros y la autoría y al amigo Barrett se lo ha tomado en serio. Para crear un bestseller tienes más posibilidades con 400 libros al mes que lanzando uno en dos años. Estoy viendo las portadas de los libros y se me ha ocurrido una idea. ¿Sabes en las gasolineras donde estaban los CDs y los cassettes? De grupos que a lo mejor no existen.

O los chistes de Arevalo, la de oro. Pues esto, pero generado con IA, ¿no? Y en los libros estos también, que en Amazon la gente vende o en Wattpad, ¿no? Todo lo que sea romántico, yo creo que podría funcionar. Hay un sector ahí que no quiero especificar. ¿Romántico erotiquillo o romántico ya más convenido? Romántico subido de tono, ¿eh? Pero más dirigido al público femenino mayor, que ahora se está quedando sin el

Sálvame, pues una vez que se queden sin el Sálvame, yo creo que esto podría tener mucho éxito. Yo creo que una alianza nuestra, con esta idea feliz que has tenido, Matías, y la productividad de Barrett, yo creo que, claramente nos dará el éxito editorial.

Está asegurado prácticamente. Bueno, hacemos Puerta Grande o Enfermería. Puerta Grande o Enfermería, Matías. Estamos acumulando las secciones chorra una detrás de otra, Mati, y a mí me preocupa una cosa, que es que en el Puerta Grande creo que los meses iniciales de esta fiebre de la IA, había más disparates y había más ideas un poco locas, ¿no? Todavía me acuerdo, Matías, de aquel desarrollador indio que tuvo la feliz idea

de el chat con Hitler. Podía chatlear con Goebbels gratis y con Hitler de pago, que estará en su casa preguntándose por qué no funcionó, por qué funciona el carácter ahí para hablar con Super Mario, en cambio yo que me curré el chat con Hitler no ha tirado pa'lante. Pero bueno, alguna cosa hay, alguna cosa hay Matis, en la Puerta Grande o Enfermería. Bueno, la primera que has puesto en el guión ya me ha empezado preocupando, ¿no?

Boston Dynamics ha aprobado poner chat GPT en uno de sus robots. Pero quien quiera tenía esta idea, esto mezclado con las patadas que le dan a los robots. Esto puede salir muy mal. Sí, sí, claro, que ahora le puedes dar órdenes con la voz al perrito electrónico, y además él te puede responder con voz.

Por primera vez los perros nos van a hablar, Matías. Y, oye, con los avances en robótica y este sistema es decir, tener una mascota robótica, un perrito pues, como el que tuvo Sony, que no me acuerdo cómo se llamaba ese perrillo, el diseño era chulísimo. Pero yo lo veo claro, Matis, yo creo que tener un perrito electrónico, que además no se está cagando por todas partes, tiene su futuro, ¿eh? Además justo hoy, qué casualidad, he

llegado a la casa y estaba todo el pasillo cagado por mi perra. Así que lo voy a cambiar. Si no costara 40.000 euros, lo cambiaría por el Vostro Dynamics. Pero vamos, mañana mismo. Bueno, perros electrónicos con internet artificial, puerta grande.

Y tú traías uno que a mí me tiene concernido, como dirían en la Unión Europea, que tiene que ver con la foto de tus colegas. No lo entendí bien, Matías. Cuéntanoslo. Vale. Yo, honestamente, en Twitter últimamente no te puedes creer nada, ¿vale? Desde que he entrado en los más que en Twitter, sobre todo si el usuario tiene el Twitter Blue pagado, no te puedes creer mucho. Entonces, la gente comparte como un mock-ups de aplicaciones que no existen

o de juegos que no existen y los hacen pasar como si realmente fuera un lanzamiento real, ¿no? Vale. Bueno, este, ParallelCam, es una cámara basada en inteligencia artificial en la que aparecen fotos pues en tu galería con tus amigos, pero que no existen, ¿no? Que son de universos paralelos, ¿no? Incluso con los metadatos cambiados. Yo qué sé.

Estamos tú y yo, Antonio, y nos hemos ido a Tokio. Esto nunca ocurrió. Tú y yo nunca nos hemos ido a Tokio. Pero en mi galería va a aparecer a lo mejor una foto tú y yo en el monte Fuji, ¿no? Y con los metadatos que pone el monte Fuji. Y entonces ¿cuál es la verdad a partir de ahí? Porque si los metadatos dicen tú y yo el 9 de mayo estuvimos en el monte Fuji, no hay quien pueda discutirlo, ¿no? Yo creo que tu ramalazo de experto en metaverso entra

ahí, porque claro, en verdad estamos cada uno en nuestra casa merendando, haciendo un colacao, pero en el metaverso, claro, estamos en el monte Fuji, ¿por qué no? Y esto además vi porque en el hilo lo enlazaba uno, que esto ya había tenido alguien la idea antes de... Además era muy gracioso el tuit, a ver si encuentro dice, si empezara otra compañía, crearía una aplicación de inteligencia artificial generativa

que nos pusiera mis amigos y a mí en fotos haciendo cosas divertidas, ¿no? O sea, tus amigos y tú sois aburridos, quedáis para lo mismo, en el 100 montaditos todos los viernes, pues con esta aplicación, en lugar del 100 montaditos, pues os iríais de fiesta a Ámsterdam, ¿no? Por ejemplo.

Me parece buenísimo Matías, porque podríamos ser el pantomima full de los desganados, ¿no? Yo voy siempre el viernes al mismo sitio, bueno, venimos aquí al parque, este sitio está bien, hay un colegio cerca, bueno, fin de la historia, ¿no? Pero luego, en nuestra cabeza, ¿no? Podemos fliparnos y decir, no, no, no, vivimos una vida de locura, desenfreno y... Sí, al final, así es como funciona en Instagram, todo es falso en Instagram, pues

lo mismo, pero un paso más allá, ¿no? con inteligencia artificial. Bueno, pues yo creo que esto es, bueno, tú decides ¿es puerta grande o enfermería, Matías? Es complicado, después de haberlo defendido tantos minutos es una chorrada enorme. Una gran gilipollez, sí. Sí, de verdad, tenemos tan poco criterio que hay que mandar a la enfermería a este proyecto, pero te traigo otro que está relacionado, Matías, porque

un tuitero ShadeOfGame bueno, ShadeOfGame atención, dijo esta frase en Twitter que es, tengo 40 años y solo salgo con chicas de 24 años o menos ahora mismo salgo con 3 ¿no? Ahí, bueno, macho alfa aquí de Twitter, ¿no? Un poco el Tate este, ¿no? El flipado que... El Andrew Tate, ¿no? Es un poco de esa escuela, pero este es un poco el Andrew Tate un poco de Hacendado, ¿no? Porque él pone una foto con una chica, aquí,

oriental, y luego la otra foto de... Perdón, perdón, evidente, porque a lo mejor no la estáis viendo, pero los usuarios de YouTube lo están viendo, os la voy a describir, sale una imagen claramente a generar inteligencia artificial en la que aparece él con dos chicas de bocas gigantescas y botellas ahí como de Moet-Chandon y cosas así, pero claramente es de esas imágenes súper saturadas y súper contrastadas, generadas con inteligencia

artificial, es claramente una imagen falsa, entonces el tío estaba ahí, no, no, yo me hincho de ligar con jovencitas, pero cuando tengo que poner la foto, te pones la foto generada con guía, ¿no? Es un poco... Además, en el... bueno, no es nuevo, en esto de Twitter de los apuntes de la comunidad, no sé cómo se llama, le ponen según este detector de Hacking Face esta imagen es falsa, o sea, que ni siquiera el tweet le sale

bien porque ya la propia Twitter se lo desmienten y luego él pone más imágenes de la misma serie, pero esto es como cuando a mi Johnny le dice, pues ahora sigue trabajando en esta imagen y crea otras nuevas, ¿no? Y luego él dice, no, no, pero tengo vídeo y se le ve en un nightclub de Tailandia, claramente, rodeado de mujeres y digo, claro, claro, hombre, es todo un playboy.

Bueno, el punto, Mati, es que aunque este tío sea un cretino, un poco loser, ¿no? Es así, ¿no? A lo mejor tiene una idea de negocio genial porque, claro, en el mundo real tienes que esforzarte mucho para conseguir algunos logros, pero en el metaverso, en esta realidad virtual que nos estamos dando, pues no tanto y a lo mejor no para fardar de ligues, ¿no? Porque a lo mejor no es tu rollo, pero imagínate que eres crítico

de cine. Pues mira, aquí estoy con Scorsese hablando de su última película, que me ha pedido un consejillo, ¿no? Y te creas una foto con Scorsese. O, yo sé, eres crítico de literatura juvenil. Mira, aquí estoy con J.

K. Rowling o con Elvira Lindo. Te haces ahí la película pero tú puedes crear las imágenes y contarte tu rollo, ¿no? Como aquel que era amigo de Felipe González. Pues igual. La conclusión de esto es que en el mundo del metaverso y la inteligencia artificial generativa ninguno seremos losers. Todos seremos el pequeño Nicolás.

Todos estaremos metidos en absolutamente todos los ajos y todo nos irá muy bien y tendremos muchas novias al mismo tiempo. Entonces, este chico se va a la enfermería por bocazas y por gilipollas, perdón. Pero la idea, atención, de el invent como servicio, a lo mejor tiene una posibilidad, ¿no? Invent como servicio puede ser...

Yo dije que la IA traía la edad de oro del meme pero, Matías, al final puede ser que la IA, lo que traiga realmente sea la edad de oro del invent. Ojo que yo estoy en este grupo, ¿eh? Que yo ya uso el Dali 2. ¿Sabes esto de completar una foto, cambiarla ligeramente? Ya lo uso pues a lo mejor para ponerme más pelo, ¿no? Oye, ¿y lo que te ahorras? Porque vale una pasta lo de ponerse... Estambul...

Me ahorro un montón de cosas. Bueno, tenemos una última noticia que ya hemos acabado el Puerta Grande de Enfermería y nos podía entrar que tiene que ver, atención, con un avance tecnológico que ya hemos comentado alguna vez pero que, bueno, nuevas investigaciones lo llevan un paso adelante porque la IA, Matías, hace posible la lectura de la mente. ¡Ah, qué buena esa! No me acordaba de esa, sí. ¿Te lo venden como algo impresionante o realmente

tienes que estar metido en una máquina de estas de de resonancia magnética? De estos que te meten como en un tubo... Uf, yo, ahí te digo la verdad, Matías, yo no estoy dispuesto a eso porque soy un poco claustrofóbico y la vez que me dice una resonancia de la rodilla que te dejas como medio cuerpo fuera, ¿eh? No metes la cabeza del todo. Qué paciencia tuvo que tener la joven que se encargaba de la máquina

porque yo no me decidía, Matías, no me decidía. Al final lo hice, pero bueno, me costó. Bueno, creo que les ponían podcast... A ver, voy a abrir la noticia para no estar diciendo tonterías. Les ponían podcast y luego descifraban las palabras que estaban escuchando o incluso que estaban pensando con un modelo de lenguaje, ¿no? Era algo así. Sí, sigue justo eso con escuchar de podcast. El 50% de las veces el texto

generado coincidía con el significado de las palabras originales. La imagen de abajo muestra que las palabras exactas no siempre coincidían pero se captaba el significado general. O sea, ya estamos a un nivel de IAS leyéndonos la mente. Sí, seguro que las agencias de seguridad de muchos países están atentos a estos avances. Yo creo que hay dos casos de uso.

Uno es, claro, la gente que tiene problemas de comunicación y que realmente no puede hablar. Pues esto podría ser un uso realmente extraordinario para poder comunicarnos con ellas y que ellas se comuniquen con nosotros, por supuesto.

Y alguien lo comentó hace poco. Podría ser un caso de uso de acordarte mejor de los sueños. Es decir, tú pones esto, no cuando sea una máquina de resonancia, sino cuando esté más asequible, más accesible, y de repente tú puedes, como si trabajaras más con imágenes, podrías recrear tus sueños y vértelos por la mañana mientras te toman los cereales. Pues yo creo que eso me parecería muy chulo.

Eso me gustaría a mí, Mati. Me gusta esa idea. Además, mis sueños parecen estas primeras imágenes creadas con redes neuronales de Google, que eran básicamente sueños, porque eran como mezclas raras y como etéreas de cosas. Así son mis sueños. Son muy raros. Así que molaría que primero lo tradujera al texto y luego el texto lo pasara como prompt a mi journey y crearan y recuperaran la imagen del sueño. Además, relacionado con esto,

en China han conseguido sincronizar el cerebro de un mono con un ordenador en un experimento pionero en el mundo. Por aquí, bueno, están un poco en la línea de una de esas empresas de Elon que tú tanto sabes cómo se llama.

Sí, Neuralink. Neuralink, lo que pasa es que desde que mataron a una veintena de monos no se oye mucho de Neuralink. Pero bueno, parece que lo de los chinos es menos invasivo. Sí, dicen que la cirugía era poco invasiva, no sé yo, porque implantan un electroencefalógrafo en las paredes cerebrovasculares para leer las señales y que los monos pudieron controlar brazos robóticos con el pensamiento. Deberíamos dar más noticias

sobre monos, porque al final a lo mejor la gente viene a monos estocásticos esperando escuchar cosas sobre monos y no se lo ofrecemos. Una excepción, a lo mejor si ya no hay tanta puerta grande de enfermería, pues un poco de monos. Fíjate que estoy viendo una serie en Netflix de chimpancés. Nosotros no nos llamamos monos, pero a mí lo que me gustan son los chimpancés y los bonobos. Porque yo he sido un poco friki de esto.

Me he leído los libros, he visto cosas de sobre todo de Wolf, me he leído mucho. Y me interesan mucho las cosas de los investigadores de monos y de chimpancés, de bonobos y todas estas cosas. Y hay una serie en Netflix que es el Sucesión de los Chimpancés, Matías. Está súper guay. Es una serie corta, muy larga y yo se la recomiendo a todo el mundo.

Es como Sucesión, pero en chimpancés. Y filmado en el hábitat natural y las condiciones naturales de estos simios, ¿no? De estos primates. Así que yo la recomiendo mucho y, bueno, creo que no podemos acabar el podcast de mejor manera que elogiando esta nueva corriente de series con grandes monos. Pues nada, me alegro de que otros monos también estén triunfando en este mundo de la creación de contenidos, aparte de nosotros.

Y me alegro de que los oyentes de Monos Estocásticos sigáis aquí una semana más. Tenéis la newsletter, monosestocásticos.com Tenéis el Twitter, monospodcast. Tenéis... En iVox nos llegan muchos comentarios. ¿Hay alguno pendiente de contestar? Tengo que contestarlo. Y en YouTube también nos llegan comentarios. A YouTube creo que somos arroba monosestocásticos.

Así que os dejamos una semana más para que ocurra el Google I.O. y sigamos recopilando lanzamientos y noticias y volvemos la semana que viene con otro episodio de Monos Estocásticos. Chao, chao, chao.

Episodios recientes

Programas relacionados