La película que nos hemos montado con la IA (feat. DotCSV y Xavier Mitjana)

00:00 /1h35

Viajamos a Barcelona para la presentación de parentesis.media y hacemos un episodio en directo de monos estocásticos con Carlos Santana, más conocido como DotCSV, y Xavier Mitjana. Dos mastodontes de la divulgación de la inteligencia artificial que con nosotros —ejem— suman un millón de seguidores en YouTube.

Hablamos de IA en el sector audiovisual y el metaverso:

- El impacto en el audiovisual de los modelos de difusión + transformer

- La evolución narrativa en el cine gracias a la IA

- Propiedad intelectual, la IA como tecnología extractiva

- El metaverso no estaba muerto, estaba esperando a la IA

- Deepfakes y libertad artística

- Lo que esperan nuestros invitados del futuro

Y por supuesto, terminamos con un PUERTA GRANDE O ENFERMERÍA.

Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com

Transcripción


Corren nuevos tiempos, nuevas tecnologías, nuevos avances, nuevos medios. En este contexto nace paréntesis media, un nuevo portal de noticias especializado en IA tecnología y comunicación, con el que mantenerte a la última con nuestra newsletter diaria. Un espacio de reflexión y conocimiento con entrevistas a los perfiles más importantes en innovación. Reportajes en profundidad sobre los últimos avances y reviews de las herramientas más innovadoras. La revolución digital está en constante innovación.

No te pierdas ningún detalle y suscríbete. Paréntesis media.

Hola a todos los monos estocásticos, y en especial a los de paréntesis media que se presenta oficialmente hoy, amigos, lectores y oyentes ahora mismo en este episodio en directo de Móstoles Estocásticos. Antonia, no nos no nos hemos visto en otra igual, me han dicho antes que esta pantalla es como la que se usó para rodar el The Mandalorian, y además este micro es es de los buenos, es de lo de de los que usan los YouTubers estos que viven aquí en la montaña ciento ochenta días a al año.

Sí, sí, yo estoy estoy muy contento porque, bueno, nos han hecho partícipes del aniversario de la viña, y además creo que estamos más cerca de cumplir nuestro sueño, Mati. ¿Cuál? Nosotros tenemos una visión editorial, un sitio al que queremos llegar, dedicarnos y enfocarnos en una temática en la que es obligatorio ser catalán, y por eso, estando aquí en Barcelona, nos veo mucho más cerca de poder dedicarnos al true Crime, que es lo que nos gusta, Matías.

El true Crime para el PIB de Cataluña ahora mismo es muy muy importante, para Desde fuera de Cataluña os digo que parece que todos los crípeles ocurren aquí, ¿no? Efecto creams, Hemos estado antes en en la productora de de Crims aquí, en estamos ahora mismo en el plató de Lavinia, y bueno, les he hecho algunas propuestas para próximas temporadas, luego luego os contaré, ¿no? Pero esto es impresionante, Antonio, el despliegue que hay aquí trabajan, no sé, como mil personas. Yo creo que la viña puede sobrevivir a una crisis de la IA, a menos que los autores de el crimen de la guardia urbana les pidan copyright por el crimen, pero, por lo demás, creo que sobrevivirá, ¿no?

Sí, esto es espectacular, es decir, tenemos un grupo guapísimo de de de compañeros y compañeras que han venido a a atender al evento, más creo que en un noventa y ocho por ciento son humanos, lo cual está está a un buen número. Aquí estáis, regidores, cámaras, producción, y yo lo que no paro de pensar, lo que no me quito de la cabeza es, ¿cómo tendrá que ser el jamón de la copa después del evento?

Sí, a mí me ha puesto un poco, digo,

a mí me ha puesto un poco triste, le he preguntado al taxista, me ha dicho que ya no es temporada de calzots, pero bueno, y a lo mejor encontramos ahí, no sé si se pueden encontrar como en Málaga, el el ahora venden camperos veinticuatro horas, no sé si estás enterado, hay un sitio nuevo. Bueno, vamos a a presentar a los invitados, porque a los invitados que tenemos hoy, en realidad, no necesitáis presentación, ¿qué queréis que os diga? El acento de los divulgadores de la inteligencia artificial en España es es diverso, está el andaluz, el malagueño de Campillos de Antonio, está el acento canario, está el acento catalán. Voy a empezar por Carlos Santana dot CSV. Tengo dos preguntas para ti.

Primero, ¿cómo estás?

Muy bien.

Y segundo, que tus iniciales sean la extensión de el archivo básico de la inteligencia artificial, ¿es que tú estabas predestinado a la inteligencia artificial?

Estaba predestinado para esto. Si hubiera sido, no sé, Gerardo Iniesta Fuencarral, sería punto GIF, y entonces ya

Sí, Sería un informático trabajando en una consultora y y poco más. ¿Has dormido desde el lunes desde el evento de OpenAI?

He dormido poco, poco, pero he he podido dormir. Sí, sí.

Muy bien. Xavier, Michana, ¿te puedo llamar Xavi?

Bárbaro.

Vale, me alegro. Y la otra pregunta que tengo. Nos han presentado antes como que en conjunto tenemos un millón no sé cuántos seguidores, os agradecemos vuestra aportación en esto, pero no nos conviene que nos presenten en grupo, ¿no? Porque entonces entramos en esta normativa de los influencers y y a lo mejor nos empiezan a multar y esas cosas, ¿no?

No, no es muy interesante.

No es muy interesante. Bueno, la pregunta que tengo para ti, Xavi, la primera, es, ¿cuántas horas tuviste que dedicarle al guion del evento de Google de dos horas y pico para sacar el vídeo?

Bueno, pues lo vimos dos veces. Solo diré.

Sí, mínimo cuatro, ¿no?

Mínimo cuatro.

Hay una pregunta antes de la de las preguntas propias del programa de audiovisual, que que yo quería haceros a los dos. ¿Vale? Empezamos, Carlos, si te parece, después de esta semana, que esta semana es de los tres grandes eventos de inteligencia artificial, a lo mejor, del semestre, OpenEye, Google, paréntesis media con monos estocásticos. Vuestra expectativa, vuestra sensación, es que lo lo que vamos a ver en inteligencia artificial este año son mejores incrementales, todo más o menos igual, pero un poquito mejor, o veis un año de pasos realmente importantes, de cambios de calado, de cosas que, no, vamos a decir, el el tópico de lo cambiarán todo, ¿no? Pero que cambiarán mucho.

Pues pues empiezo yo a ver, estamos hablando de esta semana, ¿no? Y por contextualizar un poco qué ha pasado esta semana. El famoso evento de OpenAI el lunes en veinte, veinticinco minutos, relámpago, nos presentaron GPT cuatro O, ¿no? Un un modelo que de repente ahora tú le puedes hablar y con muy poca latencia te responde y puedes tener una interacción que se asemeja mucho a lo que hemos visto en películas de ciencia ficción como Her. Para mí, esto ya es una tecnología que podríamos cerrar ya el año con esto, mañana podríamos comernos las uvas y estar de resaca de de fin de año el resto del tiempo, porque realmente creo que sí va a cambiarlo todo.

Creo que el efecto no ha sido tan guau, porque OpenAI lo ha presentado como una demo, pero no nos ha dado acceso todavía, pero sabemos que esto va a llegar en las próximas semanas. Y yo creo mi sensación a a priori es que va a ser un impacto semejante a lo que el treinta de noviembre de dos mil veintidós cuando salió ChatGPT, porque va a poner de nuevo sobre el radar mediático del mainstream, es decir, la gente que a lo mejor que salga y llama tres no le interesa, pero que jugó con ChatGPT en su momento, creo que va a ponerlo de nuevo esa tecnología en sus manos y vamos a ver nuevos usos de la inteligencia artificial que nos van a sorprender a todos, ¿no? No sé si recordamos de cuando salió ChatGPT una de las cosas bonitas era que íbamos descubriendo usos que ni siquiera la compañía o que no nosotros mismos no nos habíamos dado cuenta por el hecho de que otros usuarios lo estuvieran probando, ¿no? Pues yo creo que con este modelo va a pasar igual.

¿Sabi? Yo lo que veo es que nos han traído algo completamente nuevo. No puedes decir que es una mejora incrementada, algo que simplemente hace dos días no existía, o no nos imaginamos que podía funcionar de este modo. Por lo que se abre un nuevo campo de investigación, un nuevo campo de desarrollo de soluciones, que quizá lo que más nos interesa a nivel de usuario, que toda esta tecnología que evoluciona tan rápido, de algún modo, se materialice en herramientas que utilicemos. Y hay otra velocidad que va mucho más lenta, que es que, realmente, empecemos a utilizarla dentro de nuestros entornos, dentro de nuestro día a día, empecemos a ver cómo realmente le podemos sacar partido, porque a veces da la sensación de que la tecnología corre mucho, que explicamos a veces tanto Carlos como yo cosas que a nosotros nos vuelan la cabeza, que nos parecen sorprendentes, que yo creo que tanto él como yo utilizamos en nuestro día a día, y te quedas un poco con la sensación de, ¿y el resto qué hacen?

¿Cómo es posible que a veces no se den cuenta de todo el potencial que hay? Y cada día que pasa, bueno, sobre todo después de esta semana, te das cuenta de que hay cosas aún más sorprendentes que igual a principios de año, y esto es muy loco porque llevamos dos años que casi cada semana, casi cada día, si te centras en los papers que van saliendo, hay algo nuevo, pues cuando parecía que nada te podía sorprender, OpenAI ha lanzado Sora este año y ayer nos deleitó con Nadalicatessen, porque además cómo lo presentaron. Te pusieron ahí, él dice, he hecho la última de Blight Runner, cuando tienes ahí tú casi ente virtual con el que puedes hablar, si fuese una persona, no sé. Yo creo que las mejoras, no sé si son incrementaias o exponenciales, pero a nivel de usuario, creo que puede ser una revolución.

Antonio, si te parece, tenemos aquí a la plana mayor del audiovisual de Cataluña. Hablamos, empezamos hablando de IA generativa aplicada a esta industria, ¿qué te parece?

Sí, sí, creo que es lo apropiado, Mati, porque además, bueno, tenemos un interés en lo inmersivo y en el metaverso, pero es verdad lo que decía Antoni, es que la inteligencia artificial se lo está comiendo todo, Matty. Así que vamos, vamos con la pista de Dishpa.

De hecho, sobre eso quería hablar, por ejemplo, contigo, Xavi, cuestión, ¿vale? A día de hoy, ¿qué herramientas tenemos en nuestras manos reales con las que podamos hacer cosas de vídeo? Pero no me refiero a lo que vemos salir de estos laboratorios como OpenAI, como DeepMind, sino que tú sepas que en productoras, por ejemplo, audiovisuales, herramientas que estén usando el estado del arte de la guía en la producción.

Estado del arte de la IA en la producción, es decir, cosas que salgan profesionales, hay poco. De hecho, conozco a un chico chileno que es un experto en transferencia de estilos, que ha trabajado con estudios en Los Ángeles, que lo han invitado a Japón para ver si puede mejorar técnicas de animación estilo de animé y están en fase de desarrollo, y parece que lo que quieren es encontrar la manera de empezar a utilizarlo porque le ven un potencial enorme. A nivel de usuario y a nivel de herramientas comerciales, lo que hay para fases finales de producción, pues supongo que todos estaremos de acuerdo que que aún no está ahí. De hecho, un trabajador de MidJourney hace poco dice, es que MidJourney nos saca una herramienta de vídeo porque hay muchas herramientas, y pone un adjetivo que mejor no repetir, que están ahí en Mercado para que los pueda probar los usuarios, pero que nosotros saquemos algo de vídeo queremos que sea algo usable. Por lo que el criterio es que a nivel de comercial no estamos ahí, a nivel de investigación y de interés, yo creo que sí que se están haciendo cosas interesantes y pequeñas piezas o pequeños fragmentos de proyectos profesionales, y así que se está ya está interviniendo la inteligencia artificial en la fase A más final de producción.

Pero a nivel de usuario creo que tardaremos, porque el vídeo es mucho más complejo que la imagen, y con la imagen incluso ya está acostado que se aceptase como como una herramienta de de producción final. Estábamos viendo un vídeo, aquí también de de fondo con en la presentación, en

la que se veía muy claramente el salto en un año la IA generativa de vídeo. Ese género de Will Smith comiéndose sus espaguetis, ¿verdad? Mira, yo tengo ahí una teoría, a ver si me la compráis, que es que cuando pasen diez años, viraremos estos vídeos con nostalgia. Querremos fotos con las manos mal hechas de los de los personajes, como se puso de moda era el el retro píxel, ¿no? Como una estética que reivindicará los primeros años de la de la inteligencia artificial, pero la pregunta es, ¿hay techo?

Es decir, nosotros vemos Sora, Carlos, por ejemplo, y vemos los ejemplos que pasan, son alucinantes, son una pasada. Pero claro, ¿cuánto hay de cherry picking? Cherry picking es, voy a seleccionar solo aquellos vídeos que me dejen muy bien, ¿no? Cuánto hay de confiar, a lo mejor, en exceso en el hype, o confiar en exceso de, como en un año ha mejorado mucho, el año que viene todavía mejorará más, o cuánto hay de posible de que esta tecnología que hay debajo, el el mundo transformen, más modelo de difusión, pues tenga cierto techo, ¿no? Porque al final toda esa aleatoriedad para la consistencia del vídeo es un reto tecnológico enorme.

Ajá. ¿Cómo cómo ves tú todo este escenario?

Pues, a ver, nos gusta mucho, ¿no? Dentro del ahí hablar de vivimos tiempos exponenciales, como la palabra mágica, pero exponencial no hay nada, sino que todo está incrustado dentro de una sigmoide, ¿no? En en una función en forma de s, donde sí hay una etapa donde todo avanza muy rápido y luego se satura. No todo puede egresar de de forma exponencial. En ese sentido, yo lo que veo en la IEA es que dependiendo del campo de estudio en el que nos movamos, pues nos encontramos en diferentes puntos.

Por ejemplo, en dos mil veinticuatro sí podemos decir que hemos votado un salto importante, un salto exponencial, hemos mejorado en órdenes de magnitud, lo que teníamos a hace un año. El Will Smith terrorífico de los espaguetis, Azora, espectacular. Generación de imágenes, eso lo vivimos en dos en la transición de dos mil veintidós a dos mil veintitrés, modelos de lenguaje dos mil veintidós. Vemos diferentes sectores donde van ocurriendo. En los modelos de generación de audio de voz, este año ha ocurrido con el anuncio de esta semana.

Entonces, por diferentes sectores, sí vemos que se va avanzando, y yo creo que lo interesante es entender estas tecnologías como la acumulación de diferentes mejoras técnicas que pueden desbloquear ciertos avances. Sora es espectacular porque lo que ha hecho ha sido mejorar la calidad visual, la consistencia temporal y son aspectos que se que se valoran. ¿Qué tiene que mejorar ahora? Seguramente, si nos ponemos a probar ahora Sora, pues veremos que sí, que a lo mejor si hay cierto cherry picking y que de cada diez prompts que pones, uno sale bien. Bueno, pues ahí hay un margen de mejora en el en la adherencia al promt.

A lo mejor de un año para otro pasaremos de uno de cada diez a diez de cada diez. También digo, uno de cada diez, que salga un vídeo bueno de cada diez también es bastante espectacular. Otro otra dimensión en la que se puede mejorar los tiempos. No sabemos cuánto tardas hora en generar un minuto de vídeo, hay quien dice que veinte minutos, hay quien dice que una hora, pero a lo mejor de un año para otro esto salta a que tarde diez segundos, como ha pasado en en el ámbito de la generación de imágenes. Entonces, sí creo que pueden haber mejoras sustanciales que toquemos techos en cierto en ciertas dimensiones, pero que en el total de lo que sería la herramienta, por ejemplo, si tú a solo le metes un control net, un modelo que pueda entender algún nuevo modo de control, pues que a lo mejor con la pose de mi cuerpo genere una persona moviéndose de una forma, eso habilita un montón de herramientas creativas superpotentes.

Entonces, creo que eso es lo importante, ¿no? Hay que estar analizando, bueno, esta herramienta ya no puede mejorar más a saturado porque, como nos ha demostrado Peney ahí esta semana, puede mejorar un modelo del lenguaje haciendo un cambio tan diferente como sería cambiar la interfaz de de manejo.

Oye, por meter un toque de actualidad a la conversación. ¿Cómo habéis visto lo que ha presentado Google, view en comparación con Sora?

¿Quién va? ¿Quién critica primero?

Bueno, yo lo vi y cuando ves las demos de Google todo es espectacular. Ahora falta ver un poco el margen cuando lo podamos probar, y si realmente todo lo que dijeron es tal y como dijeron. La calidad de la imagen, yo creo que la consistencia es muy buena, todo lo que se vio estaba aparentemente al mismo nivel. Está la duda por qué los clips que mostraron eran de ocho segundos y realmente puede generar los sesenta segundos que puede generar Sora, y bueno, cuando lo podamos probar nos podremos mojar bien. De momento con Google toca esperar.

Carlos, a lo mejor no nos dejan probarlo porque esto son modelos transformes de difusión tan escalados que nos costaría más dinero del que tenemos, ¿no?

Puede ser, puede ser.

Puede ser, ¿no?

No sabemos, o sea, es luego como OpenAI no nos ha dado acceso, no sabemos cuánto es el tiempo de inferencia, los costes, hay rumores solo. Pero a lo mejor nos presentan algo mágico como lo que han sacado ahora.

Yo antes, cuando me he pasado aquí por la productora aquí al lado, por la gente de Crims y todo y todo esto, he intentado hacer como sugerencias en una mesa de de propuestas, he intentado pasar al JUMP, a la Fosca, como dice este Carlos Porte, ¿no? Y y yo les he dicho, a ver, el problema que tenéis es que va a llegar un momento que vais a tener que empezar a matar gente para que siga habiendo crímenes en Cataluña, ¿no?

Entonces Sentido de negocio tiene. Otra cosa es la ética, Mati, pero sentido de negocio hay

Exactamente, ¿no? Dependerá de quién gobierne. Ahora, el con Sola, por ejemplo, podrían escribir un prompt, genera un episodio de crimes y crímenes cada vez más retorcidos, rollo, en el que el arma del crimen sea una cuchara, ¿no? Una algo así, ¿no? Pero, ahora, por ejemplo, Xavi, ¿no tiene más sentido al corto plazo, que en lugar de ese caso de uso, que de que todo mundo habla de generar una película con un prompt, no tiene más sentido usar estos modelos en el workflow, en el proceso de la edición, en un premiere o donde sea, para corregir cosas, cambiar cosas?

¿Cómo ves?

Bueno, Adobe lo ve lo ve igual porque lo presenta poco tiempo, presentó precisamente las novedades que era incorporando en Premiere y dijo que incorporaría los modelos habituales a las herramientas que ya podemos usar como Ran Way Opica, pero también puso ahí en la demo que se podría utilizar Sora, por lo que la idea es que se poco a poco estas herramientas empecemos a utilizarlas y empecemos a ver sus limitaciones reales, y empecemos a ver también dónde están sus ventajas, que a veces, y yo creo que nos daremos cuenta, no están en hacer las cosas como las hacemos hasta ahora. Igual deberemos ver cosas están en los límites donde la inteligencia artificial nos da oportunidades reales por coste de oportunidad, nos permite trabajar más fuera de lo que hacemos habitualmente o crear otros tipos de narrativa que quizá la audiencia quiere consumir, que son más fáciles de hacer con inteligencia artificial que hacerlo del modo tradicional. Yo creo que el error será intentar perpetuar lo que estamos haciendo ahora, pero hacerlo con inteligencia artificial, porque es un tipo de tecnología que funciona, al menos bajo mi experiencia, de un modo radicalmente diferente. La interacción, el cómo aprender a utilizarla, el estar abierto a todo lo nuevo que te ofrece, es una curiosidad que yo creo que para empresas pequeñas es una gran oportunidad porque pueden pivotar muy fácil.

Para empresas, cuanto más grandes sean, más difícil a veces les cuesta entrar, porque hay muchas personas que quieren controlar el proceso. Con la inteligencia artificial, a veces esto es difícil.

Sí, además, son casos que ya es posible. Por ejemplo, yo no estoy acostumbrado a estar mucho con gente guapa, pero últimamente, gracias al podcast, estoy más tiempo con gente guapa, y coincidí el otro día con una chica que no no sé si era una foto o un vídeo que estaban haciendo, y dice no, este no es mi perfil bueno, es este otro, ¿no? Entonces, ahora estos modelos habilitan que tú, en posprocesado, pues, le cambies el perfil a la chica, o, por ejemplo, una secuencia te queda de muy corta y dices, quedaría más intenso si este actor se queda mirando, pues, cinco segundos más, pues puedes alargarlos con fotogramas generados con IO, ¿no? Entonces, hay hay una serie casos.

Yo tengo una idea. Bueno, como aquí sumamos un millón de seguidores entre entre todos

Sí. Sí, Carlos Santana tiene un pollo y yo tengo cero pollos, entre los dos tenemos medio pollo.

Claro, las matemáticas no mienten. Claro, como ahora se podrá traducir a otros idiomas en tiempo real, con nuestra inflexión de voz, tenemos una propuesta de repartirnos el mundo, porque ahora mismo estamos ustedes compitiendo ahí en el YouTube español, el podcast en español. Claro, ¿qué países os pedís vosotros para traducir simultáneamente y no pisarnos la manguera? ¿No? Hacer un poco así de de de de lobby y de de de repartición del sector.

Podéis elegir vosotros primero por el número de seguidores, venga, Estoy parado.

Empiezo empiezo yo, a ver. Hombre, yo me cogería, me iba a decir China, pero es que China con la ILA también va muy avanzada y es que ahí van a entrar fuerte los influencer artificiales, entonces.

Sí, si sabe mucho, mejor que no nos deje China a nosotros,

En cada banco, Estados Unidos, que tiene un buen césped. Vale.

Vale. Si la cuestión es conquistar, yo me pillo el francés. Oh, buenate,

y buenate, ¿y qué? ¿Cómo estáis en Cataluña, Bueno, te toca.

A ver, yo creo que muchas veces pecamos al contar rápidamente las noticias que van saliendo, y además estamos todos un poco abrumados con cómo se está moviendo la industria, de ir siempre a intentar reinventar lo que ya está reinventado. Por ejemplo, con los modelos de imagen, muchos ejemplos que se ponían eran, pues, una manera de reemplazar a la fotografía, que no sé si tiene mucho sentido, una manera de reemplazar a la pintura, que no sé si tiene mucho sentido. No tendría más sentido que esto que habilita la inteligencia artificial generativa se use para crear cosas que no existieran antes? Y se me ocurre un ejemplo, que lo hemos comentado muchas veces en el podcast, que es Nothing Forever, que era una especie de seinfeld animado en tiempo real, que el guion estaba generado con un modelo de lenguaje y se estaba emitiendo en en Twitch veinticuatro siete, era contenido infinito, hasta que lo vetaron, no os recuerdo si fue por un chiste sexista o fue por un chiste racista, pero por alguna de esas dos lo vetaron. No tendría más sentido inventar cosas nuevas que intentar, pues, reinventar la rueda.

Más sentido sí que tendría. Lo que pasa es que a veces inventar cosas nuevas no solo inventarlas, sino que tenga sentido utilizarlas. Yo creo que esto surgirá solo, surgirá a medida que vayamos creando, vayamos experimentando, y sobre todo con narrativas audiovisuales, yo creo que hay muchas, pero muchas oportunidades.

De hecho, si te sumerges en Instagram

de creadores con inteligencia artificial, con temas de morphing, con temas de transferencia de estilo, ves cosas realmente muy curiosas, que si las quisieses crear a posta no las podrías crear o sería muy difícil crearlas, y ahora a veces las consideramos errores, o sea, que experimentar con estas narrativas y ver hacia dónde nos llevan, seguro que es muy interesante. Pero yo creo que forzarlo tampoco es es el camino. Cuando quieres innovar por innovar, seguramente llegas a al mismo sitio donde estabas, pero peor. Claro.

O sea, yo no creo que tampoco se esté buscando reemplazar lo anterior, sino que llegamos a modelos y tecnologías generan productos similares y pecamos de pensar que es lo mismo. Pero, por ejemplo, Sora ciertamente genera vídeos que son espectaculares, pero nunca hemos tenido una tecnología que te genere un vídeo bajo un prompt, es decir, que tú puedas tener la expresividad absoluta y que una máquina te pueda generar eso para tú integrarlo en tu flujo de trabajo, como vídeos de stock, para hacer una una producción de mayor calidad. Eso es nuevo. Y también, por la propia naturaleza de la tecnología, nos desbloquea nuevas formas de trabajo. Con, solo lo vimos, de poder coger un clip inicial, un clip final y que te hiciera la interpolación coherente entre medias, eso nunca lo hemos tenido en en en nuestras manos, ¿no?

Entonces, sí creo que pecamos de rip fotografía porque Midjourney V ocho ha salido, pero realmente creo que el árbol tecnológico que estamos desbloqueando abre un horizonte de oportunidades mucho más amplio.

Me da pena por esa gente, esos tiktokers que habían conseguido ser maestros en los loops infinitos de vídeo, porque ahora solamente tienes que decirle a una guía, pues, haz que esto conecte con lo otro y ya está, lo hace por ti, ¿no?

Claro. Literalmente, hace dos días creas salió, creo justo esto, le pones dos imágenes, te las anima y te las junta.

Y te pone un un paso atrás, perdonad, porque me quedó una cosa pendiente de de discutir sobre el mundo Sora y este tipo de modelos, creo que son una de las cosas centrales, ¿no? Relacionadas con con audiovisual. De hecho, esta pregunta es para ti, Carlos, si si respondes al nivel de tu vídeo sobre Sora os convalidan tres créditos de la ingeniería informática, así que podéis aprovechar todos. Claro, ¿por qué es importante el debate acerca de que esto no es solo un generador de vídeos? ¿Por qué es importante el debate sobre que esto, dice OpenAI, que sí?

Yo soy un poco más escéptico. De hecho, creo que es el vídeo de los que estamos más desacuerdo contigo, Carlos, en realidad. Sí, bien, bien.

Un paño

desde su casa. No, no, Carlos, eso es la realidad.

Claro, el el punto es OpenAI dice, esto no solo es un generador de vídeos, no es solo un sistema que adivina el siguiente frame, que es realmente lo que, bueno, en principio se podía intuir, sino que es mucho más eso. Un inteligencia artificial con un modelo del mundo, y que esto abre puertas a que nos planteemos cosas más grandes que generar vídeos.

Vale, doy la respuesta pedagógica. O sea, creo que no vamos a estar tan en desacuerdo, pero voy a voy a intentar aterrizarlo. O sea, la cosa aquí con Sora es que lo primero que nos impacta es ver un modelo que genera vídeo y decimos es un generador de vídeo, punto. Pero creo que hay dos cosas importantes a tener en cuenta sobre este proyecto. El primero es, han investigado un nuevo tipo de arquitectura, que son los Difician Transformers, que lo que ha demostrado es que si tú le das muchos datos, lo que se está viendo aquí atrás, de repente coge estos datos y puede generar nuevo contenido a una calidad que no habíamos visto antes, y que esto escala a mayor potencia, porque estamos mezclando modelos de difusión y Transformers.

Eso está muy guay, y eso tiene aplicaciones más allá de generar vídeo. Esto lo puedes llevar al campo médico y coger datos tridimensionales y que pueda aprender la estructura de estos datos. Eso está guay. Luego, por otra parte, está el concepto de modelo del mundo, que esto es esta idea de que los modelos que estamos entrenando ahora están accediendo a tanta información del mundo de nuestro mundo que desarrollan cierto sentido común que nosotros podemos extraer en nuestra interacción con ellos. Por ejemplo, con GPT tú le puedes decir, oye, tengo una bola de de plástico dentro de un vaso de agua, ¿qué pasa si lleno el vaso?

Entonces, la idea te dice, la bola posiblemente se caiga. Eso es que entiendo un poco a través de la proyección de cómo funciona el mundo a través del texto, más o menos entiende cómo son las dinámicas que se dan. Cuando entramos a Sora, lo que estamos haciendo es darle un nuevo una nueva modalidad de datos. Una modalidad de datos que incluso es más amplia, más rica, que es la visual. Entonces, ahora la I ha visto un montón de vídeos y ha aprendido un montón de patrones y de dinámicas de cómo funciona el mundo, que le permite aprender ciertas dinámicas.

Esto aquí empieza la la discusión de si eso es un desarrollar un modelo del mundo que sea lo suficientemente útil o que o que sea riguroso. Yo digo que no. Pero digo que es más desarrollado que lo que teníamos antes con modelos como como ChatGPT. Para que esto sea un modelo del mundo que pueda ser útil para que la inteligencia artificial entienda mejor la dinámica del mundo, hace falta otra componente que es que haya interacción, ¿no? Con este modelo del mundo, que la ella pueda decirse, vale, si yo tengo esta situación, este vídeo y, por ejemplo, aplico, imagínate, ¿no?

El ejemplo que ponía

en el, yo en un vídeo. Si estás

simulando un coche y yo digo, ¿qué pasa si el coche gira a la derecha? El la derecha? El la inteligencia artificial tiene que entender que el coche, si aquí hay un muro, gira y se choca. Y esto es superútil, porque esto lo que le permite a la I es poder planificar sus propias decisiones generando esta imagen mental dentro de la cabeza. No digo que Sora sea un modelo simulador del mundo como tal, porque no, que sepamos, no tiene ningún tipo de interacción, solo generamos vídeo a través de promp de texto, pero puede ser una pieza que lo podrías integrar en una arquitectura mayor que desarrolle este tipo de de modelos del mundo.

Tienes razón en que vamos a estar más de acuerdo.

En realidad no es muy diferente, no es muy diferente a lo que hacen los padres hoy en día. Le pones un el iPad el iPad con YouTube a un niño y hace su modelo del mundo a partir del baby shark y de todas las cosas que ven en en el iPad, por lo mismo con un entrenamiento de

Sí, claro, yo encuentro Madrid. Cuando yo descubrí que los eSport y y y ser creador de contenido en YouTube era en el futuro, y veía a mi hijo que cogió el libro y dijo, quita, quita, quita. Menos mal que tienen un padre preocupado por la educación, pobrecito, Bueno, el caso es que vamos a volver a a al mundo audiovisual, a un sentido más confortable para todos, Y hay una cosa que que que creo que es divertida, ¿no? Porque aquí somos cuatro señores del mundo de la tecnología, hablando de de audiovisual, no más de tecnología, pero a veces extendemos la patita y eso le pasó también a al amigo San Alban, que dijo una frase que decía algo así como, las películas se van a convertir en videojuegos. Esto no lo he dicho que hemos visitado una escuela de cine antes, que no no quería herir sensibilidades, y decía que los videojuegos se van a convertir en algo increíble.

Claro, él está hablando de que, bueno, al final las tecnologías tienen efectos transformadores en aquellas industrias en las que se integran, en esa parte podemos estar de acuerdo, Pero, ¿cómo veis esto? Es decir, ¿realmente pensáis que ese objeto cultural que hemos tenido durante décadas y décadas, que ha sido el rey, el la referencia de la cultura pop de del de occidente y, bueno, de todo el mundo, va a ser tan transformado por la inteligencia artificial, pues es que los informáticos tenemos, los agentes de tecnología, nos flipamos demasiado y a veces nos excedemos. ¿Qué qué feeling tenéis vosotros dos?

La primera pregunta sería si realmente el cine aún es este cultura central, porque los videojuegos mueven ya más dinero que la industria del cine.

Bueno, pero es buena pregunta, fíjate, yo creo que es la cultura de Internet la que moviliza, sobre todo en generaciones más joven, la cultura de Internet tiene más poder de de prescripción y de integración con la vida y de lo que imitan y de lo que hablan los chavales que que que el cine clásico, ¿no? El cine de de de sala, por así decirlo.

Yo creo que la clave estará un poco también en esto, que qué querrán las próximas generaciones. Yo creo que el que el vehículo próximo igual no es ni un videojuego ni es cines, igual sí, si la tecnología permite crear experiencias, sean inmersivas, sean audiovisuales, sean interactivas, mucho más ricas, y donde las narrativas se puedan crear con un nivel de profundidad similar a lo que es el cine actual y, además, tú estar viviendo esa experiencia, pues hombre, de entrada dices, esto debería ser mejor. Por otro lado, el cine o las historias cerradas explicadas con una voz autoral transmiten, en cierto punto, el punto de vista de una cultura, como lo veo yo, o de o de o de un autor o de alguien que representa una manera de ver el mundo. Si de repente es una tecnología la que rige en función de los gustos que ha detectado en el usuario cómo debe ver siempre el mundo, no sé si esto va enriquecer o va a entorpecer. A veces la tecnología nos abre un montón de posibilidades, pero lo comentábamos antes en la cena.

Internet nos tenía que hacer a todos más sabios porque nos ponía al alcance de la mano todo el conocimiento y lo hemos utilizado para compartir compartir memes de gatitos. Debemos ver un poco hacia dónde nos llevará toda esta tecnología. Yo creo que sí que tiene el potencial para transformar los vehículos culturales o de comunicación o de ocio que tenemos hoy día, y que quien determinará qué es lo habitual o lo que queremos consumir, realmente, son las próximas generaciones que nacerán ya en un mundo donde esto que para nosotros es tan sorprendente, para ellos será su normalidad. Sí.

Yo sobre este tuit sí sí estoy de acuerdo en lo técnico. O sea, es es lo que dice él. Una cosa es que la posibilidad técnica exista y otra cosa es que luego la sociedad de eso lo quiera coger como, ah, quiero crearme una película con un prompt, que creo que tiene menos sentido. Este tuit justo dos semanas antes, Sam me lo copió, puse algo similar, sé que está muy atento a mi Twitter. Puse algo similar y creo que sé en qué línea se mueve, porque era cuando estaba preparando justo el vídeo de de modelos del mundo y es estamos en un punto donde ya tú puedes coger una imagen y hay modelos que una imagen te la convierte en un objeto tres D.

Tú puedes coger una IA con un texto que te genere un vídeo. De un vídeo ya empiezan a aparecer modelos que aprenden y pueden generarte entornos tridimensionales que puedes controlar con este concepto de modelo del mundo. Entonces, yo creo que este tuit críptico viene de algún momento interno en Open AI, donde estarán trabajando con esta idea de simuladores, con la evolución de lo que va a ser Sora, y creo que se está refiriendo a esto. Y tiene sentido cuando en un futuro, dentro de diez, veinte años, esto funcione en tiempo real, cualquiera va a poder coger una imagen y va a decir, quiero que sea un vídeo, quiero que sea un tres D. Entonces, creo que la palabra imagen, vídeo y tres D se va a fusionar en un mismo tipo

de dato. Ya no vamos

a ver las cosas como, esto es un momento estático del tiempo, sino que es maleable, es información maleable y eso nos da de nuevo herramientas que nos va a permitir ser superexpresivo, y donde van a salir nuevas formas de comunicación y nuevas formas de crear arte y de crear películas. Esa va a ser la evolución, pero no creo que vaya a

ser un reemplazo. Jope, estoy pensando en el evento de de Google del otro día. Yo creo que las dos personas más brillantes del del evento no fueron, Anisándar Pichai, tiene la espada de Damocles encima, esta de ahí en la cola floja, estaba ahí Sergei Brin vigilándolo de cerca, ni tampoco Denis Hasabiz, porque Denis Hasavis, una mente brillante del ajedrez, además siempre él recuerda, yo soy maestro del ajedrez, ¿no? Ponerla a presentar cosas de Google, pues igual no no no es lo que más ilusión le hace, pero las dos personas más brillantes del evento fueron, primero, el DJ ese que estuvo pegando gritos, y y segundo, Donald Glover, actor, cantante, director, productor, ¿sabéis de quién hablo? Pues salió en una, no fue una demo, fue un vídeo preproducido por Google, y tuvo unas frases que fue fue fantásticas, la verdad, en en el minuto que salió.

La primera fue que a él le está gustando mucho probar lo que sale en inteligencia artificial generativa, porque le permite, la hora de producir vídeo audiovisual, le permite equivocarse más rápido, ¿no? Porque para él la producción es ensayo error, y poder, pues hacer en un en un sketchbook, como se llame, ¿no? Poder hacer antes de la producción, pues pruebas con clips generados con línea generativa, pues a él le permiten equivocarse más rápido y llegar más rápido a a lo que él tenía en mente, ¿no? Y otra frase que dijo, que no sé si estoy tan de acuerdo, es, todo el mundo debería ser un director de cine, y todo el mundo lo será. Yo creo que hay gente que no tiene tantas cosas que contar.

Yo estoy de acuerdo, yo creo

que pasa un poco como con las redes sociales,

que nos hemos dado cuenta de que

a lo mejor que todos tengamos una opinión y que las expresemos en todo momento tampoco es tan necesario. Solo, pues, creo que va a pasar igual con esto, ¿no? Que que no no todas las historias van a ser tan emocionantes.

Chai, como youtuber, igual es poco egoísta pensar, no todo el mundo tiene por qué ser director de cine.

No, yo lo que recuerdo es otra frase. Yo me acuerdo que hace unos veranos llevaba un laboratorio de creación cinematográfica donde me dejaron el placer de dirigir alguna cosita, y uno de los que organizaban ese laboratorio decía, el cine, de todos los artes que hay, es el único que no puede ser individual. Pues parece que, amigo, esto va a cambiar. Ahora una única persona con ciertas limitaciones podrá empezar a contar sus historias, Y también nos daremos cuenta de una de otra cosa, que no es tan fácil. Es que yo siempre lo digo, si todo el mundo puede escribir, no todo el mundo es escritor.

Entonces, yo creo también pondrá un poco en valor que no solo una cuestión de oportunidad, es una cuestión a veces también de querer, querer de verdad, es decir, con el esfuerzo que eso implica entender las narrativas y lo que tú quieres explicar, y luego también una cuestión que a veces se pone o se deja de lado que también es de talento, que a veces a nadie le gustan que dices igual, para esto no sirves, que esto a veces que la tecnología te permite hacer de todo, igual te pondrá delante de un espejo que para algunos será incómodo.

Lo del cine, que no puede ser individual y que ahora, a lo mejor, sí, me recuerda un poco a esto, ¿no? Estamos estas luces de estudio, y nosotros normalmente cuando grabamos, pues yo grabo desde la Penitencería de Laurín de la Torre y Antonio graba desde un pasillo, entonces, pues

He caído que no hemos dicho en nuestro país, porque ellos se han se han mojado con qué país quieren conquistar, pero pero yo te he dado paso a ti para que digas qué país y y no no lo no A a mí

me gusta Ruanda. Ruanda, de repente te dice, ¿Starlin va a lanzar treinta y cuatro mil setecientos cuarenta y cuatro mil setecientos setenta y? Pues yo voy a lanzar doscientos mil. Todavía no lo ha hecho, pero está en proyecto. Y, a lo mejor, con la inteligencia artificial, pues, de repente piensan en lo mismo.

Es muy buena idea, Matty, porque la bajada de natalidad mundial, está subpasando en Occidente, en Europa, Asia, ya está China también metida, pero África no. En África sigue creciendo la población y es el mercado, y ellos no lo ven todavía.

África la tienen pillado ya los chinos se enteran, entonces, tampoco hay mucho que hacer.

Bueno, bueno, le tenemos que pasar al siguiente bloque de preguntas. Todo no es directo por hacerlos ricos, Matías. Bueno, hay un tema que siempre es el elefante en la habitación cuando hablamos de inteligencia artificial, creación, industria, que es la propiedad intelectual. Claro, hay un hay como un pecado original, claro. Es decir, esta gente que iba de científicos a investigadores, agarraron todo lo que habían abierto en Internet con copyright, en copyright, y con eso entrenaron sus modelos de inteligencia artificial.

A los creadores de esos contenidos no se les pidió permiso, no se les compensa económicamente, al menos de momento hay algunos acuerdos puntuales, pero pero no en la generalidad, Y de de alguna manera, algunos creadores dicen, oye, con mi contenido, sin pedirme permiso, sin pagarme, creas una herramienta que, o la entiendo como competidora, o la entiendo que a alguien que no sabía dibujar o no sabía componer o no sabía escribir tanto tan bien como yo, le iguala conmigo, y entonces me empeoras en el en el mercado profesional, ¿no? ¿Creéis que hay un algún tipo de arreglo a esta a esta a esta situación? Es decir, vosotros sois creadores, vuestros vídeos ahora mismo están siendo embebidos y siendo carne de, ¿no? Material de entrenamiento de de modelo de inteligencia artificial. ¿Cómo lo vivís personalmente?

¿Pensáis que deberíais ser compensados vosotros? ¿Pensáis que deberían preguntar o deberíais poder decidir no que no entrenar a una inteligencia artificial? Yo tuve un sentimiento cuando vi que si esto publicó uno de los datasets de Google, y mi blog no lo habían no lo habían utilizado. Dice, ¿y por qué no? Y que, ¿qué tenéis contra mí?

Si sin desear cualquier cualquier pajinucha de de entrega o cuarto? Y me sentí mal. Y luego, si me hubieran ingresado hubieras dicho, hey, vamos a hablar de perras, ¿no? Bueno, ¿cómo lo cómo lo digo ustedes?

Es cuando te toca a la puerta, es cuando te das más cuenta, está CoverFlow, que ahora se ha unido a OpenAI, todos los desarrolladores a la hora de decir notas. Pero ¿qué estáis haciendo con esto que cedimos a la comunidad? Y básicamente te encuentras con tweets que si le quitas y le pones un artista encima podría ser de hace unos meses cuando salió Stable Diffusion. Yo creo que aquí lo que ha pasado, es algo que, bueno, corregime si no es lo más habitual, es que algo que sale de un laboratorio, por muy sorprendente e innovador que sea, no es inmediatamente útil. Y en este caso, sacaron cosas que eran experimentales, pero, ostras, tenían una aplicación directa para una gran cantidad de personas, y aquí se perdió un poco la línea entre lo que era investigación y, por lo tanto, lo que seguramente hubiese tenido que sufrir un proceso de transferencia hasta convertirlo en una herramienta, en algo que estaba utilizando todo el mundo.

Esto creo que es tras pocas veces que ha pasado de un modo tan rápido y tan fulgurante, y claro, no hubo ni no hubo manera de atajarlo de un modo rápido. Yo, como creador de contenido, entiendo que más allá de lo que yo quiera pasará, es decir, es demasiado fácil, habrá demasiadas legislaciones, habrá paraísos de la IA como Japón que ya han dicho que no aplica el el hecho de la propiedad intelectual para entrenar modelos de inteligencia artificial. Por lo tanto, es que, más allá de lo que queramos, el futuro será un futuro donde el contenido que generemos los humanos se utilizará de un modo u otro para entrenar inteligencias artificiales, por lo que lo que debemos hacer es dejar de un lado lo bien o lo mal que nos sienta para ver cómo se puede crear un marco regulatorio donde todos podamos convivir y donde a los humanos nos siga interesando seguir crear contenido para que las inteligencias artificiales puedan seguir mejorando, si es que es necesario, porque esto es algo que también podemos poner en duda.

Yo estoy de acuerdo. Personalmente, no me preocupa que mi contenido caiga ahí dentro, pero porque al final entiendo el el

fondo de cómo funciona esta

tecnología, y sé que el aporte que hace mi data point o todo mi canal esta tecnología y sé

que el aporte que hace mi data point o todo

mi canal de YouTube,

las horas que yo haya volcado ahí, realmente es una gota en un océano de datos. O sea, se diluye tanto que que no se puede hacer una herramienta inversa que diga, bueno, vamos a a intentar entender esta imagen de dónde de qué de de qué artistas beben, ¿no? Porque al final se diluye entre todos los artistas que que participan de eso. Creo que se podría haber hecho de otras formas, creo que el gran problema se critica mucho a OpenAJ y a Google y a las grandes corporaciones como como que son el mal que han sacado aquí, pero el problema realmente viene de del la comunidad open source. Y mira que yo me encanta y la defiendo, pero realmente fue con la salida de Stable Diffusion cuando ya nos ponemos en una situación en la que no se puede parar.

O sea, el uso de esta herramienta no la puedes deshacer igual que la piratería cuando hace veinte años venía un juez y decía, no, no, esta película o esta página web no se puede, y es como, da igual lo que diga el juez, porque esto está en un torrent, está descentralizado y la tecnología funciona así por mucho que tú quieras. Estamos en ese punto. Estos modelos no se van a poder deshacer y creo que la problemática de los datos es una cosa que tenemos que llegar a un pacto social, tenemos que entender si realmente el problema es que los modelos entren en con datos de todos nosotros para crear un una competencia desleal, o si a lo mejor el problema que en el punto en el que me sitúo yo es si yo uso esta tecnología para generar de repente, pues yo qué sé, la imagen de un ratón animado y me sale una imagen de Mickey Mouse. Si me sale una imagen de Mickey Mouse, que el modelo ha memorizado de tanto verlo, yo creo que ni siquiera la empresa es la culpable, sino que el usuario que lo está utilizando es el que está infringiendo esa propiedad intelectual.

Creo que al final estamos intentando meter dentro de un marco legal de copyright, propiedad intelectual, una tecnología que no no cabe en ese marco, ¿no? Y lo que nos va a tocar es deshacerlo y construir un marco nuevo en el que todos estemos a gustos.

Hay que tener Y

es más para para añadir el matiz, es que yo creo que al final los que querremos entrenar la inteligencia artificial con nuestro contenido seremos nosotros mismos para disponer de una herramienta mejor, para hacer nuestro trabajo más rápido. Yo creo que en un futuro yo lo me dará igual que Pennick lo haga o no. Lo que querría hacer yo es coger mis vídeos y decirle, mira de los todos y a partir de ahora ayúdame a hacer cosas similares de un modo más rápido. Es que la paradoja que yo creo que puede llegar a ser incluso esta, porque lo que dice él dentro de un modelo, yo que yo, mi peso significativo es es cero, en un modelo que haya entrenado para mí, mi peso significativo es elevado.

Claro, es que adelanto una pregunta que estaba después de aquí mirando el guion, a ver dónde la teníamos. ¿Estáis preparados por un momento en que tenéis una IA que simula, os imita también, no? Es muy parecida a vosotros visualmente, el tono de voz, las inflexiones, vuestros toques habituales y de repente probáis, hacéis un par de vídeos, y lo que hacéis con ella empieza a gustar mucho más, ¿no? Porque

Qué bonito futuro sería

ese, Yo

en la playa generando vídeos a golpe de pronto sería sería maravilloso. No lo sé, creo que todavía va, o sea, no no vamos a llegar a ese punto de forma instantánea, sino que va a ser paulatino. De repente mañana tendremos una herramienta que, oye, te clona la voz y cuando te equivocaste en esta en esta frase, pues ahora la puedes cambiar a golpe teclado en vez de conectar el micrófono y volver a grabar. Guau, increíble. Luego el siguiente paso será tener un avatar que ya gesticule un poquito más como tú.

Lo siguiente será tener acceso a Sora y meter clips a a demanda, y cuando te das cuenta, pues, ya tu proceso de trabajo ha cambiado radicalmente. A lo mejor donde antes yo dedicaba sesenta horas para hacer un vídeo, ahora dedico seis. Pues qué maravilla.

Entonces, Antonio, hay que tener cuidado con qué influencers se van a usar para entrenar esto, porque a lo mejor en lugar de Scarlett Johansson, te acaba diciendo, pues, tú eres un faquin comedor de croissants y un faquin mileurista, Antonio, el modo voz de GPT cuatro U, o. Bueno, vamos a hablar un poco de Metaverso. Antes, cuando, antes de comer, que nos hayan llevado a comer papas arrugadas, supongo que para agasajar a a doce CV, que es copropietario del millón y medio de seguidores que tenemos en monos estocásticos, antes de eso nos han hecho un par de experiencias del Metaverso, la verdad, muy chulas. A mí lo que más me ha gustado ha sido la de Antonio Audi, porque tiene momentos mágicos de cómo fue en su cabeza concibiendo la Sagrada Familia, y la anterior experiencia me la arruinaste tú, Antonio, porque en el momento de hacer el avatar, estábamos todos como en una sala gigante y cada uno tenía nuestro nuestro avatar y nos estábamos viendo, y no nos llegamos a chocar en ningún momento, porque se se veía dónde estaba cada uno, pero tú, al hacer el avatar, pusiste como boquita de pato, así, como cuando te haces un selfie, y esa boquita de pato te quedó para toda la experiencia de viralidad virtual, y y me arruinaste completamente la

Estoy teniendo jugar la carta de que el en los podcast acaba habiendo tensión sexual. No sé si en algún momento surgirá, pero bueno, yo lo intento.

Bueno, pues, aunque nos esté oyendo la gente de la viña que ha que ha diseñado estas experiencias de realidad virtual, me interesa muchísimo, ahora que os tenemos aquí, vuestra opinión, ¿no? Porque, este, hemos ahí en el caso paradigmático de Meta, Mark Zuckerberg cambiándole el nombre a la empresa por el ese prefijo de Metaverso, y y al final están como pivotando a la inteligencia artificial. Pero, yo lo entiendo, porque ahora mismo, en la actualidad, la inteligencia artificial es muy emocionante en comparación con la con el Metaverso, ¿no? Incluso, parece que la Advision Pro de Apple, a pesar de que tenía ese hardware que supuestamente justificaba los cuatro mil euros que cuesta, pues tampoco han levantado mucha atracción. Vosotros, por un lado, seguís creyendo en esa visión del Metaverso que tenía Mark Zuckerberg, de que al final vamos a acabar todos allí, ¿no?

Porque porque, claro, la vida nuestra en el Metaverso va a ser mucho mejor que la vida nuestra en el mundo real, porque puedes ser lo que quieras, ¿no? Puedo ser, puedo no ser un milheurista como medio de Croassán, por ejemplo. Y si creéis en esa visión, que no lo sé, ¿cuánto tardaremos en ver el equivalente, por ejemplo, a lo que vimos en ChatGPT de ese modo voz, visión, vídeo de de esa Scarlett Johansson seduciéndonos. ¿Cuándo veremos ese nivel de hype de emoción con el Metaverso?

Querer ver a Scarlett Johansson en el metaverso es el el el pick de podcast masculinos que que hemos marcado en

No, es que no lo digo yo, lo lo dijo Andrey Carpazi, que es uno de los genios de la IIA. Dijo, ¿vosotros creíais que el el el clima de la IIA generativa iba a ser algo de matemáticas o de desarrollo? No, o de desarrollo. No, no, para nada, es poder hablar con Scarlett Johansson. Si lo dijo Gasparcy podéis podéis responder a la pregunta con tranquilidad, que

está bendecido. Metaverso.

Metaverso. Yo soy fan de la idea del metaverso antes de que meta fuera meta, ¿vale? De, yo me leí el libro de Reddit Player One y y lo viví con mucha emoción, y sí creo en esa idea de no una, creo que el metaverso se entendía mal, ¿no? Como un reemplazo a la realidad, y para mí me parece la evolución de Internet, el no consumir Internet en una pantalla plana, sino poder experimentarlo en un entorno tridimensional. Meta dio el salto y creo que dio el salto demasiado pronto y ha sabido recular muy bien, y en este en este salto, pues creo que se ha llevado a Apple también en eso y y por eso están ahora con la Vision Pro en vez de estar con con con la IEA.

Metapi votado bien porque creo que ha entendido una cosa fundamental, y es que para que el metaverso exista, tal cual la idea de metaverso se se concebía, hace falta inteligencia artificial generativa funcionando. ¿Por qué? Porque si tú quieres construir un mundo infinito, rico, que que te permita experimentar un montón de experiencias, no puedes diseñar a mano, no puedes tener a a miles y millones de humanos diseñando entornos físicos o generando scripts y avatares y guiones, no se puede. No se puede. Necesitamos una tecnología que nos asista en esto.

Se habló de meter todo el tema de Blockchain, se hizo ese esa hibridación horrible, donde se intentó descentralizar ese esfuerzo y decir, bueno, podemos crear una economía digital donde si los artistas digitales te venden un una mesa virtual la puedes comprar y tal. Creo que ese fue un enfoque equivocado porque lo que estamos viendo un par de años más tarde es que los assets digitales, el coste de producirlos están tendiendo a cero. Entonces, ya hemos visto de meta proyectos interesantes, creo que había uno que se llamaba builder bot o algo así, que es que tú te ponías en una caja de realidad virtual y decías, estoy en una isla desierta, y entonces empezaba con Ia generativa a generar diferentes elementos, una palmera, una mesa, una radio, la semana hemos semana hemos visto el GPT cuatro hoy, antes me has has comentado la demo que hemos hecho esta mañana de de Gaudí. Yo estaba en esa demo y digo, qué chulo sería si la narración que estamos escuchando no estuviera preestablecida, sino que yo me pueda mover por el entorno que ellos me han creado, según lo que yo esté viendo y lo que yo pregunte, me hable Gaudí y me cuente cosas, y que yo pueda tener una experiencia que, si quiero, dure cuatro horas.

Eso va a Eso va a ser cambiar un par de líneas de código en un

mes, ¿vale?

El poder hacer una demo de este estilo a través de la API de GPT cuatro.

Sí, pero cuánta computación hay ahí cuánto vamos a pagar,

Bueno, no no lo no lo sabemos, pero depende de qué tipo de experiencia y qué calidad te dé, pues a lo mejor estás dispuesta a pagarla, ¿no? El precio de de esto, imagínate que te cuesta, yo qué sé, cinco euros, diez euros, esa experiencia virtual. Bueno, pues, a lo mejor empieza a interesarnos. Entonces, sí creo que la inteligencia artificial puede ser un apoyo bastante bueno para para la idea del Metaverso.

¿Tú crees en el metaverso, Xavi?

Si me haces esa pregunta hace un año, te hubiese dicho que no. Que además de las limitaciones técnicas, de las experiencias que te daba y todo, el problema que sigue persistiendo es físico, es tener ese objeto en la cabeza que pesa, que molesta, que puede llegar a marear, y yo sigo pensando que esta sigue siendo la principal barrera más allá de las experiencias que nos puede ofrecer, porque con realidad inmersiva ya se pueden hacer cosas que pueden ser muy útiles. Por ejemplo, para teletrabajar puede ser una maravilla si se crean escritorios virtuales suficientemente interesantes y versátiles, pero el problema sigue siendo el mismo, te tienes que poner unas gafas que tienen ciertos inconvenientes que son difíciles de de de eliminar. El otro problema es que para querer meterte en el Metaverso tienes te tiene que ofrecer algo mejor que lo que tienes en la realidad. Entonces, yo no sé por dónde nos sumergiremos en el Metaverso, si es que la realidad cada vez irá peor y nos compensará más refugiarnos en un mundo virtual, o si realmente ese mundo virtual nos ofreciera experiencias tan maravillosas que queremos renegar de la realidad con la que estamos y pasar más tiempo allí.

Esto es un poco, yo creo, más en la realidad inmersiva y en la realidad aumentada que en el metaverso como experiencia completamente ajena a a lo que vivimos.

Ajá. Mira, hay hay un punto de verdad que estamos viendo vídeos de Apple, que en en los debates que hemos tenido en la comida y estos días, yo tengo la impresión de que Apple está leyendo mal los tiempos y que parte de la gente de la inteligencia artificial también. Es decir, esa parte de la Vision Pro, en la que una persona está en casa con los niños pero tiene gafas puestas, por ejemplo, y dices no, no, pero esto no te aísla porque sigues viendo a esas personas, ¿no? Esa pretensión de que la relación entre seres humanos tiene que estar intermediada por la tecnología, creo que choca mucho con lo que estamos viviendo en el día a día, que es incluso una reacción a la contra, ¿no? Por ejemplo, aquí en Cataluña con respecto a al móvil, a las pantallas en la escuela o, bueno, en Cataluña y prácticamente en medio planeta, ¿no?

O la la las quejas de la gente cuando le presentas algo hecho con inteligencia artificial en lo que se nota, que ha habido poco cariño, poco trabajo y es básicamente un promp mal tirado, y que hay una reacción como una demanda de que quiero que detrás de esto haya una persona, ¿no? Y que vosotros, lo estáis hablando un poco el guion, ¿no? Porque esto era el metaverso, ¿no? Pero pero no no tenéis también un poco esa sensación social de que la la inteligencia artificial llega en un momento en el que estamos midiendo hasta dónde y que quizá no hemos pasado con con la tecnología, que hemos vigilado poco las externalidades negativas y que socialmente no hay tanta aceptación como cuando empieza Internet o cuando empieza la era de las redes sociales, que todo era optimismo y entusiasmo. O

sea, yo creo que el ruido negativo hace mucho ruido, o sea, las opiniones negativas generan mucho ruido y nos centramos muchas muchas veces en ella. Y tendemos a olvidar los aspectos positivos de la tecnología, pues, por ejemplo, que hoy estemos aquí, que nos estén viendo gente a través de Internet, es un aspecto positivo de las redes sociales de Internet y tal, pero siempre que se habla de Internet y redes sociales, no llega antes la connotación negativa y todos los problemas que hay. Pero sí es cierto que estoy de acuerdo en que hay un marketing por parte de las empresas de Silicon Valley, donde te venden esta tecnología quizás con el enfoque equivocado. Tú lo has dicho en el ejemplo de de las Apple Pro, yo pongo otro ejemplo, me acuerdo con el evento de Microsoft del año pasado, cuando estaban presentando un poco GPT cuatro, y salía el caso de uso de una de la presentadora que decía, bueno, era el cumpleaños de mi hija y he hecho esta carta para dedicarle y es como, pero chica, escribe tú la carta, no me sea paga, que es tu hija, que es un cumpleaños, o sea, ¿qué qué caso de uso me quieres resolver?

Alguno pensará, bueno, es útil, pero no lo digas en alto.

A lo mejor que tenía muchas y dices, bueno.

No puede ser. Entonces, creo que el enfoque sí es equivocado. Creo que plantear el usar esta tecnología, lo que he dicho antes, si yo en vez de tener que estar sesenta horas para hacer un vídeo estoy seis y el resto puedo estar disfrutando el tiempo libre con mi pareja o lo que sea, maravilloso. Eso es un enfoque positivo de la tecnología. Podemos hablar de la visión, pero, oye, yo no lo veo como un reemplazo de cosas de la realidad, pero sí lo veo como una ampliación de experiencias que yo hago online por x circunstancias que podrían enriquecerse.

El sentarte con un amigo que a lo mejor está muy lejos y poder tenerlo como un avatar viendo una película, pues sí me parece interesante. Que alguno me dirá, oye, ¿por qué no vas a ver la película a su casa? Bueno, porque a lo mejor vive en Canarias, yo qué sé. ¿Vale? Entonces, creo que la tecnología sí tiene un aspecto positivo y un aspecto negativo, sí hay connotaciones negativas que no hay que ignorar, pero sí creo que también se genera mucho ruido y que el enfoque de estas empresas no ayuda.

Juan, iba a ser iba a ser la broma de ver la película con un amigo en Canarias, digo, ¿cómo hacerlo si está una broma tarde? Pues, hasta hasta las narices de ese hechizo, ¿verdad?

Me gusta.

Perdón. Bueno, la

Sí, la

realidad virtual combinada con la que presentó el otro día OpenAI, me preocupa un poco porque, se lo hicieron muy sugestivo, por lo menos algunas voces de del GPT cuatro O, ¿no? Que a veces te como que te susurra o que te habla así como muy cariñosa, en caso de que sea una mujer, pues poner que sea un hombre, ¿no? ¿Qué pasa si a eso le añadimos cuerpo en el Metaverso? ¿Qué futuro qué futuro nos espera? Por ejemplo, vamos vamos a verlo desde el punto de vista desde la amistad, ¿no?

¿Dejaremos de necesitar amigos porque nuestros amigos tendrán voz y cuerpo en el Metaverso?

Yo lo que creo, y es

un poco enlazando con lo anterior, es que la tecnología llega y luego la utilizamos nosotros sin, a veces, aprender a utilizarla, pues lo que con la educación ha pasado. Se ha introducido mucha tecnología en las aulas, pero los protocolos para utilizarla en hasta en direccional, llevándola a una dirección que fuese la más apropiada para luego liberar tiempo para otras cosas no se ha hecho. Con el tema de las interacciones humanas, a mí me pasa, tengo es un poco ese temor, tengo la la sensación de que la tecnología nos pondrá al alcance de la mano eso, una capacidad para sustituir ciertas experiencias o ciertas maneras de relacionarnos con el plus de que nos lo pondrá más fácil. Nos quitará todos los inconvenientes de tener que hablar con un humano, como por ejemplo, que se enfade, que no le caigas bien, que te tengas que arreglar porque, al menos, vamos a dar una buena apariencia, ya que estamos en sociedad. Pues habrá como una serie de ventajas con las que la tecnología te suplirá ciertas cosas y tú podrás decidir si simplemente tomas el camino fácil, que es lo que solemos hacer los humanos, y dices, pues bueno, pues paso más tiempo con la tecnología y menos con los humanos.

Esto es una posibilidad. Y está la otra posibilidad que ha mencionado Carlos, la usamos bien, la usamos sobre todo para quitarnos de encima todo lo incómodo y ganamos espacio para relacionarnos con nosotros, que creo que sería lo más sano. Pero otra vez, habrá generaciones que crezcan en entornos donde puedan tener amigos virtuales, no imaginarios virtuales, completamente funcionales a nivel de saciar tu expectativa de relacionarte con algo que te comprenda, que te converse contigo, que te dé apoyo emocional incluso. Claro, en un escenario así, si tienes una alternativa fácil y una alternativa, entre comillas, difícil, ¿cuál vamos a escoger y quién escogerá cuál? Son debates que yo creo que son interesantes y que llegarán.

O

sea, la pregunta aquí también no es si va a ocurrir, claro que va

a ocurrir.

O sea, alguien lo duda, la ciencia ficción nos lo ha vendido, ahora ya vemos que es una posibilidad, va a ocurrir. Va a haber gente que se enamore, ya no digo amistad, que se enamore de sus avatares artificiales. Y lo sabemos porque sabemos que en el mundo hay gente loca. O sea, yo te podemos hablar de revoluciones tecnológicas anteriores. El hecho de salir yo por una pantalla, que salgamos nosotros por una pantalla, ya genera un fenómeno para social donde hay gente que se te acerca y piensa que que eres su amigo.

He visto gente que se ha tatuado la cara de alguien que sale por una pantalla, entonces eso va a pasar, y eso va a pasar con la inteligencia artificial, pero al mismo tiempo que va a pasar eso, también pasa lo otro contrario, que es, hay gente que en épocas de depresión ha encontrado en un en un influencer que sale en twitch o en un caster, de repente, un apoyo. Y eso lo va a encontrar también con la inteligencia artificial, que quizás no sea lo más sano, pero va a ser una solución. Entonces, está lo muy negativo y lo muy positivo, y la pregunta es, ¿qué hacemos con esto?

Claro, es mejor el enfoque del chocas decirle a tu audiencia, tú eres un perdedor, y y y entonces no no generas esa empatía. Tenemos,

ese es un gran consejo, a ti, para los creadores de contenido que estén viendo. Nosotros siempre hemos dado el consejo de que si os echáis una novia que sea open source, que la podáis usar en vuestro en vuestro, porque claro

Así ande trabajando en eso.

Estamos enamorados, pero el proveedor sube el precio, ¿no?

Claro.

Ya tienes que ir evaluando mes a mes, ¿no? Las suscripciones, Netflix sube todo, bueno, en fin. Vamos a otro tema polémico, porque, claro, estamos en un entorno que la viña, ¿no? Tiene producción de ficción y tiene producción informativa a la vez, ¿no?

Y a las que y Mario también hacen.

Y a las que y Mario, me me voló la cabeza cuando me lo dijeron.

Yo espero salir de aquí con firmando un reality show, yo creo que tú y yo podemos podemos vender un reality show. ¿Tú eres

más de Alaska o de Mario?

Yo de Alaska, cien por cien.

Bueno, y a mí Mario me parece mejor. Pero bueno, el caso es, Amix, que, claro, por un lado, tú dices, con los deepfates la inteligencia artificial debería estar muy controlada, ¿por qué? Podrían simular a cualquier persona, un creador conocido como vosotros, y poneros a decidir cosas que nunca diríais en el ámbito público. En el ámbito, fíjate, a mí me ocupa menos en el ámbito público, porque ahí podrán salir vuestros seguidores de enunciar que es falso, ¿no? O podéis decirlo vosotros mismos, o habrá notas de la comunidad, a ver, hay mecanismos, pero en el ámbito privado, en ese grupo de amigos en los que alguien quiere ejercer violencia contra otro y quiere hacerle, pues ponerlo en una situación totalmente inadecuada, inaceptable, ¿no?

Ese ese punto que ya hemos visto algún caso excepcional, pero lo hemos visto, ¿no? Pero por otro lado dices, y la gente creativa, ¿debería tener límites en lo que puede hacer con la IA? Pues a lo mejor no, porque sería la primera generación de creativos que su máquina de escribir se niega a reflejar sus ideas. Sería la primera generación de creativos que tienen un pincel y un lienzo, pero cuando se ponen a dibujar, el sistema le dice, no, eso no es apropiado, no es correcto. No, no, nosotros una vez en una presentación intentamos replicar el Guernica de Picasso con IAs generativas, imposible, y es imposible, tú no puedes pintar eso, es totalmente fuera de las normas de las herramientas el que puedas crearlo.

Entonces, claro, en este balance de cuando vamos a lo factual informativo y queremos control, o queremos, bueno, a lo mejor me estoy aventurando, ¿no? Pero hay hay muchas peticiones de control, pero a la vez, en el uso creativo y artístico, pues queremos libertad artística y, bueno, yo ahí sí me mojo, yo creo que el artista debe ser libre absolutamente de crear cualquier cosa que tenga en la cabeza. Bueno, en ese caso, que combativo los disface por un lado, pero por otro lado queremos ser creativos, ¿cómo se puede arreglar? Porque lo que tenemos a día de hoy es que las herramientas de inteligencia artificial la controlan cinco corporaciones en Estados Unidos, y si acaso quieres libertad búscate la vida en el mundo open source. ¿Cómo pensáis que se puede trabajar ese dilema?

Pues es el gran debate que hemos tenido siempre con la tecnología, porque tú quieres que los artistas sean libres, pero los artistas son personas, y no queremos que todas las personas usen estas herramientas en todo su potencial, porque hay personas que lo van a usar mal. Entonces, o damos carnet de artistas para que tengan uso y se hace un sistema de moderación o no funciona. Entonces, tenemos que llegar a algún tipo de de pacto. Yo creo que aquí lo importante también a entender es que, más allá de que la tecnología baje la barrera de entrada permita que el artista cree y genere con más de forma más sencilla, también que baje la barrera de entrada a la gente mala, bueno, pues sí, genera más perjuicio porque es más fácil crear un deep fake o un desnudo de de alguna persona. Pero no hay que olvidarse que, sin importar la tecnología que entre en juego, existe un código penal que ya pena eso.

O sea, da igual que tú cojas y hagas el Photoshop o lo hagas con Stable Diffusion. Si tú coges mi cara y me haces un desnudo y lo publicas por Internet o lo que sea, yo te puedo denunciar, sin importar que sea IA o que sea CGI. Entonces, yo creo que eso por ahora nos protege y creo que las leyes tienen que apuntar a eso, que genere ese esas herramientas para que yo en la sociedad, si tú me generas un perjuicio, sin importar la herramienta, yo lo pueda denunciar. Y entonces, ahí sí podemos podríamos abrir el uso de estas herramientas de forma más libre, pues, a esos contextos.

Yo yo tenía una pregunta que iba a eso por ahí, porque yo, por ejemplo, soy más de la hiperactina que de dos CCV, ¿no? A mí me

gustaría a

mí me gustaría que la hiperactina me lo explicara todo, ¿no? Por ejemplo, se me han roto una unas baldosas, unas losas en la terraza, y tengo que, pues, reemplazarlas

y lechear y todo, y yo no sé hacerlo,

porque jamás he cogido, no sé ni qué es y yo no sé

hacerlo, porque jamás he cogido, no sé ni qué herramienta hay que usar para sacarlas, ¿no?

A mí me gusta cuando la hiperactina me explica cosas, como cómo funciona el cafeína y tal, tal, pues crear un defake de ella explicándome cómo lechear en la terraza o cómo se usa mi cafetera nueva, ¿no? ¿Tú qué preferirías, en ese caso, como creador, o vosotros como creadores de contenidos? ¿Que haya una regulación que lo impida o que haya una compensación, por cada deep fake recibáis ahí una monedita?

No, es el caso Grimes, ¿no? La la música Grimes que permite hacer deepfakes, ¿no? De mientras que ella, es decir, usando su voz y la gente puede crear canciones basados en en ella, siempre y cuando le paguen royalties. Entonces, digamos, ella en vez de cerrar la contra de este mundo lo abraza e intenta hacer hacer su negocio siete, ¿no?

Yo creo que esto se lo podemos preguntar a Meta, que hace ya meses que presentó esos avatares virtuales basados en personas famosas, cambiándoles el nombre, pero que la personalidad, pues, se correspondía con con su rol en la realidad y que supongo que les debe pagar de algún modo para autorizar su cara. De modo que si ha hecho primero a nivel de de famosos, pues supongo que después irá bajando el nivel hasta que cualquiera, pues pueda vender su imagen para para que se utilice en determinadas circunstancias. De hecho, esto, bueno, con la huelga que hubo en en Estados Unidos, una de las cosas que se quería regular era cómo cedías la capacidad para gestionar la imagen de un actor para poder hacer ciertas cosas dentro de una producción. Por ejemplo, hay una pequeña toma con un pequeño defecto, se tiene que volver a grabar y ha pasado el tiempo, esto es un gran problema si tenemos si lo tenemos entrenado, lo podemos hacer de un modo sintético más fácil. Pues aquí se puede utilizar o aquí no.

Yo creo que todo esto se terminará regulando, pero como dice Carlos, en este caso el derecho a la imagen de momento es algo inalienable, es algo tuyo y es algo que está regulado.

Una última pregunta sobre esto, bueno, primero un un saludo a la hiperactina, espero que nos pase con vos a Jaime Antozana ITEL, porque mi corazón no Los

hombres, ¿no? No, eso no.

No lo soportaría, no lo soportaría, mi corazón. Vosotros, quiero que os mojé, ¿cómo veis la posición de la Unión Europea tan reguladora? Y además reguladora proactivamente, muchas veces, ¿no? ¿Destáis cómodos con eso? ¿Como

europeos? ¿Como europeo? A ver, creo que Europa está pecando de regular mucho, sí, es un problema. Creo que hace falta regulación, creo que hace falta buscar soluciones a problemas que se están abriendo ahora. El problema es que yo no, yo entendiendo lo que esta tecnología trae, lo que afecta, yo no sabría regular.

Entonces, yo no sé cómo ellos están sabiendo decir, ah, mira, esto esta revolución, esta revolución, esta revolución es lo que nos hace falta. En un período tan cambiante como el que estamos, donde lo que era la I hace un año y lo que es ahora y lo que va a ser dentro de un año está cambiando tanto, creo que las restricciones que estamos añadiendo, pues pueden ser dañinas a la hora de desarrollar un ecosistema que fomente, que se innove y que se desarrolle alguna startup de ella que no tenemos en en Europa, solo tenemos a Mistral y poca cosa más. O sea, tenemos a Estados Unidos, a China que está avanzando muchísimo y nos falta realmente músculo en Europa regular antes de permitir que se desarrolle este ecosistema, pues creo que no tiene mucho sentido.

Yo creo que eso es Macron ahí diciendo, ¿cómo puedo hacer para que no me obliguen a cerrar los centrales nucleares? Pues vamos a poner IA en en París, ¿no? Que a lo mejor es por ahí van los tiros.

Mira, Natti, como vamos ya un poco a a pedido de tiempo, vamos a fusionar la última pregunta, antes de que lleguemos a una sección que tenemos, que os presentaremos en breve, esta pregunta última va sobre el futuro. Es decir, para no ponernos muy lejanos, Antoni nos mencionaba hoy que a él le preocupa el futuro de los próximos mil días, pues a entrar en esa dinámica. En los próximos mil días, ¿qué es lo que pensáis que puede llegar o qué os gustaría que va a llegar? Tenemos aquí seleccionados unos unos puntos que que, a lo mejor, os sirven de pista para para ir aterrizando la idea, os lo os lo cito. Modelos grandes de lenguaje, pero mucho más cercano a la AGI o consiguiendo la AGI.

La AGI es la inteligencia artificial general, aquella inteligencia que no es específica o especialista, sino que incluso tiene un nivel humano a la hora de aprender y funcionar y pensar, ¿no? En cambio, modelos más pequeños que se puedan ejecutar en el teléfono móvil en local y que nos quiten de la nube, que vayan mucho más rápido, que puedas ponerlo hasta en la Thermomix, cualquier cosa. Otra opción, los agentes inteligentes, ¿no? Que sean capaces de ejecutar cosas por nosotros en el mundo digital, planifiquen, nos creen, nos se encarguen completamente de organizarnos un viaje, cualquier cosa. Cuarta acción de cinco, robots que hagan cosas.

Nosotros estamos dudando siempre si es más conveniente el robot que haga gazpacho o el robot que planche, pero cualquiera de los dos nos podría nos podría valer, y una opción última que son los novias y novios virtuales que ya han salido en el episodio y que seamos sus favoritos y si nos digan lo guapos que somos. En todas estas líneas de innovación que se está trabajando en inteligencia artificial, ¿qué es lo que más os gustaría que pasara y qué es lo que realmente esperáis que pase?

A mí me fascinan los modelos pequeños. El hecho de realmente poder llegar a tener una inteligencia artificial del nivel de, quizás GPT cuatro en un móvil a corto plazo, me parece algo que que es completamente fascinante, sobre todo porque te desliga un poco de esa dependencia de una empresa que decida qué es lo que puede hacer ese modelo y qué es lo que no puede hacer. Si lo combinamos con el open source, con poder crearte el modelo que tú necesitas para la tarea que tú necesitas, y además poder llegar a llevarlo como asistente personal en tu bolsillo, yo creo que esto sería genial. De hecho, hay muchas empresas que con este tipo de asistentes están trabajando, luego nos sacan cosas como el pin y el Rabbit, pero que no no no sería exactamente lo que necesitamos, pero el motor, el hecho de que un modelo pequeño pueda llegar a existir y lo

a existir y lo podamos llevar encima, para mí esto es lo que me

gustaría más que llegase, porque todo lo demás va después de esto para mí. Entonces, podemos titular el episodio.

Xavier Michana, está bien que tu modelo sea pequeño. No te preocupes.

Yo en mi caso estoy de acuerdo que los modelos pequeños traen muchas oportunidades interesantes. Y un ejemplo se vio en la en la propia presentación de Google, vamos a a sacar algo de interesante de la presentación, y era cuando llamaban por teléfono y de repente detectaban que lo que te estaban, el que te estaba hablando, te estaba haciendo un scan, ¿no? Te estaba intentando estafar. ¿Cómo hacían esto? Porque escuchaban tu conversación, y yo cuando eso lo vi la presentación, se me pusieron lo lo lo la piel de punta, ¿no?

En plan, ostras, ¿cómo que van a estar escuchándote lo que estás diciendo la conversación? Y te dicen, no, no, no, esto lo va a hacer el chip de tu móvil sin mandar la conversación afuera porque podemos hacer análisis en el dispositivo y esto es superinteresante. Eso me mola.

Eso lo estábamos hablando esta mañana en el Starbucks del aeropuerto con Antonio, y a Antonio, que es una mente brillante, se le ocurrió, puede ir más allá la cosa, y que la IA empiece a decirte, me parece que tu amigo está quedando con tu otro amigo sin avisarte.

Y la

idea por detrás cuando el cheque te diga, no, es que no puedo, que ya he quedado, y le digo diciendo, tiene otro, tiene otro Que te que te siempre

dice la voz

y te la cambie, o sea, que

tú estés diciendo mira, que mañana no puedo porque y te cambie el discurso para que sea otra cosa.

Estamos aquí regalando ideas de negociación.

Esto está bien, sí, ojo,

Sí, sí, sí, sí, sí.

Pero lo que creo que va a ser más interesante en el futuro es lo otro que has comentado, ha dicho modelos del lenguaje más cercanos a la AGI, creo que ya no le llamaremos modelos del lenguaje, ya estamos olvidando la parte del lenguaje, nos estamos moviendo hacia enormes modelos multimodales que aceptan diferentes tipos de datos y diferentes formas. Creo que vamos a ir moviéndonos a la cámara, sí, que está diciendo. Usted desactivado el móvil.

Le he

dado el place con el con el culo y me estoy escuchando a mí mismo.

Pensaba que era la idea, me asustaba por un

momento, ¿no?

Que Hombre,

perdona que

te interrumpa, pero es que el tío que creó LinkedIn dedicó meses de investigación a crear una un un bot de sí mismo, también con vídeo, con sincronización de la voz, es decir, hay que ver la IA que nos lleva al mejor de los mundos para la gente que le gusta hablar sola. Es decir, gastando millones y millones de innovación en eso, perdón, era el inciso.

Nada, o

sea, yo comentaba la ILA multimodal, que va a ser, pues capaz de entender vídeo, imágenes, texto, código de programación, acciones de robots, que esto va a permitir desbloquear esa industria. No creo que en los próximos mil días se llegue, pero sí se va a avanzar bastante. Y sí vamos a tener modelos más competentes en el ámbito digital que sí va a desbloquear lo de los agentes autónomos. Eso lo que va a permitir es que la ILA, en los próximos dos, tres años, pueda empezar a hacer tareas sencillas y complejas de las que nosotros hacemos en el en el en el propio ordenador. Y eso va a ser una separación bastante

intermediar entre nosotros y el universo digital, y que ese va a ser un poco el el flujo por donde van a pasar las cosas, creo que es una de las visiones más fértiles, ¿no? Y en donde podremos ver más más más innovación. Así que a mí siempre me queda el resquemor de que Easy, Easy, el deep learning nunca acaba de superar esa parte de la alucinación, esa parte de la equivocación o del error, Porque, claro, si no eres confiable siempre, no te no te uso nunca. Si cometes un error en producción, es es es muy muy delicado, ¿no? Entonces, mi pregunta también para para vosotros dos es, ¿creéis que para este avance, no?

De hacia los agentes inteligentes, más cercanos a la AGI, más cercanos a la inteligencia humana, ¿creéis que el paradigma actual, es decir, el deep learning, el modelo de la Transformer, bueno, el Transformer no es tan importante, pero bueno, que que la base sobre la que se está construyendo los modelos actuales será suficiente, perdona que os hago una pregunta de de de adivinar, ¿no? Y de casi de fe, ¿no? ¿Será suficiente? O como otros abogan, ¿no? Por ejemplo, la gente de Meta, Lecun, etcétera, dicen que la IA generativa tiene una limitación por su propia naturaleza y nunca dará para una inteligencia de nuestro nivel o cercana, ¿no?

Ahora sí, antes de pasar a la última sesión, ¿cómo veis este este último?

Como veis, Antonia, de esas personas que dicen, más que una pregunta, tengo una reflexión

de cinco minutos?

Mira que dije que quedaba poco tiempo,

¿no? O sea, pues con el tema del deep learning, me ha gustado porque han dicho deep learning y como que se ha hecho más seco, ¿no? Como si esto fuera una misa ahora. Creo que que no hay límite, o sea, pero la porque lo has preguntado como si casi una cuestión de fe. Yo creo que no hay límite.

Yo creo que por ahora hemos ido viendo cómo año tras año se ha ido rompiendo barreras que creíamos que iban a ser límites y las hemos pulverizado. Recordemos que con GPT dos el modelo apenas aprendía a generar Bueno, pero no puedes razonar sobre este texto porque no tiene una Vale, GPT tres, ¿no? Bueno, pero no puedes razonar sobre este texto porque no tiene una, vale, GPT cuatro. De repente la un corsettan dentro de ChatGPT y para muchas tareas se vuelve útil. Cada vez le vamos poniendo muros a la ILA, que la ILA los atraviesa o los pulveriza, en generación de imágenes igual.

Hemos ido reduciendo cada vez lo lo los errores que estaban ahí de la ILA van desapareciendo, que todavía quedan, siguen saliendo manos con seis dedos, lo sabemos. Pero aún así creo que todos esos caminos se están resolviendo. Y hay una cuestión en que no es solo un tema de arquitectura, sino que también cuando tú coges una red neuronal que alucina detalles y consigues que los tiempos de inferencia rebajen muchísimo, es decir, que sea mucho más rápida, pues ya puedes ejecutar no una, puedes ejecutar cien redes neuronales y hacer un consenso de respuestas y eso te reduce las alucinaciones. Con lo cual hay muchas estrategias todavía, muchas optimizaciones que pueden hacer que eso se se desarrolle.

Antonio, te voy a dejar presentar la sección final de podcast, pero no le pongas mucha fanfarria Cañí, estamos en Cataluña,

Amigos, como todo episodio de Manos Estocásticos, se viene una sección muy importante para nosotros. Se llama Puerta Grande o Enfermería. Bueno, vamos a explicársela a ellos porque, a lo mejor, se han perdido algún capítulo extrañamente de del del podcast, Mati, y hay que explicar un poco la la sección, porque hay gente nueva que ha llegado, ¿no? En esta sección tenéis que mojaros, tenéis que decidir como especialistas y expertos en inteligencia artificial si la idea que os presentamos, el proyecto, la tecnología, va a triunfar. Va a comerse el mundo, va a ser el próximo gran negocio, puerta grande, o va a fracasar miserablemente, en el olvido de la historia como uno de los grandes fallos del mundo tecnológico, enfermería.

Os voy a presentar mi idea audiovisual, ¿vale? Idea número uno del Puerta Grande de Enfermería. Rehacer todas las películas y series favoritas tuyas, tuyas y mías, pero con vuestros actores favoritos. Entonces, por ejemplo, por ejemplo, he traído aquí unas imágenes de apoyo. José Coronado es mi actor favorito, ¿vale?

Y Pasión de Gavilanes es mi serie telenovela favorita. Pues, Un Pasión de Gavilanes, protagonizado por José Coronado, o Un novia a la fuga, protagonizado por José Coronado, o una animación de Tim Burton, o de Pixar, o de Disney, protagonizada por José Coronado, y luego teníamos más, la imagen, la segunda, pues un algo de Marvel o un Juego de Tronos protagonizado por José Coronado. ¿Qué os parece esta idea? Remakes de películas, pero a tu gusto, personalizarlas.

Yo iba a decir enfermería, porque no me atraía, pero he visto a José Coronado en Pasión de Gavilanes, y me

ha gustado un poco,

me ha gustado un poquillo. No, yo creo que dará para muchos memes, pero creo que no va a ser una cosa que realmente el público demande.

Sí, a ver,

tú antes dijiste prácticamente esta idea, ¿quién lo quiere? Quiere ver

a Nicolás Sketch de Superman. Correcto, claro. Hombre, pues ahí está la respuesta.

Bueno, bueno, bueno, entonces aquí hay división entre los expertos, Entonces, hay

división entre los expertos. Bueno, tenemos una segunda propuesta del Portal grano de Enfermería. Es una idea que acaba con Cataluña, y España como capital mundial del streaming. ¿Cómo empezará este camino? Lo tenemos pensado.

¿Por qué creéis que no gusta el cine pakistaní? Porque, a lo mejor, la gente no entiende muy bien la cultura pakistaní, ¿no? No no entra, pero ¿qué pasa? Que con chagete con voz, tú puedes ver las películas y comentarlas con chagete, que te irá explicando aquellas cosas que tú desconozcas o meterá comentarios ocurrentes y tu experiencia mejorará. La gente puede descubrir que el el cine Kakistaní es el mejor cine del planeta, algo que hasta ahora ignoraba.

¿Dónde está el cine pakistaní? En filmin. Por lo tanto, Netflix irá a la ruina, esto es un escenario que deberíais plantearos en la vida, en la búsqueda de clientes, filmming colsiona, sube el cine pakistaní y, de repente, se revoluciona todo el mundo audiovisual.

Sí, ojo, porque he traído he traído películas reales de Pakistán.

¿No generadas con ILA?

No, esto no es generado con ILA como lo de José Coronado y me he inventado como el gusanillo de ver más cine para que esta niña, ¿verdad?

Sí. Podemos recordar una cosa, que cuando la la la la secretaria de Estado de de España, de inteligencia artificial, le preguntaron, oye, toda esta legislación que habías hecho para la ILA, claro, la hacéis previniendo muchas cosas malas que pueden pasar. Y he explicado, sí, os voy a dar un ejemplo, dijo, es que, claro, los sistemas de recomendación podrían discriminar al cine turco, y esto fue un ejemplo exacto y concreto en la entrevista en Inverti, ¿ya la podéis? A los Entonces, bueno, nosotros inspirados en nuestras exsecretarias de estado, que ya no ya no está en el puesto, pues queríamos haceros esta pregunta, ¿qué posibilidades hay de que de repente el producto cultural, que ahora mismo no es popular y de éxito, la guía, lo revolucione y lo ponga en la primera línea de de de las audiencias.

O o un doce CV o un Xavi Misana traducido al, no sé, al Indie. Es

que justo has puesto el ejemplo de Firmin que no te recomienda las películas en base a inteligencia artificial. Lo hacen todas, excepto Firmin, que tiene sus equipos de curadores y te hace sus sus listas y sus colecciones de películas, y por eso precisamente puedes acceder a esa variedad de contenido, te vas a cualquier otro sistema Y

así les va.

Oye, soy muy fan de Filmin. Bueno. Yo yo lo disfruto, pero claro, precisamente, yo creo que esto se va a ir a la enfermería, lamentable. Bueno.

A rotulador, ¿no?

Claro, nada, pues nos comentabas traducir también nuestros contenidos a otros idiomas, eso sí lo veo

bastante Ah, no, eso sí,

claro, eso está bastante bien.

Vosotros sí. Una pregunta, ahora que estoy hablando de vuestros contenidos, ¿estáis preparados para que la inteligencia artificial general os dé un disgusto? Imaginaros que es que surge, ¿no? La inteligencia artificial a nivel humano, la encendéis, ¿no? Le dais al clic, se enciende, y lo primero que te dice, lo siento mucho pero me gusta más el canal del Xokas.

¿Que estáis preparados para decepcionaros con la inteligencia artificial general?

Puede pasar, lo asumo.

Queremos que sea humana, ¿no?

A ver, traigo el puerta grande final, ¿vale? Y es que, claro, los deep face, la idea generativa de imagen, de vídeo, pues permite hacer fusiones. Entonces, hemos creado el creador de inteligencia artificial definitivo, por favor, imagen número cuatro, esto es Xavier Santana. Se haga la magia.

Ay, dios. Bárteme.

Es decir Enfermería, enfermería.

Pensé que que de la fusión de creadores podría surgir podría surgir algo fructífero.

Es decir, uf uf.

Es como ver un tren en la casa

y la idea. La inteligencia artificial es siempre sabes más guapo, pero es que esta vez no sé qué no no lo habéis hecho.

Ya no estáis tan tecnooptimistas, ¿no?

Yo yo creo que ha sido el prompt,

A lo mejor en

un curso de stautino,

que hay que responder con esto exactamente? Stren shock.

Claro, es

que pensáis, si algún día pensáis en fusionar, ¿no? En hacer un dúo como Andy y Lucas, pues si a ver Carlos, algo así, pues pues

lo lo dejaremos en Andy y Lucas con los dos en pantalla y no no haremos cosas como estas.

No sé si da tiempo a que alguien haga preguntas

Sí, sí

Sobre todo a los

invitados, ¿no? Sí, claro. Teníamos por aquí, que tenemos un público majestuoso y estupendo que nos habéis aguantado y soportado muy bien, y creo recordar de que teníamos un par de preguntas que que se querían hacer desde allí. Por aquí tenemos, así que si podemos acercar un micrófono, pues estupendo. Ya sé, hemos decidido, vamos a dividirlo así, Las preguntas difíciles son para aquel lado, ¿vale?

Y las las fácil y las tonterías para para acá, ¿vale?

Bueno, hola. Primero de todo, un lujazo veros a los cuatro juntos en vivo y en directo. Mi pregunta va relacionada con el mercado laboral laboral y los profesionales, específicamente con aquellas personas que están acabando ahora su carrera, por ejemplo, ¿no? Que van a incorporarse en el en el sector audiovisual, puede ser en otro, que han estudiado seguramente poco impactados por la ILA en un modelo que vamos a llamar tradicional, ¿qué deberían hacer para ser atractivos? ¿Qué tienen que desarrollar para ser atractivos en un momento en el que muchas tareas que asociamos a posiciones de Unios están siendo conquistadas por por la inteligencia artificial.

Y perdonadme una segunda pregunta, ¿y las empresas qué deben hacer, no solamente con las nuevas incorporaciones sino con todos los profesionales que estamos en activo? ¿Incrementar la el presupuesto de educación interna, de aceleración, de experimentación, pararlo y ver qué hacen otros? Gracias.

Si nos centramos más en las empresas, yo creo que deberían empezar a preparar planes para adoptar e introducir esa tecnología realmente en sus en sus procesos, porque lo que va a pasar es que esta tecnología llegará a ser muy buena, llegará a ser muy útil, y cuando tú la quieras empezar a, te encontrarás con que tu equipo de colaboradores, tu infraestructura, tu proceso, tu producto, no estarán preparados para eso. Y el proceso para adaptar todo esto te lo comerás igual hoy que cuando esta tecnología sea la bomba. Por lo tanto, yo creo que el coste de oportunidad de no empezar a formarte dentro de las empresas, de empezar a adaptarse, de empezar a experimentar dónde están las oportunidades reales de esta tecnología, les puedes acudir cuando esta tecnología sea realmente algo imprescindible, porque el proceso de adopción, eso se lo van a comer igual, sea hoy o sea dentro de un año. Esto es el consejo para las empresas, y para los estudiantes se lo dejo a Carlos.

Sí, pues justo para los estudiantes diría casi lo lo mismo. A ver, el que está saliendo ahora mismo de una carrera no lo veo tan preocupante, porque creo está en la misma posición que el que lleva veinte años en la empresa y también se tiene que reciclar. Ambos son profesionales que se tienen que reciclar. Lo que sí lo ha ha dado en el punto de, por ahora la IEA generativa, parece que está atacando más a las posiciones junior. Ciertamente está atacando a las posiciones junior, pero no creo que lo esté reemplazando, sino que creo que está permitiendo que la gente junior, usando estas herramientas, pueda ser mejor.

Entonces, creo que es un punto interesante y puede incluso restar fricciones a la hora de entrar en en el mercado laboral. Yo me acuerdo cuando hice las primeras prácticas, estar como un pollo sin cabeza en una empresa en la que me dieron mucha documentación y no entendía qué hacer. Con herramientas como ChatGPT ahora mismo podría trabajar mucho más cómodo. Entonces, creo que esa gente va a estar muy bien posicionada porque van a ser los early adopters de esta tecnología en el entorno laboral. Los que ya llevan mucho tiempo, a lo mejor, van a costar mucho más decirle, oye, desaprende la tecnología que usas y utiliza esta, los juniors la van a coger seguro.

Me preocupa más sobre todo los que están empezando ahora la educación, los que se están metiendo en un túnel de cuatro años en una carrera que todavía no se ha adaptado. Eso sí me preocupan más y ahí lo que tienen que hacer es un un reciclaje también, o sea, tienen que estar con una pata en la universidad, porque todavía lo que te enseña la universidad en ciertos contextos es útil el aprendizaje, la forma de adquirir nuevo conocimiento y cosas que están en los planes de estudio, que fue, están fuera de la burbujas mediáticas tecnológicas, eso es importante aprenderlo, pero al mismo tiempo también tienes que tener un otra pata en en todas estas herramientas que están surgiendo, y aprovecharlas y aprenderlas.

Yo para ser más atractivo lo que hago es ponerme pelo y y quitarme veinte kilos en los deep fakes que hago de mí mismo. Y para ser más contratable, no lo sé, la verdad, hoy me he pedido el día libre en SHAtaka para venir aquí, y no no me arrepiento, no sé qué pasará mañana, pero a mí me lo ha pasado bien.

Yo hay una cosa que además yo creo que de cara a la organización es importante, y que aunque pudieras te creyeras, que yo creo que no es que no es real, que no es una cosa cierta, que la IA hace la capa de los juniors, una empresa que no, digamos, la gente más joven tenga treinta y cinco tacos, es que pierde una parte de la realidad y pierde parte del contacto de la realidad y de cómo va a ser la realidad en el futuro. Entonces, como organización, yo siempre sería partidario de intentar tener gente joven y de incorporar gente joven, porque solo con su estilo de vida, su forma de pensar, su su inquietudes culturales, te va a conectar con el mundo que es y que será, y que si renuncias a eso, vas a ser una empresa del pasado por mucha IA que tengas.

¿Alguna otra pregunta? Sí.

Hola, ¿qué tal? Gracias por venir. Sois muy amenos inspiradores. Voy a decir una cosa rara, me voy a ir a una sala de cine, estaría más solo que aquí, ¿no? Y y voy a ver algo más normal, que es una película de crímenes.

Cuando veo una película de crímenes y veo un asesinato, no saco el teléfono y llamo a la policía, porque sé que no es real. Creo que quizá estamos llegando al límite de Planilandia, de las pantallas en una dimensión, en dos dimensiones, y quizá los creadores deberían explorar con más decisión el mundo inmersivo sin esperar a los técnicos, porque cuando ves estas imágenes, quizás cuando llegue sola seis o sola siete o GPT ocho o, pasará que todo el mundo creará obras de arte en vídeo, y habrá una sobreinflación, como cuando las cámaras se incorporan a los móviles, ¿no? Entonces, ¿no es un mundo que se puede agotar en sí mismo y habría que estar explorando, a nivel de creadores y creadoras, me refiero, los mundos de la inmersividad o la realidad aumentada?

Yo creo que esto

lo he respondido un poco en en medio del podcast cuando he dicho que una cosa es, sí, sí, que todo el mundo es capaz de escribir, no todo el mundo puede ser escritor. Yo creo que estas herramientas sí que empoderarán para que más gente con talento sea capaz de explicar sus historias, pero esto no significa que todo el mundo llegue realmente a poder crear historias que el resto del mundo quiera ver. Por lo tanto, además de que se abrirán más las las disciplinas artísticas, yo creo que al final seguirá siendo una una distribución similar a lo que tenemos ahora, pero con herramientas diferentes. Fíjate,

a mí me pasa una cosa que, bueno, yo tengo las ques, exploro un poco el mundo de aplicaciones y el mundo que están construyendo, y hay un un documental muy chulo en en HBO que se llama Nos conocimos en el, en uno de estos mundos virtuales. Nos conocimos, bueno, nos conocimos en el Metaverso, un trasunto de esto, ¿no? Y claro, ahí no estaban gente muy artística, ahí estaba la gente análoga a los que estábamos en el IRC hace veinticinco años. Nerdazos informáticos, inadaptados y gente rarísima, que era lo que habíamos allí, realmente. Entonces, es curioso cómo me parecía muy interesante, y viendo estos mundos, cómo hay un cierto paralelismo de que es verdad que los exploradores de del uso tecnológico no está siendo la gente de vanguardia artística, sino que está siendo otro que las clases creativas estén más ocupadas en otro formato, más tradicionales o más, y y no nos sorprenda que no llegan a a este mundo virtual, pero de alguna manera creo que les atrae menos que a otros perfiles de gente, que es algo que de de autoselección, ¿no?

Bueno, pues teníamos una tercera pregunta.

Hola, ¿qué tal? Sí. Soy Chantalla Vina, soy periodista de Catalunya Radio. Hago un programa sobre la revolución digital que se llama Revolución cuatro punto cero. Y os tengo que comentar dos cosas hoy.

Una, me gusta mucho vuestro programa, felicidades, pero faltan mujeres. O sea, aquí estáis cuatro hombres, hablando de inteligencia artificial, y entre el público hay gente y mujeres que también podemos hablar de inteligencia artificial. O sea, que yo creo que está bien, ¿no? Que haya un poco de paridad, a ver qué os parece. Y luego que la inteligencia artificial, el otro día hablamos en que también le pasa con el sesgo, ¿no?

Se está utilizando inteligencia artificial en un departamento de recursos humanos para escoger entre hombres y mujeres, ¿no? Los dos tienen buen currículum, pero la inteligencia artificial escoge a hombres y no a mujeres. O sea, que también hay un sesgo de discriminación, ¿no? Me gustaría saber vuestra opinión, este sentido, ¿no? Qué pasa con la ya y la discriminación aún de las mujeres?

Y tertuliasco también con más mujeres de inteligencia artificial, pero muchas felicidades por vuestro trabajo.

Bueno. Muchas gracias. Megaconscientes del problema de diversidad de nuestro podcast y hemos invitado siempre que hemos podido a algunas de las mujeres más brillantes que que nos hemos encontrado en este mundo Conchita Díaz, Cristina Urdiales, bueno hemos invitado a muchas mujeres pero también es verdad que hacer un podcast con tu amigo, porque en tu casa nadie quiere escucharte, es algo intrínsecamente muy de hombre, y por eso somos dos hombres, y después del crossfit, pues, nos ponemos a grabar desde nuestras casas, pero desde luego vamos a tomar nota.

Sí, bueno, luego el mundo de la discriminación de los algoritmos que da para casi otra charla, y pero pero yo creo que hay un debate de de la discriminación con la IIA, que es doble, es decir, que, ¿por qué discrimina una inteligencia artificial en un proceso selectivo como como menciona? Porque tiene unos datos de entrenamiento que vienen sesgados. Es decir, si hiciéramos una ILA que contratara en la línea, ¿no? Vamos a meterla una ILA en Recursos Humanos, y para entrenarla van a decir, bueno, vamos a usar los currículums de los actuales trabajadores de la viña, porque son todos estupendos, trabajadores, competentes, queremos que los que lleguen sean, pues, igual de buenos, competentes. De momento, todo está hecho con buena intención.

Metimos esos currículums y a los currículums que llega, la IA busca parecidos, busca patrones. Entonces, claro, de repente, la línea en ese proceso, si viene alguien de la Universidad de Quito, pues probablemente esa ILA no lo seleccionará, porque está buscando que se parezca al patrón que hay en los datos de entrenamiento, y si hay, no hay ningún ecuatoriano, perdón, porque a lo mejor me estoy equivocando, pero para el ejemplo no sirve, pues en ese momento sería discriminado, ¿no? Entonces puede pasar por cuestión de género, por cuestión de raza, por cuestión de país, en función de los datos de entrenamiento de la ILA. Ahora bien, cuando decimos que esto no es correcto, estamos diciendo que los datos de entrenamiento, aunque reflejen el mundo real, no nos valen porque pueden contener una discriminación sistemática. La el ejemplo clásico era, busco CEO en Google y las imágenes que aparecen son de hombre.

Claro, eso reflejaba una realidad del pasado, cada vez menos presente, pero reflejaba cierta realidad. Entonces decíamos, es que aunque refleje la realidad, no lo queremos porque perpetúa una situación que creemos que es sistemáticamente desigual y sistemáticamente indeseable. Por lo tanto, la IIA no debe hacer, no debe reflejar el mundo que tenga sus datos, sino el mundo que queremos que sea, y en ese queremos que sea hay una discusión ideológica. ¿Queremos que sea en igualdad de género? Pues claro, por supuesto, ¿no?

Entonces, queremos que la ILA en su respuesta, manifieste la igualdad de género. Pero luego, claro, ha habido casos en los que este queremos que sea es muy plural, porque el que queremos que sea es nuestra visión ideológica del mundo. Y entonces creo que va a aparecer un debate en el mundo de la ética de la IA, en el que veremos qué visión del mundo queremos que se imponga, porque la IEA va a responder si jamás es un grupo terrorista o no. La IEA va a responder si alguien que no ha nacido del sexo biológico mujer es una mujer, va a responder la pregunta que es una mujer, y sobre eso tenemos unas visiones ideológicas que no están en discusión a la sociedad. Entonces, yo lo que yo creo que va a pasar es que lo que tengamos en común en la sociedad, poco a poco se va a ir trasladando a los sistemas de inteligencia artificial, pero que en las cosas y asuntos que estén en discusión, probablemente nos va a llevar a pelearnos y a tirarnos las vías unos a los otros por los años que vienen.

Sobre Sesghost también, hay que decir un poco que se ha instalado mucho el debate de los ecos que hay en los modelos de inteligencia artificial, porque históricamente ha habido muchos ecos, y cuando digo históricamente me refiero hasta hace tres, cuatro años, pero es cierto que el patrón ha empezado a cambiar. ¿Vale? Con la llegada de estos enormes modelos fundacionales, antes tú entrenabas una IA para hacer, pues es lo que has comentado. ¿No? El te leo un un currículum y clasifico, y ya está.

Y entonces ahí si había sesgo en la selección de los datos intrínsecos del propio modelo, lo que sea, se se perpetuaban esos ecos. Pero con los enormes modelos del lenguaje, por ejemplo, que tenemos ahora, sucede que si tú usas el modelo por defecto, pues sí puedes caer en sesgo sistemáticos, pero es muy, o sea, el modelo ha aprendido todo esa toda esa visión completa en la que puede pensar, sí, existe el sesgo de que una enfermera siempre es una mujer, pero tú lo puedes forzar muy fácilmente a través del peón para decirle, quiero una imagen de un enfermero o quiero una imagen de tal. Y puedes conducir a la inteligencia artificial muy fácilmente a generar datos sintéticos de la otra visión. Con lo cual, ya la responsabilidad no es que la inteligencia artificial venga a ser cada per se, sino que viene con unas conexiones iniciales que si tú no la pilotas correctamente puedes caer en esos secos. Pero ahora sí tenemos la capacidad de poder manejarla más o menos.

Entonces creo que la responsabilidad también cae en nuestras manos y si tú montas un sistema de selección de currículums, pues puedes, con técnica de ad de prompting y haciendo una evaluación, ver hasta qué punto el modelo está más segado o menos segado. Ahora nosotros tenemos herramientas para hacer eso, y eso ha sido un paso muy grande que soluciona bastante el problema de los ecos y que quizás no es tan evidente en el debate, que seguimos todavía recordándolo, pero es importante tenerlo en cuenta porque, como digo, la responsabilidad cae ahora en nosotros.

Sí, y además de que hay una cosa que también es cierta, que lo cien por cien tenemos sesgo somos los humanos. Es decir, quizás, aunque estamos hablando mucho en los egos de la IIA, en los egos de la IIA son más detectables y más evidentes, a veces, que los egos intrínsecos que tenemos los humanos, que a veces nos lo hasta nos los ocultamos a nosotros a nosotros mismos, ¿no? Entonces, bueno, yo creo va a ser un un tema superinteresante de de los próximos años, claro que sí. Y creo que ya ya nos están diciendo que que se han cansado, han escuchado que el jamón era muy bueno, Matías, y claro, la gente la gente está impaciente, Matías.

Sí, además que Carlos tiene el ave, yo creo que en cinco minutos.

Bueno, bueno.

Pero yo solo quería decir para acabar que hemos hablado antes de futuro y de los próximos mil días, en mil días seguirá estando con la hiperactina.

La vida. Claro

que sí. Chao, amiguis.

Episodios recientes

Programas relacionados