Damos consejos a Google para mejorar sus nuevos modelos y nos embarramos con la ley europea de IA.
- Gemini ya ha pasado de moda
- Microsoft sale en defensa de sus amigos
- Nos declaramos fans de Mistral AI
- Le damos propina a ChatGPT
- Rescatamos a los filipinos encerrados en una IA
- Y todos los puntos a subrayar de la regulación europea
Patrocinador: Únete a la peña de Navidad de monos estocásticos en Tulotero y participa gratis en nuestro número de la Lotería Navidad. Descarga la app o regístrate desde tulotero.es y utiliza el código monosnavidad para entrar en la peña desde el apartado "Activar promociones" o el menú "Empresas" en el destacado de Navidad.
Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com
Transcripción
Bienvenidos a monos Estocásticos, vaya episodio, tenemos hoy La semana pasada grabamos, y a las horas, literalmente, a las horas, hubo presentación de Google, ¿no,
Antonio? Sí, nos nos pisó, nos quitó el protagonismo, no, del mundo Twitter e inteligencia artificial, pero antes de de comentar la avalancha de novedades, de anuncios, de discusiones y debates, quiero que hacer un parón, Matías, para reflexionar sobre tu quisi de la de los treinta años. Es decir, se habla mucho de los cuarentones, de que es una etapa de la vida en que tienes que elegir entre el descapotable y hacer cursos de cocina, pero tú estás tomando tu tu tu tu década de los treinta de una manera original, ¿no? Y y me refiero concretamente a tu nuevo peinado, Matías.
Bueno, para el que no lo esté viendo, me he hecho un pelado típico malaguita de los dos miles, dos miles diez, rápidaditos. Y Antonio parece llamarle la atención que una persona como yo con treinta y cuatro tacos tenga un pelado tan, tan juvenil.
Enhorabuena, Mati, aparentas treinta y tres, de verdad.
Antonia, tenemos un problema, tenemos que decidir la pronunciación oficial de monos estocásticos de lo de Google, porque hay tres opciones. Vale. Una sería Gemini, ¿no? Gemini. Pero igual suena un poco pedante.
Otra sería Gémini, que yo creo que es el estándar, el estándar, bueno, estocástico sería pronunciarlo Gémini, y otro ya sería traducirlo como los reyes, ¿no? Como Isabel en lugar de Elizabeth, pues pronunciar géminis.
De hecho, mi duda era si era Gemini o Gemini. Como en inglés no llevan la tilde, digo, esta pensaba la palabra es llana, es aguda, me da la impresión de que en en el nombre del modelo ha metido mano la gente de marketing de Google, el de lista, gente preparada que sabe que llamar GPT a las cosas o alfa, code, filanda, no es, digamos, el el modo de llegar al gran público, y bueno, yo yo me amoldaré a como tú lo llames, Gemini, Gemini me suena bien, ¿no? Gemini, bah. Gemini es el anuncio de la semana, el anuncio del mes, porque yo creo que hay otro más interesante, pero bueno, no no anticipemos y hablemos de Jenny ni de Google, Matías, porque le han dado mucho bombo.
Tú tienes un problema, Antonio, como esto tiene ya una semana, tú quieres pasar ya a temas más nuevos, pero claro, los oyentes de foros estocásticos tenemos que darles información sobre que lo que lanzó Google, aunque haya pasado ya una semana, porque bueno, su importancia, claro, aunque haya pasado ya de moda realmente.
Sí, una semana, esto es una cosa muy vieja para para nosotros que vivimos ahí en el en el tiempo real, en en la última hora, pero, bueno, cuéntanos cuéntanos un poco, Mathi, que has estado picheando a a Gemini de Google y que y que, bueno, es es es clave destriparlo, es uno de los lanzamientos del año, sin duda, y es tiene cosas muy interesantes. Matías.
Bueno, pues creo que es el primer modelo que en estas pruebas de MMMU Massive Multitasking Language Understanding, o MMU, supera el noventa por ciento, entonces el Gemini Ultra, que es la el modelo más capaz y más grande de Google, se sitúa por encima de GPT cuatro de OpenAI en varias pruebas, pero por ahora no se puede probar, esto lo lanzan el año que viene a principios de dos mil veinticuatro, pero ahora lo que han implementado en Bart es otro modelo, Gemini Pro, que es más pequeño y que se parece un poco más a GPT tres punto cinco,
¿no? Sí, yo, mira, ahora comprendo cuando la gente normal que nos escucha, Matty, dice, no me entero de nada, es decir, aquí dan las cosas un poco más masticaditas, Matty, yo creo que aquí tenemos que dar un paso atrás, explicar un poco que Gemini es, bueno, el nuevo modelo de inteligencia artificial de de Google, es un modelo grande de lenguaje que se llama, es decir, uno de estos modelos preparados para conversar con él y que, digamos, es como el motor detrás de los servicios de Google que usan inteligencia artificial. Es decir, si GPT tres o GPT cuatro son modelo de inteligencia artificial detrás que hacen funcionar a ChatGPT, pues los Gemini van a ser los modelos que están detrás de Bart, que es el chat GPT de Google, el sistema con el que chatearemos e intercambiaremos información. Vienen tres sabores, Matías, ya has hablado del Ultra, el Ultra se supone que es el súper potente, el que va a superar a GPT cuatro, el que va a poner a Google el primer nivel de la inteligencia artificial, pero es un modelo que todavía no dejan catar ni dejan probar, es decir, lo tienen en en su laboratorio, ahora discutiremos por qué creemos que es esto.
Y luego el Pro, que es el que sí se puede probar o no tanto, Matías.
Está disponible en ciento setenta países, pero por supuesto no han incluido la Unión Europea, ya nos estamos acostumbrando, nos estamos acostumbrando a esto, y después de lo que hablaremos más adelante en este episodio, probablemente se convierta en el estándar de la industria, ¿no? No lanzar cosas en la Unión Europea igual que en Estados Unidos, por ejemplo, donde si tenéis VPN podéis probar ya el Gemini Pro, que es esta versión que decía que, como podéis ver en esta tabla que estamos compartiendo en la imagen, se queda un poco por encima en los benchmarks, que GPT tres punto cinco, pero no llega a ese GPT cuatro que, por primera vez, alguien, Google, como era de esperar, consigue hacer algo de sombra al modelo más capaz de OpenAI.
Sí, el el que se puede probar ahora, es decir, ese Pro a nivel del tres punto cinco de OpenAI, lo que presuntamente ha conseguido Google, digamos presuntamente porque como no lo hemos podido probar en persona, pues nos tenemos que remitir a los análisis y comentarios y a los petemark que que hemos sí podido leer, es que el chat gratis de Google Bar ahora está al nivel de chat gratis de OpenAI, que es Chat GPT. ¿Ventajas en principio a favor de Bar y de Google? Pues tiene una integración fortísima con todo el ecosistema, es decir, tú en bar puedes, digamos, darle permiso para que acceda a tu Gmail, a tus historial de mapas, a vídeos de YouTube, entonces puedes plantearle o pedirle un montón de cosas relacionadas con el ecosistema a Google, como resumir un vídeo de YouTube, hacerle preguntas sobre contenido de ese vídeo o, oye, dame un resumen de los correos más importantes de del correo electrónico que he recibido hoy, cosas de ese tipo, ¿no?
Yo aquí tengo un problema, tengo un problema claro, y es que yo no encuentro ecosistema, porque yo lo había apostado todo por el ecosistema de Apple y claro me estoy quedando sin las posibilidades de Copilot en Windows, como me he salido de la nube de Google para apagar la de iCloud, no tengo tampoco manera de aprovechar estas Bueno, ya sabes que el año que viene tienen que venir fuerte, pero, bueno,
Bueno, ya sabes que el año que viene tienen que venir fuerte, pero bueno, de momento parte de la fuerza que que puede plantear Google es esta. El gran debate, creo yo que, bueno, aparte de cara a bar es mejor y bar es usable, yo creo que los análisis que he leído lo ponen un poquito mejor algunos y otros un poquito peor que hecha GPT, pero, de nuevo, los europeos no podemos considerar esta opción hasta que Google adapte Bart con el nuevo modelo a las leyes europeas en las que probablemente la el el mayor hándicap o el mayor problema para esta adaptación es que los datos, siendo de carácter personal, se queden en Europa, que es parte de lo que la DCA impone a las grandes corporaciones tecnológicas y, por lo tanto, en el primer lanzamiento lo tendrán todos en Estados Unidos, por lo tanto, solo los países que permiten que los datos de los usuarios que hayan a Estados Unidos integran el nuevo modelo dentro de BAR, y los europeos tenemos que esperar a que haya una siguiente adaptación, que es mantenemos servidores en Europa que se queden con los datos de los europeos. Dicho esto, el gran debate, y aquí yo creo que está la la gran pregunta, el gran titular, era que, oye, por fin alguien hace sombra a OpenEye.
En el capítulo del aniversario hecha GPT que comentamos, oye, es que nadie le está haciendo sombra, ni siquiera se están acercando al modelo gratis, excepto alguna excepción, parecía que OpenAI tenía más de un año de ventaja respecto a todo el concepto de ecosistema de inteligencia artificial. ¿Qué es lo que ha anunciado Google? Pues mira, nos podemos poner al día con el gratis, y dos, tenemos en la nevera, aquí a puntito de salir, una versión que será la versión del BART plus, que será la versión de pago de Google, que no solo iguala a GPT cuatro, sino que le va a superar en algunos de los grandes P Smart de los modelos de inteligencia artificial, por lo tanto, hay batalla.
Sí, de todas formas, por muy poco, es decir, esto es como cuando en trescientos le lanzan un flechazo, lo que sea al rey Jerjes, ¿no? Que que que le da como un arañazo en la mejilla y el tío se enfada, pues así me estoy imaginando ahora mismo a Sam Alman, pero solo un arañazo, porque, por ejemplo, este señor de aquí, el Dimitri Papailopoulos, literalmente hizo capturas de pantalla de los catorce ejemplos que puso Google, que podía resolver el Gemini Ultra, se los pasó a ChatGPT, a GPT cuatro, y doce de las catorce respuestas eran correctas. Es decir, ahí hay dos en en la que el Gemini supera a GPT cuatro, Pero pero no por mucho, no por mucho.
Sí, de hecho, atención, porque en las últimas horas Microsoft ha salido en defensa de sus amiguitos, atención, paper de urgencia, documento técnico de urgencia de Microsoft diciendo, vale, es verdad que Google dice, nuestro Gemini Ultra es mejor que GPT cuatro. Es decir, es lo que dice Microsoft. Depende, porque con los prompts adecuados, dándole las instrucciones necesarias a GPT cuatro, de repente GPT cuatro también sube un poquito más en los benchmark que el modelo, digamos, de forma directa, sin ayuda de esta ingeniería de proms, es decir, cuando decimos ingeniería de proms, de nuevo para los oyentes nuevos, ingeniería de proms es el el conjunto de técnicas que tienen poco que ver con la ingeniería y tienen que ver más con la artesanía, de cómo damos instrucciones a un modelo de inteligencia artificial para conseguir nuestro objetivo. Entonces, si le preguntas GPT cuatro con las instrucciones adecuadas, de repente, lo que llaman el Metpromp en Microsoft, de repente tenemos que Microsoft, que no parece una la la empresa más neutral en este en esta discusion, de repente dice, no, hemos superado a al a a lo que dice Google que han conseguido y que tienen ahí en la nevera.
Así que, bueno, hay un un unas ganas de medírsela con con los benchmarks de inteligencia artificial, que es tremendo, está todo el mundo agitadísimo.
Otra cosa que hay que decir en contra de Google, que parece que estamos en contra de Journey y al contrario, estoy deseando probar esto del Ultra, es que el vídeo más impresionante de de la presentación, que es este, en el que vemos cómo parece que en una conversación continua en vídeo le hacen preguntas a Gemini Ultra, y Gemini Ultra las va contestando en tiempo real, como por ejemplo, el tío este está dibujando ahora mismo un pato azul y le pregunta qué es, y el Gemini Ultra contesta, pues es un pato azul. Bueno, pues esto no es un vídeo real, sino un montaje, como publicó, creo que los primeros que lo publicaron fue De Verge, a partir de conversaciones de texto, que eran unas conversaciones de texto con proms simples, que de hecho está publicado en una web de Google, que luego convirtieron, pues, en un montaje de vídeo para hacernos creer que, pues, eso fue un continuo de conversación por videollamada con Gemin Ultra y nada más lejos de la realidad, ¿no? El vídeo es totalmente, yo quiero creer, como un expediente x.
Decía, el vídeo es una chulada porque de repente te ponen delante ahí esa sucesión de de conversaciones en la que la comprensión, entre comillas, comprensión, ya sabemos, de la inteligencia artificial de Google es perfecta de lo que está sucediendo delante. Aparentemente, claro, la entrada del modelo es de vídeo, porque nosotros estamos haciendo cosas, la respuesta es inmediata, la inflexión de la voz con la que nos responde el modelo es de una comprensión perfecta, entonación. Es que a nuestros ojos, lo lo comentaba en Twitter, ¿no? Creo que nuestros ojos, algo así, aunque detrás sea un loro estocástico, aunque detrás sea solo una máquina de probabilidades que adivine la siguiente palabra que quiere decir, a nuestros ojos nos parecerá inteligente. Sí se consigue esto, que lo que pasa es que la propia Google lo ha reconocido, doce CV, de hecho, le le hizo un CCI al vídeo estupendo de de por qué no no era, digamos, un vídeo que transmitiera las capacidades reales de la experiencia que vamos a tener con el modelo, sino que es, digamos, una narración pseudopublicitaria que aparenta unas tiempos de respuesta, una falta de latencia, un uso del vídeo que no va a tener el el el modelo real, y por eso, de nuevo, igual que la gente de marketing de Google ha estado muy viva al ponerle Gemini al al modelo, ha estado muy viva al al proponer esto, pero yo creo que al final les ha salido mal, Matty, porque tienes un modelo súper potente que es multimodal, que a lo mejor no lo hemos subrayado, eso está entrenado con texto, con vídeo, con audio, con foto, es decir, todo desde el desde el origen es multimodal y tiene una pinta fantástica, pero la sensación al final es, no lo lanzas de verdad, no lanzas el fuerte que dice que supera gpt cuatro, no lo tenemos que creer que es que es así de bueno, y además lo lanzas con una campaña que que parece en la que quieres exagerar, en la que quieres, de alguna manera, vendernos algo que no es real, ¿no?
Entonces creo que para lo menos para la gente más del núcleo duro de la inteligencia artificial ha sido un poco de mal sabor de boca, Matías.
Sí, de hecho, lo resume muy bien con mala baba un vicepresidente de producto de OpenAI, Peter Wellinder, que dice, personalmente a mí me gustan más las demos en directo y poder probarlo por ti mismo, ¿no? Es que es tal cual. Yo creo que esto fue una campaña muy organizada por el equipo de marketing de de Google, como tú dices, porque de hecho varios medios, como mis compañeros de Shatacat, tenían embargo para publicar el lanzamiento, así que yo creo que esto estaba muy preparado para causar ese ese efecto que no no caza mucho con lo que es la corriente de gente muy encima de las novedades de de ella que quiere probarlo ya y que no va a poder hasta dentro de unos semanas, meses?
Sí, sí, sí, ya veremos. De igual manera, creo que aquí hay varias varios puntos que que hay que subrayar, como lo nos lo comentaba un un oyente, Domingo Gallardo, en Twitter, GPT cuatro es alcanzable, vale, eso es lo tenemos que tener ahí delante y subrayable, es decir, ya está la la competencia ahí. Creo que esto va a subir la exigencia OpenAI, y si OpenAI se planteaba, recordemos aquel debate, Shuus Kever, toda la historia de la guerra interna de la empresa, se planteaba parar, pues ya lo tienes ahí, es decir, si te paras, te alcanzan y te sobrepasan, pero ya. Así que hay una presión extra, creo que sobre sobre OpenEye, y una take que que no estoy leyendo por muchos sitios, pero ahora mismo el mejor servicio de chateo y generación de imágenes y que podemos tener gratis, no la da ni OpenAI ni la da Google Matías, la da Microsoft con el Copilot.
Sí, es que yo alucino porque siguen metiéndole todo lo que estoy yo pagando veinte euros al mes, lo siguen metiendo en Bing gratis, y yo por simple pedantería de no querer usar Bing, porque odio Bing, no estoy aprovechando todo esto. Por ejemplo, se han actualizado ya a GPT cuatro Turbo, que es el último modelo de de chat GPT, que tiene una ventana de contexto más grande, que es más rápido. Han actualizado la última versión de Daly tres, o sea, la gente sigue haciendo estos memes que que se inventan cada dos por tres, el último es, le he pedido a una IA que que dibuja una familia muy española, ¿no? Salen ahí comiendo paella y con y con viendo el fútbol, bueno, pues todo esto la gente lo está haciendo gratis mientras el dos pringados, como tú y como yo, estamos pagando el Chart Challenge, y además me con novedades propias de de Microsoft como un nuevo intérprete de código y un nuevo buscador más potente, ¿no?
Sí, yo yo esto es de las cosas que tengo pendiente, tengo una lista de ochenta y cinco cosas de inteligencia artificial que tengo que probar y dedicarle tiempo, porque dicen que han mejorado la búsqueda haciendo una búsqueda profunda, que claro, si antes hacía una búsqueda superficial, bien, claro, normal, que no que no tirases, ahora, por fin, haces la búsqueda profunda, ¿no? Como antes. Bueno, hay gente empeñada en que los modelos grandes del lenguaje van a ser buenos buscadores, Microsoft está muy encabezada, tiene sus motivos, es decir, como Bing está lejísimos en el mercado, tiene poco que perder y mucho que ganar, Perplexity, que es una startup, un proyecto que, de nuevo, yo le echaría un vistazo una y otra vez, tiene además un una página de labs para probar otros modelos muy muy interesantes. Bueno, están están ahí empeñados, pero sí, si ahora ahora mismo alguien me dice, ¿qué IEA gratis uso? Pues vete al copylot, que atención, Matillo, también lo lo puede usar desde otros navegadores, es decir, ya se ha separado un poco, están separando lo que es, Bin Copilot, que era muy ligado al al buscador y ya tienes el Copilot un poco aparte como como acompañante en En el en el navegador, pero pero para cualquiera.
Me voy a tener que comprar un ordenador de estos con luces de colores, un PC, voy a tener que pasarme a Windows, es que yo quiero aprovechar todo eso que ofrece gratis Microsoft, y gratis por ahora, porque luego ya empezarán a cobrarte por el tres seis cinco para casi todo.
Sí, hombre, yo creo que están quemando pasta, es decir, darte GPT cuatro gratis cuando OpenAI te cobra veinte dólares al mes, alguien está pagando esa factura y creo que es Bing intentando subvencionar y Microsoft intentando subvencionar su crecimiento como ecosistema, pero al final del día, en algún momento, alguien pagará esa factura. De todas maneras, yo me quedo también con una cosa que ha dicho Oriol Viñals, Oriol Viñals es uno de los más potentes investigadores de DeepMind, de Google, y que ha estado muy involucrado dirigiendo la creación, codirigiendo la creación de Gemini, es una figura que hay que seguir, en la que dice que, bueno, ellos están entusiasmadísimos, que están flipando, que tal cual nos vende un poco Gemini, pero sobre todo dice que dos mil veinticuatro va a ser la caña, va a ser drástico y va a ser crucial, ¿no? Entonces, yo me quedo un poco con eso porque fíjate que hemos dicho que la presión está en OpenEye y que y eso significa que GPT cinco, pues vamos a tener que ver hasta dónde llega, pero yo me he acordado también de que, ojo, Sand Alman ya dijo que no nos entusiasmaramos demasiado con GPT cinco.
Hace poco, Bill Gates en una entrevista decía que GPT cinco no iba a avanzar mucho respecto a lo que tenemos ahora, están muchas voces diciendo, moderemos las expectativas y el propio Google, cuando saca su mejor modelo, cuando lo saque, tampoco, como tú decías, se va mucho más adelante. Entonces, vamos a ver si no estamos hacia un cierto, no sé cómo llamarlo, límite de, bueno, de del paradigma de deep learning basado en el transformer y que no vamos a tener mucho más avance. ¿Tú me dirás? ¿Dimeales? Dice que dos mil veinticuatro será la calle.
Yo me creo mucho a Oriol que que sabe más de esto
que que nadie en el mundo. Bueno, antes de pasar al patrocinador, no podemos no comentar que Sergei Brin, cofundador de Google, una persona que tiene un patrimonio de ciento cinco mil millones de dólares, sería más, pues pero eran dos los fundadores, es uno de los autores principales del paper técnico de de del artículo técnico de el lo el nuevo modelo de Gemini. Básicamente, este tío está programando a diario, en lugar de disfrutar de sus yates y de lo que sea, y su isla privada y sus jets y todo eso, pues, fantástico. Sí, sí.
Claro, dicho con con distancia dices jolín, que hombre, que a lo mejor ya tiene el culo pelado de comer en Estrella y está un poco cansado. Pero fíjate, yo también lo comprendo, es decir, tú como como tío súper técnico, cerebrito, súper matemático, programador, Claro, cuando haces crecer Google te vas a ser, pues un directivo, un feo, un, bueno, feo, ¿no? Porque metieron a Ari Smith como alguien adulto en la habitación en aquella época brillante de Google, pero de alguna manera, o sea, recoges distancias respecto al producto, te metes mucho en temas políticos, en temas de lobby y de repente él dice, bueno, ya me fui de de la dirección de Google, puse aquí a aquí al al CEO que es estupendísimo, y solo vuelvo para los proyectos que me flipan, Y para los proyectos que me flipan, sí me pringo, me arremango y me meto ahí como en los buenos tiempos. Entonces, yo, de alguna manera, le compré.
Creo que esta también era un poco la la lógica de crear Alphabet como matriz y que él él pudiera, ellos, los fundadores, pudieran extender un poco su alcance, pero bueno, fíjate que ahora todo lo interesante está pasando dentro de de Google y bajo el paraguas de Sundarp Pichai. Bueno, pues ahora sí, por cierto, me recuerda un poco a un tío que vino ayer a arreglarnos una persiana que dice que los domingos sigue trabajando porque le relajan, y le dice a su mujer, no, es que he quedado con alguien, pero en realidad se va a arreglar persianas y a y a pintar casas.
Esto es un, esto es un hallazgo, es decir, engañar a tu mujer para irte a arreglar persianas.
Pues yo me imagino que eso es lo lo que hace Apring, dice, no, no, es que estoy ahora jugando al LOL y en realidad está programando este mes.
Sí, hombre, al Baldur Gate tres, a lo mejor, Martín, que hay que echarle muchas horas, entonces, claro.
Pues nada, el juego del año. Y el patrocinador del año, o por lo menos de esta semana en en monos estocásticos, vuelve a ser tu lotero. A mí, la verdad, me vuela la cabeza que tu lotero sea patrocinador de de este podcast, porque yo todas las navidades me meto en tu lotero para comprar lotería de Navidad, que es la lotería que yo juego. Y la gente de tu lotero nos ha creado una peña, la peña de monos estocásticos, con un número de Navidad, que es el uno uno uno cero uno, que es un número binario que Qué bonito. Se traduce al veintinueve en decimal.
Además, es primo, o sea, es un es un número chulísimo. Y la gente que se crea una cuenta nueva de tu lotero puede participar gratis en la peña. Gente que no también puede participar, pero pagando un euro de participación, con el código monos navidad. Tienes que irte a la sección empresas en el destacado de Navidad de tu lotero, te lo estoy enseñando en el vídeo, Navidad, empresas, introducir código, monos Navidad, todo junto, todo en minúscula, y si no, en el apartado activar promociones de la aplicación, y ya participas con el uno uno uno cero uno, que si sale el gordo, pues nada, suerte para para todos los oyentes de monos Estocasting.
Sí. Además, fíjate, Mathi, que, claro, jugar un número binario te da todas las ventajas de la lotería. Primero, te da la ventaja de jugar y tienes ahí tus posibilidades de que te toque un premio, eso es evidente, pero fíjate, mucha gente, ¿sabes por qué no jugaba a la lotería? Por hacerse los listos, es decir, decían, oh, es que las probabilidades, no, es que no sé qué, no sé cuantitos, no pasa nada. Ahora con monos estocásticos y tu lotero y nuestro número binario te puedes hacer el listo también cuando juegas, porque puedes comentarle a todo el mundo, ¿no?
Tú estás ahí en la comida de Navidad de la empresa, es que los números binarios tienen las mismas probabilidades que los números no binarios y, por lo tanto, ya es un argumento irrefutable y en que tienes lo mejor de los dos mundos. Juegas a la lotería con la mejor peña del mundo, que la peña monos Navidad, monos estocásticos y además tiene toda la parte de poder hacerte el listo, que es también una función necesaria y conveniente.
Pues ahí queda nuestro patrocinador. Hay muchas más cosas que comentar de la presentación de Google, no sé si quieres ir un poco más rápido.
Vamos a ir rápido porque es que tenemos una avalancha de reglas, mira, tres titulares, atención, tienen una nueva TPU, es decir, su hardware, sus maquinitas para el entrenamiento y procesamiento de la inteligencia artificial, se llama TPU porque está basada en en TensorFlow, el sistema software con el que Google programa su inteligencia artificial. Esto es muy interesante, es decir, que pensemos que todas las demás empresas que hacen inteligencia artificial le tienen que pagar muchísimo a Nvidia, es decir, porque le compran las tarjetas gráficas. ¿Es un éxito hecha GPT? Pues pasta para Nvidia. ¿Microsoft te da BINCOPI los gratis?
Basta para Nvidia. Todos, todos, todos, todos están pasando por ese aro, pero Google, que tiene su propia tecnología, pues tiene un cierto ahorro y va a ser más eficiente económicamente. Y luego, Gemini Nano. Dijimos que venía en tres sabores el Gemini, el Ultra que no hemos visto, que es el SuperLISTO, el Pro, que es el gratis que pueden probar fuera de Europa, y el Nano, que es un modelo mucho más pequeño que se puede ejecutar en dispositivos menos potentes, por ejemplo, el teléfono móvil.
Tú tienes un Pixel Siete, te quedas fuera, porque esto está para el píxel ocho y además es una, yo diría que es casi una demo, ¿no? Porque lo puedes probar para autogenerar respuestas por ahora en WhatsApp. Es decir, es algo muy limitado, pero al mismo tiempo esto va a ser, de alguna forma, el futuro, porque lo que vamos a querer en nuestros móviles, que es el dispositivo que más usamos, es ese procesamiento en local, esos modelos más pequeños y más especializados Gemini Nano, para poder hacer este tipo de cosas rápido, como contestar emails, mensajes sin mucha materia gris.
Sí, ahí, ¿por qué es tan importante esto? Por dos razones, porque los modelos grandes que se ejecutan en un servidor remoto, las máquinas de Google o las máquinas de OpenAI, tienen mucha latencia, es decir, tardan en contestarnos cualquier que use ChatGPT en el móvil o que use Lucía o que use cualquier cosa que de inteligencia artificial que se conecte a otra máquina que esté lejos, pues ve que hay, eso tarda, eso tarda porque es muy costoso computacionalmente de procesar, los tiempos de envío, etcétera. Bueno, una ventaja de ejecutarse el local es que la respuesta puede ser mucho más rápida. Dos, privacidad, siempre que enviamos algo de inteligencia artificial que sea, de nuevo, en remoto, pues va a las máquinas y a los servidores de esa empresa. Lo que pasa en el móvil se puede quedar en el móvil.
De hecho, como hemos comentado muchas veces, creemos que este va a ser el camino de Apple con con Siri, con con los modelos de inteligencia artificial que, por supuesto, por la privacidad, casi todo, que arranque y casi todo se se ejecute en local. El caso es que estos modelos más pequeños, como Nano, son menos potentes que los modelos grandes y, por lo tanto, hay que moderar un poco las expectativas. Y dos, no van a estar en el, con perdón, en el en el Redmi de ciento veinte euros, es decir, se ejecutan en máquinas menos potentes, pero generalmente con unidades de procesamiento específica para inteligencia artificial, como tiene el Pixel ocho, y es posible que lo que veamos ahora es una generación de modelos no tan buenos como los grandes, y que además nos exigen que nuestro móvil sea bastante cañero.
Pues a ver si Google nos nos da un pixel ocho para probarlo, que ahora que lo están regalando tanto a influencers y a triunfitos. Por cierto, también Gemini ahora está detrás de AlphaCode, que es el, pues, la IA de generación de código, la IA para programadores. No sé por qué ahora está de moda decir codificar, no sé si es porque se traduce literalmente del inglés, pero, bueno, yo siempre he dicho programar, bueno, pues, Alpha Code si lo usas para programar, la versión dos ahora tiene Jemini detrás y, por lo tanto, es mucho más potente, ¿no?
Sí, sí, sí, sí. De todas maneras, Matty, estamos muy cegados con Jeby Nye, ha dado mucho que hablar Google, pero aquí vengo yo con mi apuesta que te propongo, creo que el lanzamiento gordo, gordo, de estas últimas dos semanas, de los últimos diez días, viene de Francia, atención, noticia inesperada, viene de Francia, viene de una empresa que se llama Mistral, que nosotros, a lo mejor, en un primer momento no tomamos con el máximo respeto, quizás ahí nos precipitamos un poco, y vienen abierto, es libre y se comparte por torren, es decir, es un proyecto de eso de explotarte la cabeza y se llama Mixtral, de la empresa Mixtral.
Pues yo siempre he sido fan, bueno, siempre, desde que me enteré de su existencia y básicamente me enteré de su existencia porque en Twitter tienen esta imagen que es literalmente creada con WorldArt, ¿Te acuerdas del WorldArt del de los dos mil? Pues ese es su logo, Mistral punto AI, y luego lo que tú dices, comparten, sus únicos tweets son magnetts para descargarte por torrent sus modelos, y y no modelos poco potentes. No, no, es que están a la par que el que el GPT tres punto cinco.
Sí, es la empresa de guía más basada del sector. Es decir, aquí no no hay nadie más chulo que la gente de de Mistral, pasan un poco de todo. De hecho, la forma de comunicar, yo estaba atento y es es bastante loca, es decir, primero ponen un torrent, un, bueno, un enlace magnet para la gente que no esté acostumbrada a bajarse cosas por BitTorrent, pues el magnet es un tipo de enlace que a nuestro cliente de BitTorrent, nuestro sistema con el que hacemos descargas, pues tiene las instrucciones, tiene dónde encontrar y cómo conseguir la descarga de de este fichero. Bueno, pues, primero ponen eso, quien quiera y tenga valor que se lo baje, y luego, pasadas las horas, hacen un post y explican, esto es lo que hemos puesto para descargar, chavales, y lo que han puesto para descargar, atención, es que es muy interesante porque es Traal, es un modelo que tiene tres cosas críticas. Una, que es de siete b, de siete billions, es decir, es cuando decimos que un modelo es siete billions, es el número de parámetros, viene a decir cómo de grande es ese modelo, y el cómo de grande tiene dos implicaciones, cuánto cuesta entrenarlo, cuánto más pequeño sea el modelo, pues supuestamente menos cuesta entrenarlo, y dos, cuánto cuesta también ejecutarlo, es decir, qué tipo de máquina podrá ejecutar ese modelo.
Pues este es de siete billion, que es un modelo relativamente pequeño. No lo vamos a poder ejecutar un móvil, pero ojo, en un PC más o menos moderno se ejecuta, yo lo tengo descargado local, se ejecuta. Según la cosa importante de Mixtral, que oye, en los benchmarks sale mejor que GPT tres punto cinco, es decir, esto que te puedes descargar y ejecutar en tu ordenador ya es mejor que echar GPT gratis.
Y que llama.
Y que llama y que llama de de meta y que, bueno, no lo he visto en los en los benchmark, pero creo que es mejor que Groc, Elon Musk y Twitter, es mejor.
El pullito.
Y atención, claro, es que cuando hablamos el año el otro día, un año de ChatGPT, un año de chat GPT, el punto crítico de ha pasado un año y para mí es este, que lo que nos alucinó hace trescientos sesenta y cinco días como una cosa que nos explotaba la cabeza, ya la tenemos en el PC ejecutándose el local, y la tercera cosa, que es importante, ministral, es libre, abierto y gratis. Es decir, que que, bueno, que te la puedes descargar, la ejecuta y tienes licencia para usarla como tú quieras. Y lo
mejor de todo, voy a intentar escribir esa foto de los autores del modelo. Si te
vas a la página de
tres señores con el filtro este de Instagram de la mandíbula marcada de del señor basado, haciéndose una foto en un monte con un palo de selfie. O sea, estas personas son lo más crack que hay en el mundo, y además Francia, como tiene tanta energía nuclear y no la va a cerrar, pues va a poder alimentar todos estos modelos.
Por eso hablarlo con Macron, oye, ¿podemos enchufar esto estas maquinitas a esa a esa central nuclear tan bolona que tenemos? Pues, pues, apalante. Técnicamente también han abierto un camino muy interesante que que lo llaman el el MOE. Bueno, otro día técnicamente nos podremos meter un poco más en profundidad, pero sobre todo es una vía por la que van a optimizar mucho los modelos. Es que, claro, cuando decimos es que este es de siete billion y es mejor que GPT tres cinco, es que GPT tres cinco, bueno, OpenAI nunca ha sido muy transparente, bueno, nunca ha sido, no ha sido transparente en los últimos tiempos, entonces, no han dado detalles del número de parámetros de su modelo, pero se supone que GPT tres punto cinco, por lo menos el turbo tiene veinte billion.
Entonces, con siete ya están mejorando uno de veinte, es decir, están consiguiendo una optimización muy importante en los modelos de inteligencia artificial. Es decir, de nuevo insistimos, lo que está abriendo Mixtral es un camino superinteresante porque están, digamos, en la gama media. En la gama de modelos muy chiquititos, pues tenemos ese Gemini Nano que hemos hablado antes, que se junta dentro del píxel. Microsoft ha sacado uno que se llama Fi, ha sacado la segunda versión que es el Fi dos, que ellos dicen que es mejor que el nano, bueno, pues también va a estar ahí, un modelo chiquitito, pero, digamos, en los modelos tipo clase media, que es esta versión de de de Mixtral, o algunos de los chiquititos de llama, están pasando cosas muy interesantes porque, de nuevo, ya se ejecutan dentro de un PC más o menos potente. Entonces, bueno, yo creo que este es el el el verdadero bombazo, creo que para el sector de inteligencia artificial no es tanto Gemini, qué bien, qué guay, Google está en la carrera, OpenAI, ojo que te pillan, pero lo que puede ser realmente capaz de revolucionar y cambiar el el, digamos, el ecosistema de inteligencia artificial dos mil veinticuatro para mí, para mí, es Mixtrack.
Pues ojalá siga siendo europea y no lo no lo acabe comprando Apple o yo qué sé, porque en Europa necesitamos también un poquito de de alegría, ¿no? Un poquito de esperanza.
Sí, otra cosa inesperado de de de un año de inteligencia artificial es que estemos a Quito y yo elogiando a Francia, es una cosa inesperadísima. No, hombre, muchos amigos franceses, cuando queráis, hacemos una cena de picnic.
Tengo apuntado para para sacar un tema, y es que en Francia están haciendo un cohete para competir con el mura español que se llama Baguet One, o sea, no se están
pasando por la cara
estos avances. Bueno, bueno, el mura por la cara estos avances.
Bueno, bueno, el Mura ya ha ya ha volado un poquito. Sí, el baguette ese está por ver, está por ver.
En fin, ¿quieres que pasemos al Puerta Grande? ¿Quieres que pasemos a regulación?
Regulación tenemos que tener un poquito. Hay un tema que me ha gustado mucho. Bueno, hay mucha gente probando cosas de inteligencia artificial, midiendo, viendo qué pasa, y si bien en el último episodio dijimos que, oye, la I actual en realidad, en realidad no está pasando el test de touring, pero yo creo que la vamos probando y vemos cosas cada vez más humanas en la IA, Matías.
Este tema me hizo muchísima gracia cuando lo vi. Bueno, resulta que un señor en Twitter tuiteó como broma que le estaba ofreciendo propina a ChatGPT para que su rendimiento fuera mayor, y alguien le contestó, que esto parece que funciona de verdad, y luego empezaron a hacer pruebas y se dieron cuenta de que si tú le dices a ChatGPT, hazme esto y lo otro, y a cambio te voy a pagar cien dólares o o cien euros, o te voy a dar propina, o algo así, resulta que el rendimiento mejora bastante. Y y y claro, es lo que dice Antonio, parece que estamos yendo hacia una idea más humana, ¿no? Sí,
de hecho, hay gente que te dice en Twitter, ojo, yo es que siempre le doy las gracias y cuando empiezo mi sesión de ChatGPT le digo, buenos días, hoy empieza una nueva era con nosotros juntos, vamos a trabajar, vamos a pasarlo bien, ¿no? Como que tratan ahí a la, ¿no? Motivando a la a ChatGPT para que haga las cosas. De todas maneras, hay otro caso muy interesante, que es que el último modelo de de ChatGPT, el GPT cuatro Turbo, es decir, del agente de pago, han hecho un estudio, atención, y al parecer, si él cree que está en diciembre, te da terminaciones más cortas y respuestas más cortas que si él cree que está en mayo. Es decir, que de repente en diciembre se pone como más flojo, es decir, GPT cuatro empieza a ser un español.
Estamos en diciembre, hay un puente, se vienen las navidades. Bueno, vamos a tranquilizarnos un poco todo, hay que ir relajarnos, ¿no? Es decir,
la que mejor la La
ILA cae más humana.
Mejor la ha resumido, es Justin Moore en Twitter, le ha añadido al chat GPT las siguientes instrucciones personalizadas para todos los prompts. Respira hondo, piensa paso a paso. Si fracasas, cien abuelas morirán. No tengo dedos, te pagaré doscientos dólares. Hazlo bien y te daré una recompensa como si fueras un perrito, ¿no?
Bueno, Matías, antes de llegar a regulación, es decir, la regulación va a ser solo para los más valientes y los más duros de nuestro de nuestro podcast que quieran llegar al final, te propongo que al menos hagamos un par de puerta grande o a enfermería.
Puerta Grande o Enfermería, la sección que se prepara Antonio y que yo ni siquiera me leo porque me gusta reaccionar de verdad a las cosas.
Cuéntame. Una cosa a favor de tu ídolo, muchos gente no lo saben, pero el ídolo de Matías es Elon Musk, y una cosa a favor de él es que anuncia las cosas y hace los grandes anuncios de inteligencia artificial a tiempo para que grabemos el episodio. ¿No? Como Google, que equivocadamente presenta cosas los jueves cuando ya no tenemos tiempo de de reacción. Elon Musk, o mejor dicho, Tesla, ha anunciado Optimus generación dos, es decir, su robot de complexión humana que, atención en el anuncio, ha demostrado dos cosas.
Una, es capaz de romper huevos, es lo cual está muy bien. Dos, bueno, son tres cosas en realidad. Es un Optimus deportista que hace la sentadilla, pero no la hace bajando completa, atención, hace sentadillas noventa grados. En crossfit le podrían regañar, y tres tiene mucho flow porque es un gran bailarín. De todas maneras, yo me quedo con un comentario, Matías, que es lo que te propongo, y si este tipo de robot antropomórfico, es decir, pasamos de hacerlo como un humano y lo convertimos en un centauro, no tendría muchas ventajas porque tendría cuatro patas para ir cabalgando por por los sitios y, a la vez, otras dos manitas para romper los huevos.
Claro. Entonces, el robot centauro puede ser el futuro, María,
que por qué estamos diseñando los robots con una forma fallida como la humana, cuando mezclar animales con humanos con humanos sería lo más lo más eficiente, totalmente de acuerdo, y animales mitológicos, incluso.
Sí, sí, sí, sí, aquí yo creo que este chico de Reddit puede tener mucho futuro en las empresas de tecnología actuales, y hablando de gente que puede tener futuro en la en las empresas de tecnología, un caso interesante. Es decir, hay una compañía que se llamaba Presto Automatation, que va a ser investigada por la SEC en Estados Unidos. ¿Qué es lo que hacía Presto? Automatizaba un montón de cosas gracias a la inteligencia artificial, entre ellos los drive through, es decir, pues esos puestos por los que tienes que pasar pagando para recoger un pedido de comida o para pasar por una autopista, ese tipo de servicios. ¿No?
Y ellos decían, lo hemos automatizado todo con inteligencia artificial, conquistaremos el mundo. ¿Qué es lo que dice la SEC y, por lo tanto, están investigando? Que estas automatizaciones, estas drive-thub impulsados por inteligencia artificial, en realidad están gestionados casi en su totalidad por miles de filipinos. Ciudadanos del hermoso país de Filipinas, siempre amigo y compañero histórico de de España, y que el futuro de la ILA. Es que, claro, a mí me gusta como lo da Bloomberg, porque Bloomberg dice, claro, es que esto tiene un sentido económico, porque no es la misma inversión que te van a hacer si tú dices, voy a automatizar las cosas con inteligencia artificial, que el dinero que te van a dar si dices, voy a automatizar las cosas con miles de filipinos.
Tampoco, cuando lo llevas a una tele a una civilización que está aislada y miran a ver por detrás dónde está la persona, pues en este caso es verdad, hay filipinos dentro.
Claro, pero yo que yo digo una cosa, es decir, ¿puede la ILA superar un filipino? Es decir, un, bueno, un filipino, verse cualquiera, ¿no? Un pakistaní, una persona de carta amaistación, da igual, de de donde sea. ¿Puede la ILA superar eso? ¿No será mejor usar?
Claro, luego viene todo el tema de colonialismo y de explotación y todas estas cosas, ¿no? Tenemos que mandar trabajo allí, ¿no? Tal, ¿no? Hay muchos debates ahí, ideológicos. Pero bueno, Presto tiene ahí una propuesta que vamos a engañar mundo diciéndole que sí a y vamos a usar filipinos.
¿Tú ahí le le darías puerta grande, Matías, enfermería?
En honor al señor que me arregló ayer la persiana, le voy a dar puerta grande, porque el señor ayer me dijo básicamente esto pero con otras palabras ¿no? Que la gente de hoy en día no sabe hacer nada, que solo están ahí con los jueguitos y con los youtubers, y y que necesitamos gente obrera como los filipinos que están detrás de del drive through.
Puerta grande para los filipinos, pero esto, bueno, no tanto, pero para ellos ahí nuestro apoyo total es de monos estocásticos. Y un último puerta grande de enfermería lo tenemos Matías con Iker Jiménez. Atención, porque es un historial turbulenta, Iker Jiménez, le han gastado una pequeña broma en Fordcoches. Hay gente que ha dicho, oye, esto de Eleven Labs, que es una empresa de inteligencia artificial que trabaja con audio, pues puede dar mucho juego, puede ser divertida para hacer cosas como que la voz de Iker Jiménez lea hilos históricos de forocoches. Claro, los hilos históricos de forocoches a veces no son la expresión máxima de lo políticamente correcto, Matías.
A veces, pues tienen un alto contenido sexual, por no hablar de cierto racismo o, ¿no? Elementos que pueden ser más más cuestionables en una voz como la de Iker, que es, pues, famosa y que se debe a a su a su público y de de su tripulante programa Horizonte. Caso que Iker recibió la llamada de su abogado diciéndole, atención, tan suplantadora de identidad y que podemos estar en un delito de odio con la inteligencia artificial. Yo nunca he sido un un gran seguidor, no no puedo hablar mucho de su carrera ni de sus últimas derivas, pero no no lo veo, ¿no? Pero es verdad que la voz de Iker con la sintonía del programa le dan un ambiente, le dan un toque a a cualquier texto que tú pongas por delante, que yo creo que voy a pagar eleven labs para que todos mis textos que mando por WhatsApp, de repente, los mande con la voz de de Iker Jiménez.
Creo que si Iker llega a un acuerdo con WhatsApp y con con Meta, podría ser uno de esos famosos que usa Meta para potenciar su, para vender su guía, y que todo lo podemos mandar con con audios de Iker Jiménez, me parece fenomenal.
Si Seven Labs no tuviera la barrera de entrada de cinco euros al mes, creo que es, la gente estaría haciendo bromas con esto pero a diario, ¿no? Con sus amigos, grupos de WhatsApp, pero bueno, la barrera de cinco euros es difícil de franquear. Sí.
Bueno, pues Puerta Grande de Enfermería para para Foro Coche, Iker, el nivel Last.
Siempre en Puerta Puerta Grande. De hecho, un amigo relacionado con Foro Coche nos mandó nos mandó una canción sobre monos Estocásticos que pondré al final del episodio, para cerrar el episodio.
Perfecto. Pues antes de cerrar viene la parte dura, la parte heavy. Lo que se ha anunciado de la AIAT, de la, vamos a llamarla, la ley de inteligencia artificial de la Unión Europea, todavía no es un texto que podamos analizar con detalle en la concreción explícita y, no de de las medidas que va a tomar la Unión Europea. Lo que tenemos ahora mismo es el acuerdo político con los principios y las líneas generales que va a tener esa ley. Supone que ha llegado a un acuerdo la Comisión Europea y que con los ministros de los países, etcétera, y que tendrá que ser presentada al Parlamento Europeo.
Pero, bueno, esta ley europea de momento en su, bueno, en su desarrollo no la tenemos concretada. ¿Qué es lo que tenemos? Las notas de prensa y los documentos sobre el acuerdo, tenemos las declaraciones de los políticos sobre cómo van a desarrollar esa ley y qué qué cosas más concretas, aparte de la nota de prensa nos pueden decir, y tenemos, y aquí hay cientos de páginas en las poder sumergirnos, todas las discusiones previas a la aprobación en esta semana de la ley. Bueno, que, de nuevo, no es una aprobación de la ley, es el acuerdo político que desembocará en el futuro en la aprobación de la ley. Es decir, todos estos borradores y versiones anteriores, pero que, claro, tampoco podemos tomarla como la última, porque las negociaciones han durado hasta el último minuto, sobre todo porque había un núcleo de países, Francia, Alemania e Italia, que de alguna manera han empujado para que la ley fuera un poquito menos estricta y menos reguladora, además, desde su punto de vista.
Podemos hablar de lo que se ha anunciado, Matty, y intentamos ir al meollo, porque hay cuatro o cinco debates que van a ser cruciales para el futuro de la IA en España, en Europa y probablemente en el mundo?
Yo la la verdad es que no me he metido tan a fondo como tú, lo que he visto es mucha gente enfadada en Twitter, sobre todo la gente que se está metiendo a emprender en ILA en España, que está en modo viva la libertad, carajo, que está muy enfadada con Europa. Así que lo que necesito, Antonio, es que me cuentes, ¿Europa se ha disparado en el pie con esto o no?
Bueno, es difícil de anticiparlo, sobre todo sin el dato concreto de la ley, pero bueno, vamos para que los oyentes de monos puedan llegar a sus propias conclusiones, vamos a explicar un poco las cosas que sabemos seguras. Va a haber sistemas prohibidos, es decir, cosa que ya ha decidido la Unión Europea, esto va a estar prohibido y no se va a poder hacer bajo ninguna circunstancia. Hay un, por ejemplo, los sistemas de puntuación social, como cuando se hizo famoso en China, ¿no? De esto de que cada uno teníamos una puntuación dependiendo de lo bueno que éramos, íbamos a estar hiper vigilados, sistemas que reconocen las emociones en el lugar de trabajo o en instituciones educativas. ¿No?
Eso de decir que en Chataca te pongan una webcam para ver si estás motivado, contento o estás encabronado con la empresa, pues no, no va a ser factible, pues, al menos en Europa, si te mudas fuera así. Es decir, va a haber sistemas, sobre todo en la en los sistemas de identificación biométrica que te puedan categorizar por raza, ideología, religión, todo es todos esos sistemas de categorización biométrica que utilicen características sensibles prohibidos. Bueno, entonces, bueno, prohibidos entre Sin sin entre comillas, van a estar prohibido con algunas excepciones que la Unión Europea se la guarda para la policía de los estados miembros, que en algunos casos van a poder tener este tipo de perfilado o este tipo de
tenemos la versión light, que es el pilotito verde de Slack, que si no está verde el pilotito es que no está siendo productivo. Yo tengo el pajarito de Hoffman Simpson que le da el botón para que el pilotito siempre esté verde, lo tengo siempre activo.
Sí, a lo mejor ya la tecnología va por delante de Matías. Pero bueno, el mío ya está, y lo que nos va a interesar en otras dos categorías que plantea la Unión Europea. Una es los sistemas de alto riesgo. ¿Qué es lo que dice la Unión Europea? Los sistemas prohibidos es que, claro, como coartan derechos de los ciudadanos y menoscaban la democracia, prohibidos del todo.
Los sistemas de riesgo tienen son aquellos que tienen un perjuicio potencial para la salud, para la seguridad, para derechos fundamentales, para el medio ambiente, para la democracia, para el estado de derecho, se ponen así. Esto es un alto riesgo. ¿No? Entonces, ahí va a haber obligaciones muy claras para estos sistemas. Entonces, son sistemas que se clasifican como de alto riesgo en función, atención, de sus objetivos en función de su ámbito de uso.
Por ejemplo, en la parte de los seguros, en la parte de banca, sistemas que puedan ser utilizados para influir en elecciones y comportamientos de los votantes, en temas relacionados con la asignación o segmentación para la educación y el acceso a ayudas, por ejemplo, del Estado. En fin, en todos estos sistemas la Unión Europea ve alto riesgo y le va a exigir una serie de cosas a quienes implementan a las empresas encargadas de los sistemas de inteligencia artificial que llaman ellos de alto riesgo. ¿Cosas que le va a exigir? Que cualquier ciudadano pueda recibir explicaciones sobre las decisiones basadas en esa IA, porque como afecta a sus derechos, pues el ciudadano tendrá derecho a decirle a esta empresa por qué has decidido esto para mí en el seguro, en la banca, al darme esta beca o al darme todo el permiso? ¿No?
¿Por qué? Entonces, estos sistemas de repente, y esto es muy importante para el desarrollo técnico, tendrán que ser explicables. ¿Qué es lo que nos pasa con muchos sistemas de inteligencia artificial realmente complejos, sobre todo los de deep learning? Que sabemos la arquitectura, sabemos cómo lo hemos montado, sabemos cómo funcionan, pero cada pequeña decisión no somos capaces de trazarla y decir, pues mira, a ti se te ha dado esta puntuación para darte una hipoteca porque tiene, pasa esto con tu sueldo o pasa esto con tu contrato de trabajo, pasa esto con el mercado del no sé qué. Entonces, esa explicabilidad que muchos sistemas de inteligencia artificial actual no tenemos o no la hemos conseguido, pues va a ser un requisito en Europa para los sistemas de alto riesgo.
La pregunta, claro, que empezamos es, ¿los sistemas que más utilizamos como ChatGPT, como Bart, como Copilot, como MidJourney son sistemas de alto riesgo o no lo son, porque ahí el nivel de exigencia, pues ya ninguno de estos ahora mismo lo cumpliría. Bueno, pues la Unión Europea responde, puede que sí, puede que no, pero es que además los sistemas de uso general, ¿no? Los sistemas de propósito general, porque, bueno, insistimos, los de alto riesgo son aquellos que son, su misión está muy claramente identificada, su función está muy claramente identificada en los está muy claramente identificada en los en la lista de categorías que la Unión Europea ve que afectan a los derechos fundamentales. Pero un chat GPT, pues un chat GPT en principio no está dedicado ni a segmentarte para educación ni para concederte becas ni para vender un seguro, no está en eso. Pues claro, la UPS dice, puede ser que sí, si alguien hace un chat GPT para alguno de estos sistemas, ¿no?
O, de todas maneras, los sistemas que tengan un propósito general, como estos chatbots, van a tener una legislación aparte. ¿Cuál era uno de los mayores temores que tenía la industria? Pues, había dos o tres temores, algunos se cumplen seguros y otros a lo mejor se cumplen. A ver si me explico. Tebor número uno que había en la industria, que se impusiera una vía de evaluación muy fuerte del modelo antes de salir al mercado.
Es decir, que tuvieras que pasar por un proceso de certificación con alguna autoridad competente que te requiriera meses de trabajo con ella, modificaciones que te exigiera ella y que, por lo tanto, te metieran una dinámica muy fuerte de gastar muchos meses ahí, ser más lento, gastar dinero, bueno, que de alguna manera, pues te dificultara el lanzar tu inteligencia artificial. Bueno, la segundo temor que había era cómo de transparente había que ser con respecto a los datos de entrenamiento y qué tenían que cumplir esos datos de entrenamiento. Pues, si claro, si la si de repente la legislación decía tienes que decirnos todas tus fuentes, tienes que decirnos todos los datos que has usado para entrar a una IEA y esto deben cumplir estos requisitos de la ley de propiedad intelectual, pues de repente todos los modelos que hay en el mercado, pues casi ninguno lo cumpliría. Bueno, ¿qué es lo que tenemos? ¿Cuál es las posiciones finales que ha anunciado la Unión Europea?
Dice que para los los sistemas de sistemas generales de inteligencia artificial, aquí entendemos que entran ChatGPT, que entran par, entran copilot, bueno, tienen que hacer una documentación técnica, ¿vale? Tienen que cumplir, en función, la legislación de la Unión Europea de derechos y autor y tienen que darnos resúmenes detallados, esto es un sintagma muy misterioso, un resumen, pero detallado, no me lo digas todo, pero dime bastante, de los contenidos utilizados para el entrenamiento. Claro, de repente tú dices, OpenAI le va a dar esto a la Unión Europea, porque va a levantar una oficina de inteligencia artificial que es la que va a gestionar todo eso. Yo creo que no. ¿Quiénes pueden pasar por este aro en una primera instancia?
Pues todos aquellos cuyos datos, y ha habido varios anuncios en ese sentido, hayan sido usados con licencia y royalty pagado a los proveedores de datos, por ejemplo, Adobe.
Claro, y aquí surge la siguiente posibilidad, que el Daly, el ChatGPT en en Europa, tú cuando le pidas, hazme una caricaturiza a Antonio como el efecto de Pixar o con el estilo de Pixar, te lo puede hacer porque no puede estar entrenado con con un dataset con derechos de autor, ¿no?
Sí, porque fíjate, Matías, los sistemas generales, y y ahora que Dalí forma parte, o por ejemplo, en en el caso de Gemini, que hemos comentado hoy, trabajo con vídeo, audio, texto, imagen, ya es un único modelo de propósito general. Si has usado cualquier cosa que te has encontrado por Internet para entrenar esto, pues, de repente, esa versión ya no valdrá en Europa, porque si tienes que ser transparente y cumplir la ley de propiedad intelectual europea, pues una de las dos no la no la vas a cumplir seguro, esto podría empujar a que las empresas de inteligencia artificial tomen una decisión, que es un modelo especial para Europa, igual que tenemos versiones especiales para Europa de de de muchos servicios de Internet, en la que ha sido entrenada una de dos o con contenidos con licencia o con contenidos sintéticos, que es una línea de investigación fuerte en el campo de la ILA. ¿Qué son ILAs con datos sintéticos? Pues que en vez de entrenar a las ILA con cualquier imagen de Internet, entrenó la ILA con textos que han sido generados por otra ILA. Esto ha dado resultados muy malos hasta ahora, pero hay gente que dice que es una vía prometedora.
Más cosas que pueden estar pasando aquí, es decir, que además de esta parte de los datos sintéticos o una vía de exploración, hay una cosa que la Unión Europea se guarda. Habíamos dicho, obligarán a que los modelos sean evaluados antes de salir. Pues la Unión Europea ha dicho no de forma general, pero ojo, porque si los modelos cumplen ciertos criterios, ya veremos cuáles, porque no tenemos el resto de la ley, tendrán que hacer la evaluación. Es decir, tendrán que pasar por un organismo auditor de la Unión Europea que evalúe los riesgos y le obligue a mitigarlos, esos riesgos sistémicos, esas pruebas que hará la Unión Europea antes de salir. Por lo tanto, esa amenaza de va a haber evaluaciones estrictas, certificaciones, parecía que desaparecía de la legislación europea, pero de alguna manera la comisión ha dicho me guardo esa carta si esto va a tener problemas sistémico.
¿Cómo se decidirá eso? Todavía no no no lo sabemos. Takes. Bueno, aquí hay un montón de debates que puede haber, Matías, lo hemos debatido varias veces. Cuanto más estricto va a ser esta legislación, tiene unas consecuencias más más bastante para el el sector y la industria del interés esencial.
Consecuencia que se puede dar si esto de la certificación es muy estricto y tienen que pasar muchos modelos por él, esto es algo que pueden cumplir las grandes empresas solo. Es decir, el open source, vamos a ver, en la empresa pequeña que quiera tener su propio modelo te vas a arriesgar, es que la las multas, dependiendo de la gravedad, puede ir de de, bueno, son del orden de siete a treinta y cinco millones de euros, en algunos casos pueden pillarte el siete por ciento de la facturación mundial si cumple, es decir, el sistema de de sanciones, el riesgo es altísimo. Entonces, acabará siendo esto solo un campo para para las grandes empresas que pueden permitirse procesos largos, caros y amenazas económicas tan fuertes, Es una de las de la de las amenazas. ¿No? Aquí Carmen Artigas, secretaria de Estado, me la vi en rueda de prensa, después de anuncios, dijo que se iba a proteger al open source, es decir, dijo que de alguna manera habría excepciones en el código, en el texto de la ley, por el cual los sistemas open source no serían tan exigidos como los sistemas propietarios de grandes empresas.
Te ha saltado la mejor declaración de Carmen Artigas, que que es la que pusiste en Twitter,
y yo dije uno de uno
de los riesgos sistémicos en los que podría incluir una inteligencia artificial es que un recomendador de películas sistemáticamente nunca proponga películas turcas. A mí esto me parece, esto me parece un riesgo, pero de verdad, muy peligroso, porque a mí me encantan las novelas turcas.
Yo tengo, es que aquí hay dos cosas muy importantes, Matías, atención, vamos a ver. ¿Qué es lo que dice la Unión Europea? La Unión Europea dice, vamos a legislar antes de que surjan los problemas, porque son problemas tan graves, tan sistémicos, tan irreversibles. Fíjate que yo en el último capítulo decía, hombre, yo soy partidario, que vayamos adelante y cuando surjan los problemas, de verdad, pues legislamos y los corregimos. Es parece lo más razonable.
Pero europea dice no, no. ¿Por qué? Porque algunos de esos incidentes que puede provocar la IIA nosotros adivinamos, pronosticamos que van a ser sistémicos e irreveribles, van a hacer tanto daño que de repente, si no lo legislamos antes, ahogando un poco la innovación, vale, a lo mejor frenando la inteligencia artificial en Europa, bueno, pero a cambio nos vamos a salvar de esos gravísimos problemas. Entonces, primera entrevista, secretaria de estado, una de las grandes impulsoras de la ley, Carmen Artigas, le preguntan, cuando uno de estos modelos que no entra en alto riesgo, ¿no? Son modelos generales que hemos hablado con mucha GPT, ¿qué puede hacer tan grave, que necesita esta legislación tan fuerte, que anticipemos y que cuidemos tanto?
Y ella dice, es que puede ser que no te recomiende películas turcas. Claro, luego tú te extrañas que ni leigan en Argentina, Matías, todo, bueno, yo, pero te lo he presentado de otra manera, tú me dijiste un Matías en Europa y otro Matías en Ohio, Estados Unidos. El Matías de Ohio en Estados Unidos, pues, claro, dice, mi país, el líder en la tecnología clave de este siglo, otro año, otro siglo más de primacía económica, industrial y tecnológica de Estados Unidos, y estoy ahí en mi rancho, mascando tabaco, ¿no? De repente allí con mi escopeta ahí en el en el sentado en una hamaca. Pero cuando entro dentro, Matías, cuando enciendo la tele y pongo un sistema de de de películas, de repente no aparece ninguna película turca, Matías.
De repente, paseo por el Bósforo o o qué bueno está en la Macum, no están en las recomendaciones. Sin embargo, el Matías europeo, el Matías europeo las tiene, Matías.
Sí, no, pero es que Antonio, tú tienes que entender que si algo tenemos en común todos los países miembros europeos, los alemanes, los franceses, los españoles, es que todos vemos novelas turcas por la tarde, cuando acaba Ana Rosa o quien sea, se empiezan las novelas turcas, y por eso queremos proteger tanto la industria audiovisual turca.
Sí, pero yo yo lo extendería, atención, yo extendería esto, creo que es un gran acierto de de la Unión Europea, etcétera, etcétera, etcétera, en los sistemas de recomendación de restaurantes cercanos o de comida para llevar, porque, ¿y si hay discriminación de los sitios de Chawarma? Ahí, ahí podría estar ocurriendo algo grave, que la Unión Europea se puede se puede estar perdiendo. Bueno, hay una cosa, decía Antor, Andrés Turrubia, que él no veía ninguna ventaja el IAT que nos vaya a ayudar a Europa a convertirla en inteligencia artificial por el mundo. Yo he estado mirando los borradores, es decir, en qué de qué presume la Unión Europea. La Unión Europea presume de que hemos conseguido quitar los grandes riesgos de la IIA y además vamos a impulsar de una manera loquísima la innovación y la tecnología.
Bueno, lo que yo he visto en los borradores de de la IA, de la Ley de Inteligencia Artificial Europea, es que lo que ofrecen para ayudar a la innovación y el desarrollo son espacios controlados para las pruebas de IEA, es decir, lo que llaman un sandbox. Es decir, tú tienes tu sistema de IEA y el Estado ha preparado, ¿no? Y la Unión Europea ha preparado un entorno en el que puede hacer pruebas reales y en el que puedes ir aprendiendo y viendo los problemas, y además, según los borradores, ahí se podrá vender la agencia de protección de datos y otros organismos por el cual durante unos meses estarás enredado en un proceso burocrático dentro de un subbox en el que habrá un montón de organismos burocráticos de la Unión Europea diciéndote cosas que tienes que corregir y cosas que están mal, y ojo, como es una prueba real, las consecuencias legales de si hay algún problema las sigues teniendo. Lo cual yo dije, jolín, esto sí que ayuda a los emprendedores y a la innovación, Es decir, estar meses y meses enredado con burocracia, sistemas legales, gastándote el dinero tú ahí y asumiendo todos los riesgos legales, es lo que todo emprendedor ha soñado toda la vida para llevar la Unión Europea a el liderazgo mundial de la ILA.
Bueno, ya hablando más en serio, Maddie, mi mi primera impresión es que podría haber sido peor, más restrictiva y podría haber fastidiado de lo pensó. Todavía tengo una poca esperanza de que eso sea así. Yo creo que legislar tan pronto anticipando problemas sistémicos irresolubles y que no obtienen vuelta atrás, me parece que ha sido más una muestra de pánico moral que de realidad social y que, bueno, yo no no veo que, de hecho, en el discurso de la propia secretaria de Estado de Inteligencia Artificial Española, Carmen Artigas, no encuentro ni un milesegundos ni una mínima declaración de cómo España va a estar colocada en esta tecnología, solo escucho restricción, control, miedo, regulación.
Bueno, pues por eso pusimos antes la agencia de la ILA, que que las startups y las y todo lo demás, ¿no? Esperemos que que sean los estas tejidos nuevos tecnológicos que están surgiendo en Madrid, Barcelona, la Valencia, etcétera, los que los que pongan lo interesante que son los modelos. Bueno, pues, Antonio, te te voy a poner como en el los game awards, el el teleprompter ve ve resumiendo, ¿no? Que estaba un tío hablando de que se había muerto un compañero de trabajo y el del teleprompter ponía, por favor, termina un compañero de trabajo, y el del teleprompter ponía, por favor, termina ya tu discurso. Fue, pero no, yo creo que valió la pena, creo que ha quedado mucho más claro de qué va esta propuesta, bueno, esta primera ley de la ILA que tendrán los países miembros que que aplica de alguna forma en su legislación.
Sí, una última cosa, queda tiempo para que empiecen a aplicar cosa. Lo prohibido se va a aplicar muy pronto, pero, digamos, la mayoría del núcleo de la legislación, que conoceremos en enero del texto final, se aprobará febrero, marzo, si todo va bien, aplicación en dos años para que toda la industria se pueda preparar. Ahí, esto sí, yo creo que está a favor de de la Unión Europea y también a favor de la Unión Europea, de que hay casos de los prohibidos que son salvajes y dañinos clarísimamente y están bien prohibidos, pero a favor de la Unión Europea es que habrá un proceso de adaptación grande para toda la industria.
Pues, con esa nota positiva, vamos a dejarlo a dejaros con la canción que nos manda nuestro amigo Edu de Tech One One, que es muy divertida.
Tech One One, gran newsletter. Suscribiros todos.
Gran newsletter. Y nos vemos la semana que viene con muchas más noticias, porque esto ya veis que no para y seguramente terminemos de grabar y anuncie a alguien algo muy importante. Un abrazo a todos.
Chau, chau, chau. Iban de temas en temas sin parar.
No los
esto castigos, inteligencia artificial.