Matías es Alan Turing literal Entrenamos LoRAs en Freepik Descuentos en Founderz Vuelve el hype de la AGI... o no Ilya ha dejado de creer Entrevista a Alberto Pinedo de Microsoft Startups tróspidas de IA Puerta grande o enfermería
00:00 /1h24

Entrevistamos a Alberto Pinedo, National Technology and Security Officer en Microsoft España, sobre IA y ciberseguridad.

Además:

0:00 Matías es Alan Turing literal
6:16 Entrenamos LoRAs en Freepik
14:21 Descuentos en Founderz
16:37 Vuelve el hype de la AGI... o no
26:00 Ilya ha dejado de creer
45:43 Entrevista a Alberto Pinedo de Microsoft
1:07:04 Startups tróspidas de IA
1:15:07 Puerta grande o enfermería

Patrocinador: Qué mejor manera de aprovechar las ofertas de Black Friday que formándote en IA con los programas de Founderz, que tienen un 30% de descuento y tres meses de ChatGPT del 14 al 17 de noviembre. Aprenderás a hacer prompt engineering, desarrollar bots y asistentes virtuales, IA generativa, normativa en IA, etc. https://founderz.com/es/

El modelo Llama de Meta se incorporará en programas de defensa de Estados Unidos https://www.parentesis.media/el-modelo-llama-se-incorporara-en-programas-de-defensa-de-ee-uu/

Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com

Publicado: 14 noviembre 2024

Transcripción


Matías: Hola a todos los monos estocásticos. Si se oye algún trueno de fondo es porque estamos en pleno aviso rojo de la EMET. Anoche nos sonaron aquí en Málaga los móviles con la alerta de protección civil por primera vez, y nada, se escucha en todo el bloque. ¿Tú qué tal, Antonio?

Antonio: Pues bien, Matty, aquí viendo llover y además cruzándome con una noticia que que me me ha hecho pensar mucho en ti.

Matías: En mí.

Antonio: Sí. Porque ha habido una subasta artística en la que una obra de arte titulada A.A. Got, retrato de Alan Turing, se ha vendido por un millón de dólares. A mí me parece que alguien le han estafado, ¿no? Si esto se se supone que es que que es el primer cuadro pintado por una robotica y tal, con un proceso bastante peculiar, ¿no?

Es decir, que hay una impresora tres D envuelta. En fin, hay un lienzo ahí final que se ha vendido por un millón. El el retrato me parece muy chulo, pero lo importante, lo importante, Mati, es que de repente se ha juntado esta noticia. El auge de las criptomonedas que vuelven a estar en una estás.

Matías: Y

Antonio: y y que esté basado en en en retratos de Alan Turing y y me he acordado de cuánto paralelismo hay entre el gran querido de la informática y padre de la inteligencia artificial, el señor Turín, y Matías S punto, Fabi.

Matías: Pues sí, yo, la verdad, espero que a mí en el futuro ningún robot de estos antropomórficos cutres no me pinte un retrato, porque yo me siento mal de que alguien haya podido ganar más de un millón de dólares con una propuesta tan cutre. Además, el robot se parece a a la limpiadora de de Bea la fea, la la la versión española de Betty la fea, que al final se quitaba la peluca y era la dueña de la empresa. Bueno, ya ya te he spoileado el final de la telenovela. Pero lo de Alan Turing, Antonio, estoy viendo muchos paralelismos con mi vida, porque yo me enteré el otro día que Alan Turing, en los cuarenta, preocupado por una posible invasión alemana, tomó la decisión de enterrar dos lingotes de plata, que si ajustas a la inflación, lo que valían entonces, hoy en día valdrían cuarenta y ocho mil libras. ¿Y qué le ocurrió?

Que años después, cuando fue a buscarlos, no los encontró porque no conseguía descifrar sus propias instrucciones para recuperar los lingotes de plata. Y esto me recuerda a lo que me pasó a mí con los Bitcoins.

Antonio: Correcto. Es que esa historia en el en el podcast monocistocásticos creo que todavía no ha salido, Mati, la gente está un poco fuera de juego, porque no acaban de converger las dos historias de Alan Turing, La Robotico, Los Lingotes de Plata y Matías Zabia.

Matías: Pues mira, mi mujer tiene un primo que vive en Arabia, que le dio por las criptomonedas en una etapa muy temprana. El bitcoin creo que estaba como a seiscientos dólares, y el Doge, que ahora se ha vuelto a poner de moda, porque el gabinete que le ha dado trampa a Elon Musk también se llama Doge, ¿no? El de Partent of Eficience y no sé qué. Bueno, me hizo primero tantear a mí el terreno comprando una serie de criptomonedas y yo compré diez centavos de bitcoin que hoy en día valen unos ocho mil dólares. Entonces, ¿qué ocurrió?

Que yo le hice una captura de pantalla a la contraseña, que era una lista de palabras aleatorias, y la guardé en el escritorio, y ese escritorio, a saber dónde quedó, pero ya está más que formateado el disco duro donde estaba esa esa contraseña. Así que ahora tengo ocho mil euros inaccesibles enterrados, uno de los lingotes de plata de Alan Turing.

Antonio: Triste historia, porque además puede ser aquí una moraleja. Qué bueno sería que una inteligencia artificial espiara todo el rato tu pantalla, Mathi, para evitar estas catástrofes económicas de de de inversor incipiente, ¿verdad?

Matías: Yo ya lo he dicho, yo dejo a Google, a Microsoft, a quien quiera, les entrego en bandeja mi privacidad atada con un lacito, porque a mí estas cosas me vendrían muy bien,

Antonio: Sí, sí. Bueno, a mí me ha recordado toda esta historia y tu paralelismo con Alan Turing de que, en realidad, yo pensándolo mucho, creo que el el famoso que más se parece a mí es Rafa Nadal.

Matías: Ah, sí,

Antonio: sí, el el el mejor deportista de la historia

Matías: Homilidad comparativa.

Antonio: El ídolo de la España que madruga, Matías. Ajá. Bueno, pues, ¿en qué nos parecemos tanto Rafa Nadal y yo? Pues el otro día entrenando me fijé y me di cuenta de que tanto Rafa como yo no soportamos el sudor en la cara y tenemos como unos veinticinco tics para, en cuanto empiezas a sudar en en en el rostro, en la cara, pues tener siempre una toalla disponible y un ritual para evitar ese momento y que decline nuestro performance deportivo, Matías. Ahí lo tienes.

Matías: Bueno, a ver, yo tengo un Kia, creo que el parecido mío a Rafa Nadal es al tuyo con el sudor, pero bueno, cada uno que

Antonio: Claro, yo que estoy pensando pedirle a los Reyes una cinta de esta como de los ochenta, de que se pone así, ¿no? Deportiva, de esta, con que se pone en la frente, pero en ese momento, claro, pasaré de Rafa Nadal, que que, bueno, también la usa, ¿no? Pero me pareceré más a César Glue, que es el el que pasará la historia con con esa imagen de de de la de esa cinta en en la cabeza para frenar el sudor. Entonces, bueno, es uno de los dilemas de de qué dos caminos tirar en la vida para mí, que es mis únicas dos opciones son Oma Rafanadal o Matthesarguru, pero hay un camino que debería tomar este podcast, que es que la intro no pase de los seis minutos y empezamos a hablar de algo con un mínimo interés. Matías.

Matías: Pues mira, podemos empezar hablando de los nuevos de FreePick, porque llevo cuarenta y ocho horas jugando con ellos. Y la gente, Antonio, no se ha creído que estas fotos que he subido a Twitter sean reales. Estos somos tú y yo, enterrar CrossFit, una mañana en cualquiera.

Antonio: Claro, a lo mejor es por la iluminación y tal, la gente dice, uf, no no no me lo creo, pero es verdad que es, yo las veo bastante ajustada a esa realidad. Bueno, nuestros oyentes que no no no están visualizando el vídeo, pues, simplemente, Matías y yo entrando. Fíjate, a lo mejor la niña puede parecer más falsa porque yo levanto mancuernas mucho más pesadas, ¿no? Esas tan pequeñitas que me ha puesto esta imagen, ¿no? Pero quitando eso, pues bueno, yo creo que que bien.

Y además, por una vez yo estoy a favor de este modelo, porque uno de los pocos modelos de inteligencia artificial que cuando hago una adaptación de mis imágenes no me quita pelo. Y es un error de la ILA que me tiene un poco ahí consternado y preocupado. Pero bueno, vamos a explicar un poquito todo esto de de de las loras que lleva años disponible y que en el que mucha gente ha entrado antes que FreePick, pero que, bueno, vamos a aprovechar este este lanzamiento de nuestros vecinos porque creo que han entrado con una solución muy bien ejecutada y y y muy bien hecha, ¿no? Básicamente, ¿qué qué te ha permitido hacer, Mati?

Matías: Bueno, pues la herramienta nueva se llama Characters, En el en la suite de herramientas de IA de FreePick, ahora puedes entrenar un lora, es decir, subirle un mínimo de ocho fotos de tu cara o de la cara de un conocido, como he hecho yo con Antonio, y, a partir de ahí, generar imágenes con los modelos Flux y Mystic de FreePeak, pero con la cara de tu conocido o con tu propia cara haciendo lo que se haya llamado siempre un deep fake, que además son muy resultones, ¿no? Y pueden ser de todos los estilos, ¿no? También compartimos este que era como de estilo anime, más o menos, ¿no? Y el Antonio Científico Loco y yo Científico Loco también.

Antonio: Sí, bueno, esos colores son un poco estilo manga, anime romántico y sí juvenil, ¿no? Ya empezamos a Pero

Matías: aquí hay shippeando, ¿no? Se está shippeando Antonio Matías, ¿no?

Antonio: Sí, sí, yo creo que hay hay hay, claro, la idea está inventando una tensión sexual entre nosotros, que a lo mejor para la siguiente temporada debemos fomentarla, Matías, porque allá el decir tonterías sobre nosotros dos entrenando se está agotando y hay que entrar en una etapa un poquito más más picante para crecer en audiencia. Pero bueno, vamos a a la parte seria, es decir, todo esto de los lora es es muy interesante, básicamente, consiste en que tú ya tienes un modelo entrenado de generación de imágenes, y luego con muy poco entrenamiento y gastando muy poquitos muy poquitos recursos de de computación, pues se puede adaptar con algunos pequeños conjuntos del parámetro, algunos pequeños conjuntos parámetros del modelo, perdón, mientras que todo el resto se queda como congelado. ¿No? Como sin perder rendimiento ni ni posibilidades. Entonces, pues eso llevado a los modelos de de imágenes como Flux, que es el que está usando FreeTeak, pues consigues añadir una parte de entrenamiento, pues, pues muy fácilmente, ¿no?

Entonces, lo parte interesante es que que esto de los loras se se podría hacer y mucha gente lo hemos probado en local, con servicios online, en local con Stable Diffusion, pero creo que juntando el todas las piezas que han puesto sobre la mesa, que son los modelos Flux, que están a un nivel estupendísimo en generación de imágenes, con el Mystic, ¿no? Que es ese ese escalado que que permite desde que compraron Teamagnific, desde que compraron Magnific, correcto, pues tienes esta opción de carácter de de personajes a medida y y fíjate una cosa interesante, porque llevamos debatiendo varios años ya advirtiendo de que, claro, con la generación de imágenes fake, la gente creará imágenes fake, pero siempre pensamos en el caso de uso de otros para perjudicarlos o para engañarnos, etcétera. Pero mi sospecha que, sobre todo, vamos a querer y vamos a hacer imágenes de nosotros mismos para mostrarnos en el metaverso digital de con un capital o un estatus o algo que a lo mejor carecemos en el mundo real y de de repente, pues, tendremos nuestra capacidad de mostrarnos en cualquier lugar del mundo, con cualquier coche súper deportivo, con un capital erótico de que a lo mejor no alcanzamos en el mundo real y que esa puede ser una de las derivas y usos más frecuentes de este tipo de soluciones.

Matías: Fíjate, yo creo que este esto tiene un problema, es que a la gente le fatiga mucho cuando alguien empieza a publicar imágenes más o menos del mismo estilo, de un estilo homogéneo, generadas con Ia. Y yo, este este cartucho lo quemé ayer, publiqué tantas fotos mías y tuyas con los loras que me parece que a partir de ahora ya no puedo subir más. Pero el integrar todo esto en una suite de herramientas, que básicamente es el Photoshop hecho en Málaga, tiene una utilidad que va más allá de la gente como yo, que no sabemos hacerla o con un canuto. Yo, por ejemplo, a mi hermana le he hablado de esta otra función, los custom styles, que son los estilos personalizados, porque ella ya es ilustradora y a lo mejor lo que quiere es enseñarle a estos modelos su propio estilo para generar en segundos imágenes con, pues, su propio trazo, etcétera, etcétera. O sea, que esto, integrar todo esto en este tipo de aplicaciones creativas tiene todo el sentido del mundo.

Antonio: Claro, porque ahí tienes la consistencia del personaje, pero también la consistencia del estilo. Al final, uno de los grandes problemas de los modelos de inteligencia artificial en general, y te lo generativo de imágenes en particular, es esa aleatoriedad, esa estocástica que tienen cada uno de ellos y que, bueno, sube un peldaño la creatividad y lo que puedes encontrar y crear de una manera inesperada, pero a la hora de hacer una obra consistente, pensemos en una en un trabajo gráfico de una novela gráfica en la que un mismo personaje se mantiene, en la que quieres mantener tu propio estilo, pues, realmente, esa esas herramientas, pues, lo dificultaban, ¿no? Entonces, a la hora de trabajar de una manera artística, creativa, de una manera más consistente con con estos servicios, pues, este tipo de soluciones son son muy útiles. ¿Verdad? Que los custom styles a mí me gusta muchísimo cómo cómo lo tenía resuelto, cómo lo tiene resuelto MidJourney, que lo lo hace muy bien.

Y luego, con lo que tú dices de del Photoshop, creo que pronto tenemos que traernos al podcast a alguien de del mundo de la imagen, porque con la entrada de la inteligencia artificial generativa, está claro que todo el el el el ciclo, el workflow del del creativo se se ve alterado, ¿no? Y, de repente, quienes, de alguna manera, estaban en un peldaño de la cadena de de valor, quieren conquistar la otra y los del otro peldaño quieren conquistar la tuya. Y así tenemos casos como el de FreePick, que al final era tener recursos de imágenes, pero de repente se meten crear imágenes, en editar imágenes, pues realmente están intentando capturar algo que ellos no tenían antes. Y a la vez Photoshop puede decirte lo mismo, ya no tienes que buscarte las fotos de stock o fotos de un diseñador o, ¿no? O ese arte que antes comprabas en en un free pick, porque lo puedes generar aquí dentro.

Por lo tanto, ya realmente nosotros conquistamos otra parte de la cadena de valor en la que estaba free pick. Y entonces, en ese en ese debate yo creo que que creo que está combatiéndose y está peleándose el mundo de de la de la imagen, Matías.

Matías: Pues nada, terminan algunos negocios como los bancos de imágenes y empiezan otros, ¿no? Hubo más individualistas, pero con más oportunidades para gente que son ellos solos y nadie más.

Antonio: ¿No? Y bueno, hablando de aprovechar las oportunidades en el mundo de la inteligencia artificial, Matty, esta semana nos acompaña a alguien que puede ayudar a nuestra audiencia y a nosotros a hacerlo.

Matías: De lejos, la pregunta que más me hace la gente, los oyentes, amigos, es ¿qué cursos puedo hacer para aprender más de inteligencia artificial? Nosotros siempre vamos a recomendar los programas de founders, sobre todo ahora, porque desde que se publica este episodio, desde el catorce de noviembre hasta el diecisiete de noviembre, en founders están con un descuento del treinta por ciento por el Black Friday.

Antonio: Sí, además, esta oferta, pues incluye tres meses de chat GPT para aprovecharlo a fondo de la suscripción y y, bueno, Matthes y yo hemos hecho parte de del curso de de de founder, en la que, bueno, es verdad que yo voy más adelantado, Mathi, tú te, tú estás un poco ahí, un poco con con asuntos pendientes, pero bueno, a mí a mí la parte que me ha gustado un poco de ello es que, aparte de una formación estructurada, pues siempre tiene que clases magistrales, invitados, gente que entra en una industria en concreto, que hace un caso de uso y te lo y te lo explique por qué lo lo han hecho ellos. Entonces, bueno, wichcloud.

Matías: Pues nada, además de aprender un poco de proptain engineering, vas a poder aplicar estas

Antonio: herramientas, como el chat GPT,

Matías: que te como el chat GPT que te están regalando durante tres meses para un uso profesional y para desarrollar tu carrera, ¿no? Así que aprovecha hasta el diecisiete de noviembre este descuento que te da Founders.

Antonio: Ay, diecisiete de noviembre es la fecha límite de Founders, y dos mil veinticinco, dos mil veintiséis, dos mil veintisiete son la fecha límite de la madre de todos los hipes de la historia de la tecnología. La madre de todos los hipes de la inteligencia artificial, porque a pesar de que ya hemos dedicado un episodio a las predicciones de la inteligencia artificial general, Mathi, el sector no para. Ha sido, llevamos unos cinco días polarizados, divididos, con visiones enfrentadas, pero no ya sobre la prospectiva de futuro, sino sobre lo que está pasando ya con los modelos de inteligencia artificial que tenemos en las manos, Patricia.

Matías: Fíjate, nos invitaron a Pamplona, a la Cámara de Comercio de Navarra a hablar sobre AGI, sobre inteligencia artificial general, es decir, la inteligencia artificial que iguala a nivel cognitivo a los humanos, y parece que manejaban información interna porque desde que nos invitaron a este evento no se ha hablado de otra cosa en el sector que de la AGI, hasta Osa Malman, ha estado Darío Modell, están todos los grandes ahí actores de la AGI hablando de AGI, ¿no? Y de cuándo va a llegar.

Antonio: Sí, muy bien tirado por la Cámara de Comercio de Navarra, que que nos estaremos por allí el veintisiete de noviembre. Si lo buscáis en la web, pues, pues, podéis apuntaros todos nuestros amigos pamplónicas y de alrededores y, bueno, ahí hablaremos de la AGI, pero ya hay alguien que está hablando mucho más del AGI que nosotros, que es nuestro amigo Sam Allman. Sam, que no para de de gpear el el sector, ha dado una nueva entrevista en un en YouTube, un nuevo podcast que ha que ha grabado, y ha dicho cosas muy interesantes que además las dice con cierta con cierto toque enigmático, sin acabar de rematarlas y sin acabar de de de concretar explícitamente. Recordemos, la última previsión de nuestro amigo Sam era que la inteligencia artificial general, esa de nivel humano, esa que podría desarrollarse profesionalmente en una pleya de de de tareas y no estar constreñida a un solo aspecto de la comunicación o de o de la de la labor intelectual, llegaría en miles de días. Fue el último post que escribió el CEO de OpenEye, pero en esta entrevista le preguntan, ¿qué te cita de dos mil veinticinco, Sam?

Y el amigo dice lo siguiente, la inteligencia artificial general, estoy excitado, estoy emocionado con eso, y lo hice, ¿y con qué voy a tener un hijo? Claro, es distinto porque todo el mundo está titulando, Sanar me dice que la AGI llega en dos mil veinticinco, pero bueno, él es un poco ladino, ¿no? Es un poco cuco y dice, oye, no, no, no, yo estoy emocionado que con la AGI en dos mil veinticinco, pero no es exactamente igual que decir que va a llegar. En todo caso, es un tío que tira muy bien el anzuelo, que sabe muy bien que esto va a ser el titular y que va a estar en todos los debates. Así que bueno, dice muchas más cosas, pero pero ese es el ese es el punto de partida de un nuevo ciclo del hype en El Salvador de la IGA, Mathey.

Matías: Bueno, ahora ya sabemos por qué piensa en la AGI en términos de días y no de años. Pues eso, porque ya tiene el mute padre de pensar en a ver cuántos meses tiene mi hijo. Así que nada, buenas nuevas para para Cham Altman personalmente, y también internamente para para OpenAI, porque aunque no haya dicho específicamente que la AGI llega en dos mil veinticinco, hay optimismo dentro de OpenAI sobre que no estamos tan lejos.

Antonio: Sí, claro, él en la entrevista dice que ellos ven claro que saben lo que tienen que hacer, Que da mucho trabajo para el AGI, blablablá, hay algunas incógnitas todavía, pero básicamente sabemos lo que hay que hacer y que trabajando duro y llevando un tiempo, tendremos la emoción de que de que de que vamos a llegar al AGI. Recordemos que la empresa de Altman tenía un un roadmap, tenía un un itinerario por el cual se iba a llegar, lo hemos discutido varias veces en el podcast. Primero, los chavos que dominan el lenguaje, la siguiente, el siguiente paso era que la IA pudiera razonar, y ahí se creen haberlo conseguido con el modelo O uno. Luego estaría la parte de los agentes inteligentes, que también le hemos dedicado a un capítulo completo en mono histopático, pero bueno, la la IA es capaz de de hacer planes planes en varios pasos y es capaz de ejecutar. Luego, la IA es inventora.

Ahí tenemos que discutir un poco muy bien a qué hablamos cuando decimos que la ILA es inventora, y el último nivel es que la ILA tiene esa capacidad de tener una inteligencia general para un conjunto de, para todo el conjunto de labores intelectuales y del nivel de de de un ser humano.

Matías: A mí la inventora ya me emociona, porque yo llevo esperando desde Regreso al futuro el patinete este que vuela y los coches voladores, y en una en un en otro segmento de de la entrevista se habla de un hackathon en el que un concursante consiguió mejorar el perfil aerodinámico de algo que no volaba a algo con suficiente sustentación para volar, entonces, a mí la IA inventora es una cosa que me emociona particularmente.

Antonio: Sí, sí, sí, sí, hombre, ahí están, bueno, es que, claro, podéis inventar también la la las cápsulas de Acme, de de Bola de Dragón, hay un montón de cosas que la gente de mi generación está esperando y no no ha sucedido, bueno, confiaremos en en OpenEye, pero no es el único hypeador, Mathee, en el mundo de la ILA. Darío Modey ha dado una entrevista cinco horas en lo del Netflix, madre mía.

Matías: Sí. Me la puse para ir al crossfit, me la puse para volver al crossfit, me la puse para

Antonio: antes

Matías: de dormir, y creo que llevo, no sé, un veinte por ciento de la entrevista. Yo no sé cómo esta gente, aparte de dirigir una empresa que está en boca de todos, tiene tiempo para ir a grabar un podcast de cinco horas y media.

Antonio: A lo mejor es que han conseguido la ágil internamente y tienen ya a la a la inteligencia artificial ahí trabajando, y dices, bueno, me puedo dedicar a, claro, ¿a qué dedicaremos el tiempo cuando haya esa abundancia de superinteligencia? Pues iremos a a grabar podcast, es bastante obvio, ¿no? Bueno, el caso es que Darío es muy optimista. Él dice que si extrapolas las curvas que tenemos hasta ahora, ese alcanzar el nivel de un alumno de primaria, ese alcanzar ese nivel de un chaval de instituto, es alcanzar que nos estamos acercando, bueno, Open Eye, más que antropito, hay que decirlo, al nivel de un doctorado. Por lo tanto, si tú extrapolas la curva, pues está claro, dice Darío, que vamos a llegar a una inteligencia artificial general, incluso a una superinteligencia.

Claro, el el problema de extrapolar las curvas es que al comienzo de una curva tú puedes pensar que esta curva es exponencial y que va a seguir creciendo para siempre, pero conforme pasa el tiempo, pueden aparecer las anécdotas y puede parar ese crecimiento. Esto lo lo explicaba muy bien siempre Bertrand Russell de de las extrapolaciones, que hay que tener con cuidado, porque él decía que el pavo que está criando una familia americana, un poco la referencia cultural, cada día, pues ve que vienen y le alimentan y le cuidan y le curan y lo mantienen caliente y lo mantienen protegidos. Entonces, el pavo pasa un día, una semana, un mes y cada vez ve que lo tratan mejor y que va engordando y que va todo estupendo. Entonces, las predicciones del pavo cada día cuando amanece es que va a ser un día fantástico porque se basa en todo lo anterior, pero llega el día de acción de gracias, llega el que los ha alimentado, le raja el cuello, lo mata, lo despluma, lo mete en un horno y se lo comen. Entonces, las predicciones basadas en vamos a extrapolar a partir de lo que ha pasado antes, bueno, epistemológicamente, pues tienen alguna dificultad, porque el modelo que que lo sustenta no puede, puede ser algo que no, que no sea exactamente, ¿no?

Lo que pasa

Matías: es que el tío el tío este que tuiteó hace poco, mi hijo ha engordado cinco kilos en tanto tiempo, extrapolando cuando tenga no sé cuántos años pesará doscientos veintinueve toneladas, no sé qué,

Antonio: bueno, pues,

Matías: más o menos lo

Antonio: Un poco menos eres ybaiyano, si has entrado en un proceso de de mejora física.

Matías: Pues del de escalar los modelos y y de este crecimiento no lineal, vamos a tener que hablar largo y tendido, porque una cosa que sí escuché de la entrevista es cuando habla de los datos disponibles para el entrenamiento. El miedo de estas empresas ahora mismo es quedarse sin datos, porque ya han escaneado todo Internet. En Internet hay mucho contenido basura, decía, daba, Amadei, daba como ejemplo, hay mucho contenido optimizado para Google, no sé de qué hablas, Amadei, yo no he visto nada de eso en Internet, y y hay mucho contenido de baja calidad, ¿no? Entonces, el miedo principal que tienen para no alcanzar esa AGI en los tiempos previstos, que en el caso de Daria Amadei es dos mil veintiséis, dos mil veintiséis, es dos mil veintiséis, dos mil veintisiete, también está aquí, es quedarse sin datos o, a nivel hardware, no tener, pues tanta capacidad como necesitaría el entrenamiento de estos modelos.

Antonio: Claro. Lo punto importante lo lo has dicho tú. Él él dice, vamos a conseguir dos mil veintiséis veintisiete si no ocurre algo inesperado, como quedarse en el de datos o no poder montar las suficientes centros de procesamiento, centros de datos que, bueno, también nos repetimos un poco porque es el gran parte del debate del del otro día del del episodio anterior, y él dice que los modelos no han tocado techo. Entonces, esto es una parte importante del debate. Él dice, si miramos algún benchmark, como el SW Bench, es un benchmark que mide de tarea ingeniería de de desarrollo software, dice que Sony tres punto cinco, su el último modelo de Anthropi suyo, saca un cuarenta y nueve por ciento de resolución de esas tareas cuando a principios de año estaban en el cinco por ciento más o menos.

¿No? Entonces, claro, a partir de este argumento, él dice, mirá, dos mil veinticuatro no es verdad que hayamos tocado Tech, seguimos evolucionando y y no habrá razones por las que esto se vaya a parar. Pero mientras tenemos toda esta máquina del hype, mientras tenemos todas estas expectativas positivas, la inteligencia artificial general va a llegar, de repente ha habido dos mazazos en el sector bastante fuertes, bastante duros, y uno viene, voy a adelantarlo, Matty, viene de uno de los referentes del Deep Learning, uno de los tótems y personajes más importantes del sector de inteligencia artificial y del podcast monos estocrático, por consiguiente, que es el amigo Ilya Schuskevern.

Matías: Pues nada, el espejo en el que me miro, no a nivel de inteligencia, pero sí a nivel de alopecia incipiente, ha cambiado de opinión. Creo que fue el episodio anterior en el que mencioné esa mítica entrevista de Iria Suffebber, en la que explicaba cómo, con más datos, ¿no? Para el entrenamiento de los modelos, con algo que se acercara un poco a un modelo del mundo que nos rodea, gracias a el lenguaje podemos conseguir una inteligencia similar a la de los humanos, pues ahora no lo ve tan claro, Iriaz Unoquever, que que ya le han dado los miles de millones de dólares y y ahora el tío se echa para atrás y recoge cable.

Antonio: Claro, es que ese ese es el punto. Probablemente la persona clave científicamente a la hora de que todo este mundo de la degenerativa emergiera y llegara a los niveles que ha llegado, nuestro amigo Ilia, de repente se se está dando cuenta de que su tesis fuerte no llega a mucho más allá de lo que ha llegado hasta ahora. ¿Cuál es su tesis? Pues que en la fase de pre entrenamiento, es decir, esa fase es la que vamos a crear el modelo de inteligencia artificial y le echamos miles y miles y miles de textos para que él juegue a ese juego de aprender el lenguaje, que es el juego de autocompletar, ¿no? Intentar acabar la frase y en ese proceso de aprendizaje de de reforzarlo cuando acierta y de reajustar cuando falla, ese modelo de de pre entrenamiento ha ido consiguiendo que con más escala los modelos mejoren su rendimiento.

Es decir, con más datos y más GPUs y más procesamiento, siempre teníamos mejor rendimiento. Si, como daríamos de ahí, extrapolamos, la idea sería, oye, pues si en vez de con estos datos, si esta instancia GPU, lo doblamos o lo triplicamos o lo multiplicamos por diez, pues tendremos modelos mucho más inteligentes. ¿Qué es lo que se está dando cuenta ahora Ilia, y que en el reportaje de reuters con más con más científicos y más gente del mundo de la inteligencia artificial, pues, plantean, es que estas mejoras ya empieza a mostrar límites y rendimiento decrecientes. Es decir, las mejoras sobre los modelos de inteligencia artificial, prácticamente a partir de GPT cuatro, son marginales. Entonces, ¿qué es lo que dice Ilia?

Dedicar mucho más recursos, es decir, más escalar ese entrenamiento de de los modelos, ya no nos va a dar muchos mejores resultados. The information había salido también esta misma semana con una noticia filtrándola desde OpenAI, quería tener fuentes dentro de la compañía, que el nuevo modelo Orion no iba a ser tan bueno. Es decir, este proyecto que iba a ser, bueno, algunos decían que podía ser GPT cinco, otros que iba a ser una cosa alternativa separada, que igual que los O uno, pero lo importante de la de la del mensaje de information es que decía, lo que están viendo en OpenEye es que la mejora con respecto a GPT cuatro va a ser bastante inferior de la que supuso GPT cuatro con respecto a GPT tres. Es decir, seguimos mejorando, pero cada vez los rendimientos son marginales y estamos sumando un montón de GPUs, un montón de datos más, es decir, un montón de costes más para mejoras que cada vez son más pequeñas. Por lo tanto, esa temida frase o esa temida momento de el deep learning está llegando a su límite, como diría el pesado de Gary Mercus, está pegándose con un muro, puede ser, según todo este sector, puede ser cierto, Matías.

Matías: Pues, esto es un mazazo en realidad para la imagen de OpenAI, porque OpenAI desde siempre ha vivido un poco del hype de qué es lo siguiente, GPT cinco lleva en las quinielas de que va a ser una cosa espectacular, un estallido brutal, bastante tiempo. En lugar de GPT cinco, sacaron los modelos O uno, pero no nos han dado un modelo más grande. Y ahora con Orión, que esperábamos también una revolución, lo están entrenando ya y están viendo que tampoco es para tirar cohetes, pues se muere un poco el hype de OpenAI.

Antonio: Sí, y además hay dos cosas, una es científico técnica y la otra es económica. La científico técnica, el límite del escalado en el entrenamiento y estos rendimientos decrecientes, si se cumplen, si son verdad, van a desmentir una de las hipótesis de de la emergencia de la AGI, que básicamente decía que esa cualidad de la inteligencia emergería de la cantidad. Es una gente que además quien quienes parten de este un poco de esta premisa o de esta hipótesis, muchas veces parten de la propia naturaleza humana. Dicen, ¿qué diferencia un chimpancé de un ser humano? ¿Por qué en en nosotros aparece y emerge de nuestro sistema nervioso una inteligencia de nuestro nivel y por qué en el chimbaceno.

Y, básicamente, parte de la tesis es que es una cuestión de cantidad, de tamaño del cerebro, de cantidad de neuronas y de cantidad de conexión entre la neurona. Artificialmente, podría darse el mismo caso, es decir, que fenómenos como la inteligencia son necesariamente emergentes de un sistema complejo, interconectado y que, por lo tanto, sumando más cantidad aparecería esa inteligencia a nivel humano. Era una de las hipótesis de los emergentistas que decían que no podemos diseñar de arriba a abajo la inteligencia, sino que es un proceso de este de esta carta de naturaleza. Y luego, económicamente, OpenAI ha pedido perras y conseguido perras bajo la tesis de que si echamos más GPUs aquí a a la cosa, pues aparecerá la inteligencia artificial porque era cuestión de echar GPUs. Entonces, si no se cumple esa tesis, y ahora vemos cuál es la tesis alternativa que se puede estar trabajando, pues los fundamentos económicos de toda la gran inversión de este dos mil veinticuatro en inteligencia artificial, pues se vería también desmentida.

En definitiva, hay dos científicos que yo siempre sigo con mucha atención, Jean Lecoun y Cholet, los la guía a Francesada, Matías, que ambos vienen diciendo durante los últimos años, y aquí lo hemos contado, que solo con Deep Learning no se va a conseguir, que hay que hacer un avance científico, no solo ya ingeniería, no solo técnico, no solo de diseñar, ejecutar mejor el deep learning, sino que haría falta algo más para que tuviéramos una inteligencia del nivel humano. Ninguno de los dos niega que se pueda llegar, pero dicen que que con que con el de learning no se da, y además, Schollet dice algo importante, dice, la disponibilidad de datos es el verdadero cuello de botella ahora mismo, es la IEA. Fíjate, no sé si es porque los franceses siempre les gusta llevar la la

Matías: contraria al resto de la gente, pero no es la primera vez que decimos, al final el que tenía razón era Jean L'Coun, ¿no? Jean L'Coun, que se ha vuelto completamente tarumba con esta victoria electoral de Trump y de y de Elon, pues vale la pena recoger todas esas declaraciones que vamos comentando en monos estocásticos, porque llega un momento en el que salen a la palestra, ¿no?

Antonio: Sí, mira, mira que nos puede dar, nos puede costar darle la razón a un francés, ¿no? Esa es una cosa que a veces en la vida cuesta, ¿no? Y cuando te llega ese momento en la vida que nunca esperabas. Pero, bueno, es posible, es posible, ya sabéis que aquí somos escépticos y naturales con todas las posiciones y yo, bueno, yo personalmente en el fondo soy soy escéptico con todas las teorías emergentistas y todo todas teorías que dicen que la inteligencia artificial a nivel uno se puede conseguir con estas inferencias inductivas de los modelos de de de learning.

Matías: Fíjate que yo esto realmente ya lo sabía, porque una vez me hicieron, de hecho, lo lo pagué a trescientos cincuenta euros, una serie de test cognitivos para ver si tenía altas capacidades, y me salió que soy retrasado en todo, menos en el lenguaje, para lo cual tengo un talento natural.

Antonio: Claro.

Matías: Y a pesar de tener un talento natural en el lenguaje, soy cada vez más pobre. Entonces, eso me lleva a pensar que un modelo de lenguaje no puede dominar el mundo, porque si no, yo también lo haría.

Antonio: Bueno, es que, claro, aquí ya os doblo nada, es decir, o o los modelos de lenguaje es el camino para llegar a la inteligencia artificial general y todas las empresas de IA triunfan y tú también, Mati, vas ese paquete, o se rompe el hype, se estalla la burbuja, se arruinan todo y tú tienes que desesperadamente buscar ese pantallazo para poder sobrevivir y recuperar tu bitcoin. Esos son los son los dos caminos que tenemos delante, no hay otra alternativa. Bueno, hay una alternativa en el mundo de la ILA que es la gente que defiende que estas leyes del escalado, las que promulgó Ilesuscriver, esas en las que se sustenta el desarrollo de OpenAI y su visión, igual que la de Darío Mode y de Anthropic, de que vamos a dejar el ejercicio artificial en general. Bueno, gente que defiende que eso del escalado no se acaba, no se no se ha terminado, sino que quizás se ha modificado. Veréis, este verano, Kevin Scott, que es el c t o de Microsoft, es un tío potente en la en la industria, dice que él no ve este estos rendimientos marginalmente decreciente, sino que las leyes de cloud se mantienen, la mejora va a seguir siendo exponencial y que no lo estamos viendo, es decir, no ha salido algo superespectacular mejor que GPT cuatro, porque somos unos que hagaprisas, Mati.

Somos gente impaciente, queremos en cada capítulo contar ahí la última supernovedad, y estas cosas llevan tiempo porque hay que fabricar los los, ¿no? Montar los datacender, echarle ahí de comer la, ¿no? A ver que hay nuevo en la Wikipedia, etcétera. Y entonces, paciencia, porque él predice que que toda esta visión adolece de de de este componente un poco más coyuntural y que no es, digamos, el momento en todo que estamos iliosusculares. Es verdad que lo que dice Scott era de este verano y esto es como lejísimo, ¿no?

Como, bueno, en verano todo el mundo, ¿no? Los chicos se enamoran, ya sabes, ¿no? Y y claro, Kevin Scott, pues, cree en el escalado, son las dos cosas.

Matías: También te digo que hablar de que somos unos cagaprisas cuando Microsoft ha sido la empresa que antes ha implementado en todos sus software la inteligencia artificial, pues igual no no es tan así, sino que a todo el mundo está hypeado y subido al tren, ¿no?

Antonio: Sí. De hecho, los empleados de OpenEye, que tengo súper fichados en Twitter, bueno, en la red social antes conocida como Twitter, han salido a defender la rajada de Sam. Es decir, esta este, Agi va a llegar, dos mil veinticinco, qué emoción, blablablá. Claro, es decir, hay uno, dice, mira, he oído decir que Shanga es una máquina del hype, pero todo lo que dice coincide con la opinión general de los investigadores de OpenAI. Bueno, vamos a ver.

Claro, es que la gente de OpenAI es un público autoseleccionado. Si recordamos aquel episodio sobre OpenAI es un culto, es decir, es una empresa que tiene ese carácter mesiánico, ¿no? Ese punto de nosotros vamos a salvar el mundo con con la inteligencia artificial, es un público seleccionado porque uno de los requisitos para entrar en OpenAI era creer que se podía conseguir la inteligencia artificial general. Por lo tanto, somos gente muy predispuesta a a quiero creer, ¿no? Como como como malder de expediente x, ¿no?

Matías: Eso es como cuando haces una encuesta electoral en un cuartel, pues de la Guardia Civil o de lo que sea, ya sabemos lo que va a salir, ¿no? Pues si lo haces en OpenAI sobre la AGI, pues está claro lo que va a salir.

Antonio: Sí, es público autoseleccionado, ¿no? Es el el el problemita de de partir de eso, ¿no? Entonces, bueno, he cogido varias declaraciones de de de gente de opening y guion, ¿no? De gente que dice que no, no, no, yo hablo con científicos de los laboratorios y ningún investigador dice que Avances haya parado, etcétera. Pero lo más interesante es la gente que plantea una alternativa.

Dice, las leyes de escala se siguen cumpliendo, pero no tanto en la frase de pre entrenamiento, se llama pre entrenamiento porque luego viene el fine tuneo y viene el el aprendizaje con refuerzo con feedback, en fin, hay más fases después. Pero el pre entrenamiento realmente es la fase gordaca de entrenar un modelo de inteligencia artificial. ¿No? Dice aquí el agente de OpenEye. Las leyes de escala del pre entrenamiento puede ser que estén tocando techo.

Es decir, esto de el modelo lo más grande posible. ¿No? Esa esa parte de la escala puede haber dudas. ¿No? ¿No?

Pero hay otra parte de la escala en la que vemos unas mejoras que para nada están tocando techo, que son la escala en en el momento de inferencia. Es decir, lo que dice la gente de OpenI O uno nos demuestra una cosa, que si al modelo le damos más tiempo en el momento de ejecución, es decir, cuando le estamos preguntando algo, ese O uno que se tira un rato pensando, que tarda muchos segundos, es decir, que está realmente usando muchos recursos de computación, ahí las mejoras de rendimiento son muy altas. Por lo tanto, si le damos cinco segundos a uno, nos dará una solución de un carácter bueno, aceptable, si le damos un minuto, pues eso se nos dará una explicación que nos explotará la cabeza, o sea, una solución magnífica y estupenda. Entonces, esto también es una ley de escala, es decir, cuanto más GPU pongamos en el momento de ejecución, mejores rendimientos de la inteligencia artificial. Por lo tanto, la escala no es que haya terminado, es que ha pasado de la fase de entrenamiento de darnos mucho valor ahí a que tenemos que emplearla la escala en el tiempo de ejecución.

Matías: Yo estoy del lado del hype, Antonio, porque es lo que conviene a nivel podcast. Yo yo creo que la AGI está ahí, está el año que viene, y fíjate, este señor que se ha unido hace poco a OpenAI, desde que me incorporé en enero he pasado de pensar, esto es un hype exagerado a la Ajilla está aquí, está básicamente aquí la tenemos. Entonces, yo me voy a quedar con este pensamiento porque a nivel monosestocásticos, nosotros lo que queremos es que esto escale imparablemente.

Antonio: Sí, además, es muy espíritu monodestocástico, porque fíjate, mi unidad Open AI, pensando que es un hype improductivo. Es decir, ¿cómo mentiría este pollo en la entrevista de trabajo? Bueno, sí, bueno, pero el ticket restaurant, ¿qué no? Y dice, bueno, dice, mira, hay hay ticket restaurant, aquí se da, esta de Navidad, las cosas importantes, ¿no? Pero bueno, entonces Ficho, esto será un jepping productivo, pero bueno, me va a pagar la factura que San Francisco está muy caro.

Y claro, y luego el pollo dice, no, no, no, una vez que me metí ya, pues dije, esto esto es esto es la caña de España, ¿no? Entonces, bueno, ya se ya se quedó, ¿no? Entonces, bueno, yo creo que podemos mantener las las dos patas, Paty, tú vas a ser el hombre de la esperanza, del del hype en la AGI, tienes hasta dos mil veintisiete, y hoy si en dos mil veintisiete no se ha conseguido ahí, habrá que habrá que hablarlo con seriedad. Y yo, bueno, yo te voy a proponer que de vez en cuando saquemos temas del Metaverso, Vamos a hablar de la web tres, porque bueno, ahora la web tres, ahora vuelve, ahora vuelve los los crisos, ya puedes ponerte otra vez los ojitos azules, en Twitter, si quieres. Ya vale.

En fin. Azul. Ay, ¿era azul o en? Es verdad, era en rojo. Me dice, cada vez que no se me da, no se me da bien, Matte.

Esto hay que enseñarlo mejor, esto hay que estudiarlo un poquito. Y mira, Matte, ya sé que vamos super agobiados de tiempo y por eso solo voy a dejar el anzuelo. Tenemos que hablar de la inteligencia artificial en el sector armamentístico, porque están cambiando un montón las cosas, hay un montón de propuestas y yo te traigo una que que he visto de las noticias en paréntesis media. Ya sabéis, amigas y amigos de monos, es un medio partner, un medio amigo de monos estocápticos que tiene la web, tiene newsletter y está presente en redes sociales contándonos siempre la actualidad de inteligencia artificial. Bueno, el caso que es muy interesante lo que cuentan, porque Meta ha cambiado la licencia y ha cambiado cómo propone qué se puede hacer con su modelo JAMA, y ha pasado de no permitir el uso en nada relacionado con las armas y el ejército a que se incorpora a los programas de defensa de Estados Unidos.

Y esto no solo es interesante, porque es una noticia de que vamos a tener mucha IA en el en el mundo de las armas, vamos a tener a Meta y a otras tecnológicas, como veremos, involucradas ahí, sino que hay una cosa importante, que los modelos Meta son open source y ya ha habido la primera filtración, creo que muy interesada desde China, de decir, vamos a usar también nosotros JAMA para también integrarlo en nuestro ejército y que esto va a ser una de las armas, nunca mejor dicho, que se va a usar contra los modelos open source.

Matías: Tengo que seguir más este tema porque ahora con la la nueva era Trump en Europa nos interesa especialmente. ¿No? Y por lo menos que que le pongamos a la cabra de la legión, que que sea una cabra ciborg.

Antonio: Y mira, te voy a proponer una cosa, Matías. Fíjate, con la con con lo que hemos hablado al principio de la generación de imágenes, yo me he acordado mucho de de que estábamos pensando siempre o en la unión pública hay mucho pensamiento de los usos siempre perjudiciales, negativos de la de la inteligencia artificial y y creo que tenemos que pensar más en el uso beneficioso, ¿no? ¿No? En la parte de que, oye, es verdad, se puede hacer un delay de alguien, pero a la vez nosotros podemos poner fotos de nosotros mazaos, ¿no? A partir del gimnasio, lo cual es algo muy positivo, ¿no?

Entonces, llevado a otros terrenos, siempre estamos un un poco con la IA usada por los malos en ciberseguridad. Y hoy podemos traer a una persona que nos hable, yo creo que desde el otro lado, por fin traemos a un experto que en un área que no dominamos tanto, que es el uso beneficioso de la IEA en seguridad y ciberseguridad, Matías. Y es que esta semana, Maddie, tenemos tenemos un mono gestocástico especial, porque si bien no es uno de estos capítulos que tú y yo hacemos a veces en los que traemos un invitado y nos explayamos y estamos hora y media con él, pero sí traemos a un especialista, a un verdadero experto con el que vamos a compartir un espacio de tiempo para tratar uno de los temas de inteligencia artificial que a lo mejor más se nos han escapado en el podcast, Matty, ese es nosotros que tenemos con nosotros a Alberto Pinedo, que no es nada más ni nada menos que el National Technology and Security Officer en Microsoft España. Muchas gracias, Alberto, por estar con nosotros.

Muchas gracias a vosotros por la invitación.

Matías: Bueno, pues siempre que viene alguien con un título, con un puesto así en inglés, impone bastante. Pero claro, esto de National Technology and Security Officer nos da pie a preguntarte cositas de inteligencia artificial, pero también relacionadas con la ciberseguridad, que también tiene mucho que ver y que está avanzando mucho con la inteligencia artificial. Entonces, ¿vosotros pronunciáis Microsoft o Microsoft? Porque esta es una duda que hemos estocástico siempre hemos tenido.

Yo os juro decir Microsoft,

Antonio: no Microsoft. Microsoft.

Pero, bueno, siempre se escapa. Ya sabéis que nosotros somos muy castizos. Entonces, todo lo castellanizamos, ¿no? De alguna manera. Pero bueno, procuro decir Microsoft, ¿sí?

Matías: Muy bien. Pues, como decía, vamos a empezar con la ciberseguridad, porque Microsoft es una de estas empresas que lleva años hablando de todas las promesas de la inteligencia artificial, por lo menos, desde dos mil diecinueve ha sido el foco de de Microsoft, y curiosamente, no solo hablando de las ventajas, sino también de los peligros, ¿no? Que siempre en paralelo a hablar de las promesas de la IA se ha hablado de los peligros, especialmente en temas de ciberseguridad. Y en temas de ciberseguridad se pone, sobre todo, el énfasis en en los malos, ¿no? A ver si a ver si los malos, los ciberdelincuentes, aprovechan las ventajas que da la IA para atacar, ¿no?

Pero Microsoft, me imagino, que también está aprovechando la IA para lo contrario, para su propia seguridad, ¿no? ¿Qué está haciendo concretamente Microsoft y quién está ganando esta partida?

Sí, hay hay hay un Los malos siempre se irán malos y y utilizarán todas las herramientas que tengan a su alcance para para hacer sus cosas, ¿no? A ver, desde Microsoft hay muchas líneas de trabajo en ese en ese aspecto, ¿no? Yo creo que la principal y la más importante es que, y esto viene un poco de lo histórico, ¿no? Cuando nos hemos visto amenazados o cuando hemos visto amenazas hacia nuestros clientes, lo que siempre buscamos es la manera de intentar mitigar esos riesgos, ¿no? La inteligencia artificial es una herramienta más, una herramienta más que poco a poco se ha ido incorporando a los servicios que que tiene Microsoft o que proporciona Microsoft, en este caso, a nuestros clientes, ¿no?

¿Y cómo lo hacemos? Bueno, pues hay servicios, digamos, que que históricamente, pues ya vendíamos a nuestros clientes, servicios, pues, como como Sentinum, que es un un cien, ¿no? O servicios que que desplegamos en los endpoints, en los dispositivos para proteger el dispositivo del usuario o la identidad, o las herramientas de productividad, que lo que estamos haciendo es alimentarlas, ¿no? Con esas herramientas de inteligencia artificial. Es decir, que de alguna manera estamos utilizando la misma herramienta, pero para proteger al cliente, ¿vale?

E incluso también para protegernos a nosotros mismos, ¿no? Este último año hemos anunciado además una herramienta que que se llama Security Copilot, ¿vale? Que es una herramienta que incorpora la inteligencia artificial para hacer análisis masivos de señales y datos que son recopilados por todas esas herramientas que nuestros clientes despliegan, ¿no? En los dispositivos, para gestionar la identidad, para controlar, sobre todo, pues, si un si una persona está, por ejemplo, accediendo a un documento marcado como confidencial, pues, que no copie un trozo de ese texto, ¿no? Y lo ponga en una herramienta de consumo, como puede ser, pues, una herramienta de degenerativa, ¿no?

Que no tiene protección ninguna, ¿no? ¿No? Ese tipo de herramientas al final y esas señales nos permiten también, si se produjera, pues, un evento de seguridad, nadie lo quiere, ¿no? Pero si si por un casual, pues, se produjera también hacer ese call hunting, no esa investigación posterior para resolver el problema que haya podido ocasionar y, sobre todo, para identificar cuál es el origen de ese de ese vector de ataque, ¿no? En definitiva, estas herramientas, Security Copylot, además, incorporando toda esa IA, te permiten analizar millones de datos, cosa que, tuviese que hacer una persona física o un equipo de personas, ¿no?

Les llevaría muchísimo tiempo. Entonces, digamos que lo que hacemos es buscar la forma de utilizar la inteligencia artificial para aquellas tareas que los humanos no somos muy eficientes, ¿no? Que o bien nos llevan mucho tiempo, o bien nos cuesta más establecer relaciones de causalidad, o simplemente plantear hipótesis para que luego un equipo, a lo mejor más especialista de personas, terminen investigando y averiguando si efectivamente pues eso es un ataque o es un falso positivo. Sí, pero es un poco, digamos, hemos ido incorporando poquito a poco la inteligencia artificial en esas herramientas de seguridad. Y he de decir que es hoy por hoy, en este caso, Microsoft Security Copilot es la única herramienta además de estas características de ciberseguridad potenciada por inteligencia artificial, que es conforme al esquema nacional de seguridad, que es el esquema que, para el que no estéis familiarizados, define, en este caso, el Real Decreto trescientos once veinte veintidós, y que elabora el Centro Piptológico Nacional aquí en España, ¿no?

Antonio: Has dicho una cosa muy interesante, Alberto, que además creo que toca algo que a nosotros nos pasa. Es decir, cuando tú has dicho, bueno, es que Eladia nos va a ayudar a vigilar los accesos a documentos privados y que eso no acabe, subido a una plataforma de consumo en la que la seguridad y la privacidad están menos controladas. ¿No? A mí me recordaba cuando Matías subía sus sus analíticas a ChatGPT para hacerle preguntas, ¿no? Es decir, vamos a un escenario.

Me da la impresión de que hay un hay un poco de contexto de de que hay cierta suspensión, no sé, de la de la guardia alta que ya tenemos con la privacidad. ¿No? Es decir, en todo el Internet ya hemos aprendido lo lo que puede ocurrir con problemas de privacidad. ¿No? Y con y con la historia de del cloud y la historia de de de de Ethernet entero, ¿no?

Pero con los chatbots parece que hay una cierta suspensión, que hay como un contexto de extrema confianza, y en el que, a lo mejor, nos soltamos más en lo personal, ¿no? Y y subimos contenidos sin tener muy claro dónde se guarda, si se va a usar para entrenar y y de repente la IA está aprendiendo de las analíticas justo de Matías. Y y en el ámbito profesional, yo ahora ahora veo un escenario un poco muy desordenado. Es decir, en el sentido de que me da la impresión de que en muchas empresas, sobre todo en las PyMEs, hay un uso fuera del radar en la organización en la que es el empleado que se busca su ganancia de productividad usando chatbots, etcétera. Bueno, en todo este escenario, claro, vosotros juega un papel importante, tanto en cuanto sois una plataforma y sois, además, un proveedor de cloud de de modelos y tal.

¿Qué tipo de políticas son las que recomendáis actualmente? ¿Qué nos cabe esperar en todo en todo este escenario? Esto es como el crow computing, que habrá empresas que se lancen a hacerlo en la nube y empresas que digan, no, no, yo quiero todo en mis servidores y en modelos que ejecute yo ahí, que está al lado mía. ¿Cómo cómo se está ordenando todo esto?

Por una parte, y lo primero que tenemos que decir es que, al menos en nuestro caso, como como como Microsoft, cuando nosotros proveemos una solución de iF generativa, el tipo que sea, Sabéis que tenemos los copilots, pero también tenemos servicios que que proveemos como como plataforma, como servicio, o incluso como infraestructura, como servicio, que utilizan modelos fundacionales propios desarrollados por Microsoft y, en algunos casos también, soluciones y servicios, apoyas modelos fundacionales que no son propios, como puede ser los de OpenAI a través de nuestro servicio de Azure y OpenAI. Todos esos casos, al final, lo que lo que nosotros nos comprometemos por contrato es que cualquier dato que tú le introduzcas en un prompt, bien sea un texto que tú tecleas o un documento o que copies un texto de cualquier parte, al ser una herramienta empresarial, el compromiso que tenemos es que esos datos no se van a utilizar ni para entrenar nuestros modelos ni para entrenar los modelos de terceros. Este, además, es un compromiso por contrato, es decir, no es un tema de que lo digo y cuánto ya está, ¿no? Sino que, realmente, así se queda reflejado en en los contratos, ¿no?

Claro, qué duda cabe que en el escenario empresarial, cuando una empresa, pues, no provee una solución de estas características, ¿los usuarios qué hacen? Pues se busca en la vida. Es decir, yo si mi empresa no me pone un copilot, aquí me pongo la borra de Microsoft, déjame un momentito, pues ¿qué voy a hacer? Pues voy a buscar cuál es la herramienta de consumo que me puede ayudar a hacer mi trabajo, a ser más eficiente o lo que sea, ¿no? Y ahí es donde están los riesgos.

¿Por qué? Porque al final son soluciones que están fuera del alcance de quien gestiona tu infraestructura, digamos, de IT, ¿no? O sea, ahí sí que, y en línea con lo que comentaba antes, sí que tenemos soluciones que permiten, en primer lugar, tres tres grandes líneas. Lo primero, descubrir cuál es mi superficie de exposición, ¿vale? Después, proteger aquellas aplicaciones, incluso aquellas que son o intentan ser accedidas por nuestros usuarios sin nuestro control y finalmente gobernar, ¿vale?

Las capacidades de descubrimiento se tienen que centrar sobre todo, pues, en áreas que tienen que ver con los datos, ¿vale? Es decir, nosotros tenemos, por ejemplo, cerca de trescientos clasificadores, ¿no? Que están ya prepopulados en nuestras herramientas para identificar tipos de información sensible. Por ejemplo, unas credenciales. Antes ponías el ejemplo de los datos de analítica de Matías, ¿no?

Imagínate que mete por error unas credenciales, ¿vale? Un usuario y una contraseña. Claro, eso es un dato sensible también. Igual que si subes un trozo de un documento confidencial que has copiado y has pegado en esa herramienta, necesitas descubrir, necesitas saber qué pasa, necesitas saber quién está accediendo, qué aplicaciones están utilizando. Todo eso forma parte de esa de esa etapa de descubrimiento, y esa etapa de descubrimiento a través de herramientas como Purview nos permiten, digamos, identificar mi superficie de exposición.

Una vez que sé lo que tengo delante, lo que tengo que medir y vigilar, entonces ahora tengo que proteger, tengo que proteger ese entorno de alguna manera. ¿Para qué? Pues para prevenir fugas de datos, para prevenir over shelling, es decir, que yo esté compartiendo información de más que que necesariamente no debería hacer porque, bueno, puede ser información sensible, corporativa, o a lo mejor estoy compartiéndolo con alguien que no debo porque es una persona que no necesariamente tiene acceso a esa información, puede ser una persona interna, una persona externa que trabaja para mí, alguien de fuera, ¿vale? Y sobre todo también detectar las amenazas, ¿no? Desde el punto de vista de, oye, yo ya conozco a través de esas herramientas de inteligencia artificial que os contaba antes aplicadas a la seguridad, cuáles son las técnicas, las tácticas y los procedimientos que utilizan esos actores maliciosos y, por lo tanto, soy capaz de detectar patrones de comportamiento que puedo alertar al usuario y a los administradores de mi cooperación.

Y, por último, el gobierno, ¿vale? El gobierno del dato. Hay una cosa que seguramente os ha pasado, ¿no? Que le habéis preguntado algo a cualquiera de estas aplicaciones de consumo de guía generativa, ¿no? Y pasan, suele pasar dos cosas.

Una, que no es determinista, porque claro, esto es cálculo probabilista. Y la segunda es que muchas veces, cuando no es así, cuando sí que lo es porque tiene un RAG asociado a esa vía generativa y por lo tanto la fuente de información es factual. Hay veces que pasa que cuando ese RAG no se gestiona, hay datos que se quedan obsoletos, por lo tanto le puedes estar preguntando cosas que a lo mejor, pues bueno, están son correctas personas antiguas, ¿no? Imagínate, pues no sé, los datos financieros de una compañía, ¿no? Puede ser que hayas cerrado el trimestre hace dos semanas y y te esté dando datos de hace un mes o tres meses, ¿no?

Eso al final conlleva errores y a la toma de decisiones incorrecta, ¿no? Eso también es importante, por eso hay soluciones también que te permiten, digamos, gestionar el ciclo de vida en los datos y marcar la obsolescencia de los datos con las con los cuales tú alimentas esa idea generativa, pues a través de técnicas de RAW o a través de vectorización en bases a datos vectoriales, ¿no? Y sobre todo también la detección en esa fase de gobierno del incumplimiento de las leyes y de las políticas y de los códigos de conducta que tenga una compañía. Ahora viene una avalancha de regulación en torno a la inteligencia artificial, y concretamente con el foco puesto en inteligencia artificial generativa. Y en el gobierno no podemos olvidar tampoco al final los incidentes relacionados con los datos, ¿no?

O sea, rompe es un código de conducta. Atípico ejemplo siempre es entorno financiero, ¿no? Que un cliente o que hace una inversión, entonces te está trasladando una serie de datos que podrías tú utilizar como empleado para, a lo mejor, replicar esa inversión, y eso iría contra el código de conducta de esa compañía, ¿no? En esos casos también existen herramientas, ¿no? Incluso cuando interacciones con con herramientas de inteligencia artificial generativa, porque puede ser que ese usuario antes de hacer a lo mejor ese paso o antes de infringirle pregunte, oye, ¿y esto tú cómo lo ves?

A la degenerativa, ¿no? Dame datos, todo eso todo ese tipo de información también se está aplicando a la inteligencia artificial a través de clasificadores para identificar patrones que rompen esos códigos de conducta. Estas son las esta es la situación que estamos viviendo ahora en en muchas de nuestras empresas, nuestros de nuestros clientes, ¿vale? Es decir, clientes que nos piden este tipo de herramientas, ¿no? Y lo que estamos es intentando, pues, a través de todos estos productos y servicios, dar dar un poco respuesta a esas a esas dudas, ¿no?

Matías: Alberto, has pasado antes por encima del tema de la regulación y a mí me encantaría, ya que te tenemos aquí, meternos en las altas esferas y mirar por el cerrojo, en esas conversaciones que seguro que mantenéis constantemente con los gobiernos al fin y al cabo, no solo porque la administración usa software y servicios de Microsoft, sino porque es Microsoft, ¿no? Es una gran empresa que siempre está en contacto con Microsoft. Es Microsoft, perdón, Microsoft. Entonces, claro, a mí me surge una pregunta, a lo mejor un poco morbosa, que es, ¿cuál es la postura en estas reuniones de Microsoft con la AIA Act europea, y si los modelos fundacionales que también has mencionado van a tardar más en llegar a Europa de lo que tardarán en llegar, por ejemplo, a Estados Unidos, donde parece que ahora vamos a tener incluso más aires de cambio a nivel liberalizarlo todo, ¿no?

A ver, bueno, yo puedo hablar por nosotros. Nosotros hemos firmado el pacto en relación al Eye Act, ¿vale? De hecho, estamos bastante de acuerdo con la aproximación que hace el AJACT al al escenario que tenemos en Europa. Es decir, la privacidad es un derecho humano fundamental, es un derecho humano fundamental histórico, ¿vale? Y y consideramos que el uso que se puede hacer de estos servicios de inteligencia artificial, y específicamente los de propósito general, en relación a cómo los trata o aborda la nueva regulación del IIAC, que es una orientación a riesgos, es un es una forma de abordar el problema bastante inteligente.

Y y de hecho estamos bastante de acuerdo, porque consideramos que hay escenarios, casos de uso, donde la inteligencia artificial, por el impacto negativo o o el riesgo tan elevado que existe de utilizar esta tecnología, pues creemos que no debe abordarse. Es decir, que hay casos de uso que ya han sido incluso identificados por la propia regulación de identificación biométrica masiva, de identificación de imágenes, en términos de de face detección, por ejemplo. Son son escenarios que, o bien implican riesgos inadmisibles, que es el el cómo lo aborda el IAC, o son riesgos que necesariamente son de riesgo alto y, por lo tanto, tienes que identificar y mitigar esos riesgos y actuar acorde a esos riesgos. Y ahí el AIC establece una serie de criterios muy rigurosos de qué es lo que tienes que hacer cuando el riesgo es alto. Y obviamente, en aquellos casos en los que es inadmisible, pues no se deben abordar este tipo de proyectos con esta tecnología.

Así que bastante alineados, ponerse totalmente alineados con el planteamiento que hace de LLAC, porque creemos que es una aproximación muy inteligente, tecnológico que trae esos riesgos.

Antonio: Una última pregunta, Alberto, que no te queremos robar tantísimo tiempo. Hay una última de estrategia de las compañías, sobre todo de las bigtech con con la inteligencia artificial, y es años después de que la guía generativa empiece a estar en boca de todo como la siguiente gran cosa en el sector tecnológico. Me da la impresión de que todo bien está del todo claro que es parte de la cadena de valor van a ser las que se lleven el gato al agua, es decir, sean sean las que van a ser capaces de capturar más valor, ¿no? Viendo los resultados financieros de las compañías, parece que la parte de infraestructura, sobre todo Nvidia y los proveedores cloud como como Microsoft o o Google o, a lo mejor, quizás un poco menos Amazon, pero el agente de cloud también están ahora mismo capturando la mayor parte del negocio, Satina de la de que que la que la ILA y los diez mil millones de la ILA que estaba metiendo inteligencia artificial en Microsoft, era el negocio que más rápido había crecido dentro de de la compañía. Pero a la vez, mantenía una estrategia que también estáis en la en la capa de aplicación, en la que también tenéis modelos propios, más inversión en modelos de terceros y y, bueno, y hay otros que, bueno, creen que la el el meollo del el del negocio va a estar en el que hace el modelo de inteligencia artificial, otros que piensan que están en la capa de aplicación.

Ahora mismo, ¿cómo cómo lo veis financieramente en la estrategia de la de las compañías? ¿Dónde va a estar la, digamos, el el el los campeones de la inteligencia artificial en cuanto a negocio?

Bueno, esto es es es muy en, yo creo que se entiende muy fácil si miramos un poco la historia de la humanidad, ¿no? O sea, al final hay hay un libro de de Jeffrey Dean que habla de la tecnología, The Rise of the Great Powers, ¿no? O sea, y habla un poco de cuáles han sido, cómo han ido funcionando las diferentes revoluciones industriales, ¿no? En el caso de la de la revolución industrial asociada a la electricidad, por ejemplo, el éxito no está tanto en quién inventan electricidad, sino cómo de rápido se aplica esa electricidad al al ecosistema, ¿no? En este caso, fue a la industria, ¿no?

Entonces, esos esos, digamos, desarrollos económicos que van asociados a esas tecnologías de propósito general y la inteligencia artificial, creemos que es una tecnología de propósito general, es la nueva tecnología de propósito general, es lo que nos da un poco la idea de hacia dónde está el beneficio en esa cadena de valor, y el beneficio creemos que está en la difusión de esa tecnología. En la medida en que un país, una empresa, una sociedad sea capaz de adoptar esa tecnología y hacerla suya, de ponerla en aquellos sitios donde es más productiva y obtienes más beneficios, beneficios no solamente económicos, sino de productividad, pero también sociales, ¿vale? Ese es el país o esa es la sociedad o esa es la empresa que se va a llevar al agua, por decirlo de alguna manera. ¿Por qué hay un beneficio? ¿Por qué estos resultados económicos?

Bueno, en dos mil veinte nadie hablaba de GPT dos ni de GPT tres, ¿vale? Nadie. Nosotros ya teníamos GPT dos y GPT tres en Azure. ¿Quién lo usaba? Muy poquita gente.

Pero sí que le vimos el potencial. El potencial está en cómo coges ese modelo y lo adaptas a tus soluciones, ¿no? Cómo lo metes en office, cómo lo metes en la seguridad, ¿vale? Cómo lo adaptas a los diferentes modelos de negocio de cada industria. ¿Va a haber o va a seguir abriendo?

Y necesariamente vamos a necesitar empresas como Nvidia, aunque, bueno, podríamos hablar otro día de SLMs, ¿vale? La estrategia de los modelos pequeños, pero necesariamente vamos a necesitar capacidad de cómputo, vamos a necesitar infraestructuras cloud. Pero también es verdad que hay una parte importante de esa cadena de valor que está en el medio y al final de esa milla, ¿no? Es decir, cómo adoptas y en cómo terminas explotando esa tecnología desde el punto de vista de usuario.

Antonio: Estupendo, Alberto. Muchísimas gracias por por tu tiempo. Creo que quedan muchas preguntas. Se nos ha acabado el tiempo, pero la siguiente justo era, ¿cuántas centrales nucleares nuevas queréis poner en España? Pero bueno, se ha acabado el tiempo, no queremos ponerte en esta situación y, bueno, queda pendiente, por supuesto, para la siguiente entrevista, ¿no, Matías?

Matías: Sí, un placer, Alberto tenerte aquí, y Alberto nos explicado todo esto de forma tan detallada, ¿no? Así que muchas gracias por venir.

Muchas gracias.

Antonio: Bueno, y tenemos todo este debate. Hemos hablado de el hype de la AGI, el debate sobre va a haber una burbuja de inteligencia artificial, y claro, en todo esto hay una parte decisiva, que es si las startups van a conseguir ganar toda esta parte de la inteligencia artificial o la van a o van a ser o la van a perder o qué tipo de valor nos van a traer a partir de los de los modelos de IA, ¿no? Entonces, te traigo tres noticias, Matty, de de de startups sufriendo o haciendo la inteligencia artificial que no puedo evitar que que que la discutamos.

Matías: Una, no puedes parar de inventar secciones sufriendo o haciendo la

Antonio: inteligencia artificial. Me gusta. Es que, claro, la gente no lo sabe, pero nosotros cuando empezamos monoestocástico hemos sido los grandes renovadores de del formato podcast gracias a la invención de las secciones. Eso es una cosa muy creativa, estamos en el nivel cuatro de la de la IA hacia la AGI. Bueno, las acciones de Check, Check con dos ges, cayeron un noventa y nueve por ciento, Matty.

Bueno, Check es un servicio que no es muy popular en el mundo hispanohablante, pero que los anglosajones han usado mucho porque, básicamente, ayudaba a encontrar respuestas a deberes, problemas, recursos educativos, era una especie de, pues rincón del vago americano, pero más formalizado y y llevado a un a un nivel mayor. Y, claro, las culpas y la y y el culpable al que se señala es que es ChagPT. Al parecer, por lo que sea, los estudiantes, en vez de copiar un trabajo que ya está hecho y es estático, prefieren la creación dinámica de nuevos resultados que no se pueden detectar o más son más difíciles de detectar a través de la inteligencia artificial, Matthew.

Matías: Esto me recuerda a uno de los primeros episodios de monosestocásticos, que hablamos de los profesores que estaban en contra y a favor de ChatGPT, y no los argumentos a favor era, bueno, al menos el estudiante va a ir a hablar con ChatGPT para interesarse por, pues el trabajo de clase o lo que sea. Entra ChatGPT multimodal, los estudiantes cogen la cámara del móvil, le hacen una foto al ejercicio, a la tarea y ChatGPT la resuelve sin que el estudiante haya tenido ni siquiera que leer el enunciado. No, me extraña que Chet punto com haya caído al abismo de la Solescencia.

Antonio: Una empresa tecnológica que que se la pega, pero otra puede estar creciendo encontrando un caso de uso inesperado para la inteligencia artificial. Se trata de una startup que, atención a al a la propuesta de valor, ¿no? Ese ese, yo me imagino haciendo su su pitch, ¿no? A los inversores, y que esta startup que se llama Osmo, dice lo siguiente. La inteligencia artificial se puede utilizar para autenticar zapatillas deportivas, es decir, estos estos modelos ya tan caros, el mundo de Mauro Fuentes, nuestro amigo, que es un buen coleccionista de este tipo de productos.

¿Para qué vamos a usar la inteligencia artificial? Para detectar cuáles son verdaderas y cuáles son falsas. ¿Y qué va a usar la inteligencia artificial como input? Una imagen, una foto, se va a fijar quién lo lleva, para ver si es un tipo que dice, este no tiene el nivel para estas zapatilla de ochocientos pagos. No, no va a hacer eso, sino que va a auditarlas a partir del olor, Matías.

Ole oler zapatillas, el gran uso de la ILA que ha encontrado la empresa tecnológica Osmo.

Matías: A ver, honestamente, la IA multimodal no me preocupaba, pero la IA multisensorial ya empieza a preocuparme, porque, por suerte, mi perra puede, a través de las firmas químicas que su hocico percibe y que yo no soy capaz de percibir, distinguir si me he duchado o no me he duchado para ponerme a trabajar después del crossfit. Pero como no puede hablar, para mí no es ningún problema, me ha visto hacer cosas peores. Pero una IA sí puede hablar y tiene memoria. Si empieza a ver que no me ducho después del profit para ponerme a trabajar, pues me voy a sentir un poquito humillado. Entonces, o me obliga a ir a la ducha directo o igual desactivo esta función.

Antonio: Sí, bueno, aquí es que volvemos al dilema, ¿no? Los usos beneficiosos, ¿no? De del comprador de zapatillas deportivas que de repente por fin tiene un mecanismo fiable para saber si le están tangando con con con snickers falsas. O, por otro lado, el problema de la gente que alargamos ese tiempo después del deporte para duchar, ¿no? Porque tenemos tanta ansia por trabajar, por ser productivos, que ahí estamos posponiendo hasta, pues, cosas fundamentales, ¿no?

Bueno, última startup que te planteo porque, además, la trae Dennis Crowley porque es un tipo interesante, porque hizo una startup que fue muy importante en los aquellos momentos de la web dos punto cero, que era For Square. ¿No? Aquella aplicación que se inventó lo de lo del check in, ¿no? Lo del decir dónde estabas y compartir información, contenidos y y fotos sobre un sitio.

Matías: Que hay gente que la sigue usando, para mí es la gente más fascinante de Internet, la que sigue y automáticamente se publica en su cuenta de Twitter, sigue diciendo estoy aquí, estoy en la tres cuatro, estoy aquí.

Antonio: Parece que la renombraron, ahora es Suarpa, Suarpa, sí. Bueno, yo sigo usando las FM, que es un poco mi mi reliquia, mi mi mi hogar de de de aquellos tiempos, pero bueno, Kroughly no para de inventar, es un tío muy creativo y tiene un proyecto que se llama Bebott, que su punto es que el futuro es de la inteligencia artificial mezclada con la realidad aumentada. ¿Qué es lo que se ha dado cuenta el amigo Crawley? Pues todos llevamos unos auriculares y, de repente, ahí, con la localización que ofrecen los auriculares, te puede aportar la inteligencia artificial información muy valiosa a su vez. Es decir, la inteligencia artificial tú vas caminando por la calle y te puede susurrar cosas al oído, te puedes decir cosas inesperadamente, ¿no?

Tú vas tan tranquilo, ¿no? Ahí haciendo el rooking, haré que hacer el rooking, Matthew, eso tenemos que hablarlo un día en el podcast eso, porque el rooking es lo que se viene. La AGI y el rooking, yo creo va a ser el tema fundamental de dos mil veinticinco, ya hablaremos de eso. Pero bueno, tú estás haciendo tus tus paseos y de repente la IA te dice algo sobre el sitio que está. ¿Qué nos dirá la IA en ese momento?

Pues para Dennis Crowley, la app te dirá cosas interesantes sobre los lugares que estás, sobre personas cercanas que que hay ahí o amigos tuyos que estuvieron en un lugar específico.

Matías: Bueno, esto último inquietante, pero yo tengo que defender a la gente que sé que pueden resultar un poco cargantes, pero la gente que si tiene un dato cultural o un trivia lo suelte en, vas caminando por la calle y te diga, pues mira, aquí en la Guerra Civil, tal y cual, pues yo defiendo a esa gente, porque a mí sí me interesa genuinamente que me cuenten esas curiosidades para después que no me pase lo de lo típico de cojo un vuelo de rayanera, una ciudad random, veo algo que todo el mundo monumentalmente aprecia y a mí no me dice nada. Yo, al contrario, yo aprecio que me cuenten cosas sobre esa sobre esos monumentos y esas calles. Ahora, de ahí a decirme, mira, aquí fue donde potó tu amigo no sé quién, porque el día se emborrachó, más inquietante.

Antonio: Claro, a lo mejor tú estás ahí, pues por la puerta de la catedral y y te dice, mira, aquí grabo un vídeo del Churumbel, ¿no? Y hice una patada voladora. Tú dices, bueno, es una data, es un es un un una referencia que me que me puede dar inteligencia artificial, pero claro, a lo mejor, bueno, a lo mejor no es la óptima, ¿no? Habrá que ver un poco cómo cómo funciona. Y bueno, esto esto ha sido un pseudo porta grano de enfermería porque las startups están un poco locas, pero no puedes sustituir a nuestra sección, nos vamos de tiempo, Mati.

Hoy se ve un poco largo porque hemos tenido invitado, pero no podemos dejar de hablar de puerta grande o o enfermera a enfermería.

Matías: A ver cómo cómo superas estas estafas, que eran bastante tróspidas.

Antonio: Bueno, el caso es que han descubierto, Matías, quiénes serían los mejores periodistas para escribir del trabajo del futuro de inteligencia artificial. No te lo vas a creer.

Matías: No soy yo.

Antonio: Sí, somos tú y yo, Matty, lo hemos conseguido. Porque, vamos a ver, nos envió una nota de prensa, algo que nosotros no somos muy aficionados, no no nos mandéis notas de prensa, pero esta estaba realmente currada. Era la solución de la plataforma de Malth, ¿no? Que es una una plataforma que sirve para buscar freelance y trabajadores y profesionales, ¿no? El caso es que, claro, esta contratación de de freelance ahora está potenciada por la búsqueda con inteligencia artificial.

Este persona, ese asistente permite a los responsables de artificial. Este persona, ese asistente permite a los responsables de contratación especificar las necesidades y tú recibes candidatos como personalizado. ¿No? Entonces, la gente de Malt está súper optimista con su uso de la inteligencia artificial y nos mandó un vídeo de ejemplo. En este vídeo de ejemplo se buscaba, nada, necesitamos unos periodistas para escribir de la I a, el futuro, el trabajo, etcétera, y salíamos nosotros, Matti.

Por lo tanto, esta inteligencia artificial es buenísima.

Matías: ¿Cómo lo veis? Sin duda, sin duda. A menos que tengan un vídeo de estos para cada destinatario del email, a mí me ha hecho mucha ilusión verlo. Además, lo acabo de ver en directo por primera vez, no lo había abierto.

Antonio: Claro, el caso es que a lo mejor esto es puerta grande, no tanto por la aplicación en sí, sino porque este puede ser el futuro del PR, es decir, cada comunicación, la inteligencia artificial la convertirá en, te hacemos un poquillo la pelota, ¿no? Que que es lo que lo que a nosotros realmente nos gusta, ¿no? Y nos satisface. Entonces, ya, claro, si a partir de ahora, en todas las notas de prensa, pues nosotros salimos tantoféticamente bien, ¿no? Pues, yo creo que ahí el mundo del PR tiene que tomar nota de de esta iniciativa Puerta Grande y bueno, te voy a pasar un segundo caso.

Este caso yo creo que va a abrir un horizonte de utilidad para todos los oyentes de monogestocástico. Se trata de la usuaria de de x, Kuku Trass, buena conocida tuya, Mati. Cucutras dijo lo siguiente, en x, nos preocupa que la idea nos quite el trabajo, pero yo se lo quito a ella frecuentemente cuando finjo que soy un email un email automático recordándote que me pagues. Abre aquí una puerta, una puerta interesante, la usaría Cucututras, porque va a haber un montón de momentos y de contextos en los que lo mejor que podamos hacer sea fingir ser una inteligencia artificial, Matías.

Matías: Me parece un uso extraordinario hacerte pasar por eso para no darle mucha importancia al email que estás mandando, ¿no? Cuando tú por detrás lo que estás es rabiando porque no te pagan. Me parece una genialidad por parte de KruCutras, la verdad.

Antonio: Sí. Y es que a partir de este de este insight, de este de esta poderosa invitación a pensar las cosas de otra manera, a darle la vuelta completamente a al calcetín, es que hay un montón de contextos en los que hacerte pasar por una IA va a ser muy beneficioso. Por ejemplo, te llaman y es una una una llamada en la que tú no no no tienes muy claro cómo cómo gestionarla, quieres salirte el paso, te arrepientes de haber atendido a esa llamada, Mati. Pues claro, puedes decir que en un momento, hombre, como modelo de lenguaje no puedo ayudarte, ¿no? Tú lo dejas ahí y a partir ya no, la otra persona no tiene ningún arma para para contratar a eso.

O en Twitter tú puedes de algún momento te metes en una conversación que te, como a ti, Matías, en algún momento te han funado, es decir, te han cancelado en en redes sociales, pues puedes fingir ser un bot indio. ¿No? De repente, Matías cambia a al Matías más hindú y empezar a decir cosas amables a todos tus tus haters. Entonces, puedes decir, bueno, no no metéis más conmigo porque soy un bot, ¿no? De repente ahí has grado mucho.

Es decir, los casos de uso de aplicación de esto son infinitos, Matías.

Matías: Pues sí, y me lleva a comentarte una cosa, Antonio, y es que hoy te traigo yo un portagrando de enfermería.

Antonio: Sí, venga, bueno, dispara.

Matías: Ah, tú sabes que tú sabes que los oyentes de modo sextocásticos nos escriben, nos mandan sus privado, etcétera, y me llegó una que no no pudo dejar pasar. NotebookLlem, esta herramienta de Google de la que hemos hablado mucho, sobre todo desde que es capaz de producir un podcast a partir de tus documentos, se puede usar para el amor y sobre todo para analizar una relación sentimental. Voy a hacer como como hace El País esto de Irene, nombre ficticio, voy a cambiar los nombres.

Antonio: Ya, bien, me voy

Matías: a dar la privacidad. Vale, vamos a poner que se llaman Marisa y Avelino, ¿vale? Pues me escribe Avelino y me dice, escuchando el último mono os he recordado que le subí a Notebook Elem, la copia del primer año de WhatsApp con mi pareja, con la cual llevamos un porrón de años, tenemos un hijo en común, para que hiciese un podcast sobre el inicio de nuestra relación. Vale, pero la cosa no termina aquí, porque esto ya podría ser el puerta grande de enfermería, estás de acuerdo o no con esto, con este uso de la IA, sino que Avelino me manda el podcast para que yo lo escuche y que para ello yo procedo a escuchar el podcast. Y a medida que el podcast se va reproduciendo, me voy incomodando por las los asuntos tan íntimos que trata, como que al principio de la relación, Avelino le dice a Marisa que está preocupado porque sus padres todavía no saben que ha dejado a la ex con la que convivía para empezar a salir con Marisa.

Entonces, tengo que admitir dos cosas. Me sorprendió el nivel de confianza que tienen los oyentes de monos estocásticos con con nosotros dos y, por otro lado, me enganché al podcast de manera increíble. Este es el mejor podcast serial, por ahora un solo episodio, increíble. Este es el mejor podcast serial, por ahora un solo episodio, espero recibir más después de este Portalando de Enfermería, pero primer podcast generado con Ia, que me interesa de verdad.

Antonio: Madre mía, qué qué qué conjunto de cosas tenemos aquí, qué enorme puerta grande. Primero, puerta grande para Avelino, porque claro, está cediéndonos este primer año de la relación sentimental con su pareja, podcastizada con Ia, a nosotros para que podamos divulgar aquí la los parabienes de del futuro que nos espera. Entonces, muy generoso, Avelino, ahí yo yo lo veo a favor completamente puerta grande. Y luego, claro, yo creo que esto va a acabar siendo un producto de esos típicos que se ponen de moda. Es decir, qué pareja no va a querer tener como, no sé, tú tienes las fotos de tu boda, ¿no?

El el típico, ¿no? Es muy típico, tienes que tener un un buen libro de fotos de boda. ¿Quién no va a querer tener un podcast sobre su primer año de de amor y romance? Yo creo que empezamos con el notebook Elem y hacerte un podcast, Mati, pero en el futuro yo creo que nos harán todo una película sobre nuestra historia de amor y tendremos una película ahí que podamos poner a las visitas, ¿no? Así nos enamoramos nosotros.

Matías: ¿Sabes el error que cometí? Porque yo el primer año era muy cursi, el primer año de relación con mi mujer, el error que cometí fue que no lo guardé en digital. Se lo imprimí en la primer año de conversaciones y se lo regalé, que me imagino que se acabó tirando en una mudanza o lo que sea, se lo regalé en formato impreso. Entonces, ahora no puedo rescatar aquello para digitalizarlo y y que la IA, pues, analice si era efectivamente demasiado cursi en aquellos comienzos o no.

Antonio: Claro, pues, bueno, para mí es claramente puerta grande, inteligencia artificial, amor, es que es que no no no le no le podemos pedir más a la vida, enhorabuena a a Avelino, ¿y cómo se llamaba ella?

Matías: Marisa.

Antonio: Ah, y a Marisa, que que sigáis celebrando muchos más aniversarios y para bienes, y yo creo que es imposible acabar el episodio más arriba, Mati, porque la IA celebra el amor, ese es lo mejor.

Matías: Nos vemos la semana que viene, amigos. Un abrazo a todos.

Chao,

Antonio: amix.

Episodios recientes

Programas relacionados