Publicado: 24 octubre 2024
Transcripción
Hola a todos, los monos estocásticos, episodio nueve de la tercera temporada, que avanza impasible porque la inteligencia artificial nunca duerme. Antonio Ortiz.
¿Qué semana tenemos? ¿Qué semana tenemos, Matías? Pero, en mi caso, hay un nubarrón en el horizonte, Matías. ¿Qué ha
pasado?
Se acerca la Navidad. Estamos ya en las fechas turrones, dulces típicos en las tiendas, están poniendo las primeras luces y, en mi caso, en mi familia, es una época, pues, bueno, bonita, familiar, de juntarnos, ¿no? Y de celebrar, pero también hay una gran división, Matías. Hay dos posturas irreconciliables, dos posturas que se enfrentan y que nos pueden enseñar mucho sobre el mundo, la cultura y la inteligencia artificial, Mati. Te voy a contar.
Mira, nosotros todos los años hacemos un viaje a Antequera a comprar mantecados para Navidad. Eso es muy importante porque No
vais a estepa, vais a Antequera.
Claro, es que estepa no nos pillaron, que también están muy ricos, también son muy apropiados, pero lo siento, aquí lo que tenemos más más a mano son los excelentísimos dulces navideños antequeranos. Pero claro, no todos los dulces antequeranos, no todos los mantecados de quereranos matis son iguales, y en mi familia se ha producido un cisma, una división y un enfrentamiento entre partidarios de mantecados, la perla, y los partidarios de los mantecados y polvorones de San Pancracio.
Son Está está la sociedad totalmente polarizada en en todos los ámbitos.
Son los efectos de las redes sociales, Matías.
Sí.
¿Por qué? ¿Por qué te digo esto, Mati? Porque, claro, mi mujer y mi hija son de la perla, que es el mantecado clásico, el de siempre, el que se ha hecho con la receta más tradicional, antigua, etcétera, Y entonces la mantecada doble de de la perla, ¿no? De canela es su favorito. Entonces, ellas quieren mantenerse ahí rígidas e impertérritas.
Sin embargo, Bruno y yo descubrimos el polvorón de pistacho de San Pancracia. Claro, la introducción del pistacho como nuevo ingrediente es que a todo lo que le pongas pistacho a matiz está más bueno. No sé si te das cuenta de eso.
Sí, sí, sí. Bueno, ya lo descubrieron las heladerías hace tiempo, que empezaron a reinventar el helado de pistacho con el cremino de pistacho y con un montón de sabores de chocolate blanco con pistacho. Sí, sí, sí.
Claro, entonces ahí está el el la las dos posiciones ante los mantecados y ante la vida. Es decir, ¿debemos permanecer en lo bueno, conservarlo, apostar por ello y ser fieles o debemos asumir ese riesgo de lo nuevo, lo innovador, el cambio y el futuro, Matías? Ideal. Es más, ¿cómo se conservan las tradiciones? Es decir, ¿cómo conservamos que la familia coma mantecados antequera todos los años?
Siendo, pues rígidos y fieles y y escrupulosos en el en la letra como fanáticos de mantecados en la perla, o siendo flexibles y abiertos con una pierna en la tradición y otra en la innovación, como en San Pancracio. Pues esta división es la división entre los estatistas de la ILA y los aceleracionistas. La clave que explica el declive y el avance de las civilizaciones y la cultura, Matías, estas dos posturas.
Joder, no sabía que esto iba a cerrarse del círculo, íbamos a enganchar con la ILA, pero antes yo ya me había posicionado con tu mujer y tu hija. Te voy a explicar por qué. He abierto las webs de San Pancracio y de La Perla, ¿vale? La de Obra dos San Pancracio no es que tenga no DJS ni sea una cosa espectacular, pero bueno, tiene su política de cookies, tiene su cancha, es una web de
Que va al día, va al día San Pancracio.
Luego te vas a La Perla y tienen un HTML a pelo, ¿vale? Un JPG ahí como logo, donde está la dirección, el teléfono, y se acabó con un fondo naranja salmón. Una fábrica de mantecados tiene esta web. Yo digo, no, no, tienen que estar increíbles, tienen que estar buenísimos. Así que yo voy a apostar por la perla en este caso, pero ya te digo cuando llegue la Navidad.
Haré que eres un influencer, pues te voy a llevar. Te voy a llevar las dos opciones, la mantecada de canela de la perla y el polvorón de pistacho de San Pancracio, y ahí tú tienes un un reto degustativo para tus nueva línea editorial de vídeos en redes sociales.
Bueno, ya no me gusta hacer vídeos porque anoche subí otro y me dijo uno en los comentarios, ¿te parece esa el malo de Toy Story? Ese que tiene mucha frente. Bueno, pues nada, se acabaron para mí los vídeos de comida rápida.
Estoy muy contento, estoy muy contento de esta noticia porque vuelve Payette, un CEO de Telefónica, como personaje abonos estocásticos. Es que a mí me gusta mucho introducir a a Payette y esta vez lo hace con por la puerta grande, todas las de la ley, porque le ha dado perras, ha invertido a través de Wayra, el el brazo inversor de Telefónica, en Perplexity, Matías. No
sé, yo te veo que hay un poquito como de sarcasmo en en tu opinión sobre Payete, pero ahora los dos sois runners, o sea, que yo para mí os meto en el mismo saco y no me parece mal la inversión perplexity.
Es que si a mí metes el saco de Payete, a ti te te mete te mete en el saco del del CTO del gorrito.
El Chema Alonso, el del
Chema Alonso,
sí. Sí, el del gorrito de de lana que es que va siempre con el gorrito. Bueno, puede ser.
Puede ser, ¿no? Ahora que para para ocultar ese esa frente que te afrentan en el en las redes. Bueno, vamos a vamos a hablar, ahorita está el tema en serio, porque es muy importante todo lo que está pasando alrededor de Perlicity. Perlicity, básicamente, para quien no la tenga todavía situada, es una empresa que utiliza inteligencia artificial, pues asignada con una empresa de Ia, cuya propuesta de valor básicamente es la sustitución de Google. Toda esa idea de que con los modelos grandes de lenguaje, los chatbots de inteligencia artificial, y vamos a acabar sustituyendo a a Google en la búsqueda, porque la experiencia que nos pueden dar es mejor.
El modus operandi de Percisitive básicamente es que sí que busca en Internet, es decir, no solo en lo que aprendió en su entrenamiento, sino que hace búsquedas en Internet y te ofrece un resumen de lo que ha encontrado junto a los enlaces por si quieres profundizar. En la mayoría de los casos, yo que soy usuario intensivo y he llegado a ser usuario de pago algún tiempo para para probar los fondos de Verplexity, pues uno no necesita casi nunca usar eso los enlaces, pero ofrecerlos los ofrece. El caso es que, bueno, con su modelo Pro y con la idea de poner anuncios, se supone que va a ser un gran negocio, Matías.
Claro, no, eso te iba a decir, porque primero, yo donde meto dinero, Jeff Bezos, y Perplexity es un caso, a mí ya me parece que puede haber algo interesante detrás, y luego que están ahora buscando financiación, están buscando recaudar entre quinientos y mil millones de dólares en base a una valoración de la empresa de nueve mil millones. Y bueno, esto ya está por encima de lo que ha conseguido Iriasus Kever, ¿no?
Sí, sí, sí. Pero el precio está muy de moda. Es decir, hay mucha conversación alrededor de ellos. Como tú dices, le he metido pasta a besos, pero le he le he metido pasta a Carpati, le he metido pasta Nvidia, le ha metido pasta el jefe de inteligencia artificial de Meta, mi colega, Jean Lekun. Entonces, vamos, es una de las pocas, digamos, start ups que que se está haciendo un hueco como figura relevante entre las gigantes tecnológicas en la en el uso de la guía, Matías.
Sí. Además, puede llegar a aportar bastante valor que lo que estés buscando en Google, Perplexity va un paso más allá y adapta ese texto en un lenguaje que más o menos sea esperable para ti y puedas echar un vistazo rápidamente a los resultados. También te digo, antes te he dicho nueve mil millones, el Financial Times dice ocho mil millones de valoración. No sé si a cada inversor le dicen una cifra diferente para negociar.
¿Qué le habrán dicho a Payete? A ver, a ver, porque Reuters da una cifra, Financial Times da a otra, pero bueno, estará en el entorno de los ocho mil, nueve mil millones de valoración. Y para Telefónica, yo creo que ese es un paso importante, porque de alguna manera se posiciona en una de las empresas artificial, pues, va más candente, más más prometedora, y de hecho, hay dos cosas que podemos comentar del acuerdo. Una es que integran Perplexity en el, bueno, en la experiencia del control pro post de Movistar Plus,
es decir,
hay una suerte de aplicación para toda la plataforma de de vídeo bajo demanda de de Telefónica, que yo creo que ahí puede haber cosas chulas que se pueden hacer. ¿No? Es decir, yo quiero hablar con el con el televisor y decirle lo que quiero ver, y a partir de ahí yo creo que la experiencia puede ser mucho más agradable que el navegar por esos catálogos infinitos de las servicios de streaming. Y dos, bueno, hay que recordar que Telefónica yo tuve un proyecto que era Aurea, ¿no? Sí, Aurea.
Aurea.
Aurea. El anuncio de televisión de los loros, creo que era, papagayos. Lo anunciaron esto por todo lo alto y no sé en qué acabado, pero suele pasar esto con, no solo con Telefónica, sino con las grandes empresas del IBEX cuando lanzan algo de software rompedor, casi siempre se queda en nada. Yo creo que Bizum es el único ejemplo a la mejor.
Hay un acuerdo entre Telefónica y el Mobile Wall Congress en que tienen que hacer un anuncio gigante que luego quede en nada. Es una tradición que inauguraron hace muchos años y que año tras año, pues, ellos mantienen ahí ahí fuerte. Aura no no fue muy lejos, demasiado pronto y y con la tecnología, el estado de la tecnología, pues, demasiado verde, Pero lo interesante es que ha sido pallete prometerle perras y Perplexity ha empezado a tener serios, serios problemas legales, Matías.
No puede ser la mala suerte que tiene Telefónica en estas cosas, pero es verdad, no se para de, no paran de salir noticias sobre plagios o violaciones de copyright, de perplexity, y se está buscando un problema serio, porque tiene a la contra al New York Post y al New York Times presionando bastante para sacarles perras.
Sí, sí, New York Times, que tiene el gatillo fácil a la hora de mandar empresas de inteligencia artificial, recordemos que tiene un pleito con OpenAI por ChatGPT, y con Perplexity, pues, la demanda un c s and desist, ¿no? Deja de hacer esto y no lo vuelvas a hacer más, que no vamos a ver en los tribunales, porque bueno, lo que alega New York Times, básicamente, es que Perlicity es una máquina de plagiar sin permiso. Has explicado un poco el funcionamiento de esta web. Yo lo recomiendo a a nuestros oyentes que que la prueben, que lo prueben como buscador. Dice, esto voy a buscar en Google o en Bing o en DutDogGo, lo voy a probar en en Perplexity y vean un poco la experiencia cuál cuál cuál les ofrece mejor, pues es bastante bueno, Es es un producto realmente bien hecho.
Bueno, el caso es que a ojos del New York Times y del de Newscore, ¿no? Que tiene el New York Post, pero también Wall Street Journal, es decir, los pesos pesados de lo de de la industria de medios estadounidenses, su su argumento es que esto de vas a mi web, coges el contenido, se lo das resumido al lector y el lector no me visita esta ruptura del ecosistema buscador creador de contenido, por el cual el creador de contenido, pues recibía las visitas y la monetizaba por la vía publicitaria o por hacer suscriptor de pago al al al que llegaba, se rompe con Perplexity. Perplexity dice lo siguiente. Primero, enlazo, no no te no te copio el New York Times y te lo devuelvo, sino que te hago un resumen y te enlazo. Por lo tanto, esto está dentro de lo que los norteamericanos consideran el Fairy use.
Esto es como si tú, Matías, me resumieras un artículo del New York Times que te has leído. No estarías violando nada del copyright, básicamente estarías simplemente haciendo eso. Entonces, tenemos esta ruptura de los económicos clásicos de Internet que será mucho más gordo con Google, porque Google es el gran repartidor de tráfico de de la web y que, bueno, de nuevo sabremos esto cómo se va a ordenar dentro de algún tiempo cuando los jueces decidan si tienen razón el New York Times, con el Wall Street Journal, con News Corp o Perclesity, Payete y Chemalonzo.
¿Sabes en qué momento a mí se me cambió el chip sobre el futuro de los buscadores? Creo que fue ayer, cenando con mi padre.
Creo que fue ayer.
Anoche, cenando con mis padres. Bueno, el modo de voz avanzado de Echa GPT ya está disponible en Europa y en Licht Stain, y se los enseñé haciéndole, pues preguntas. Estamos hablando de qué lleva la salsa cajuno, la salsa cajún, y nada más le pedí a HGPT que lo explicara como si fuera un cowboy americano hablando en español, ¿no? Bueno, de la respuesta fue perfecta, tal y cual. Y entonces, mi padre me dice, esto ya se podía hacer con Google.
Entonces, yo me di cuenta, para cierta generación o cierta parte de la población, hacer preguntas a una máquina es sinónimo de Google. Entonces, yo creo que la transición de Google a una IA que te responde a tus preguntas, ahora mismo está en el aire, se la puede llevar cualquier empresa, pues eso pone mucho en riesgo a a Google Hiperplexity. Era una buena candidata, pero creo que New York Times le está pidiendo ciento cincuenta mil dólares por artículo que utilizan para sus contenidos. Evidentemente es inviable como negocio para Perplexity. Entonces, si esto acaba mal para Perplexity, igual no sé por dónde van a salir, pagando por licencias de contenido como hace OpenAI.
Pero bueno, hay algo muy potente detrás de Perplexity que ahora mismo depende de estas demandas.
Claro, es que puede cambiar completamente la economía de la web, Mati, porque está en juego el acceso a los contenidos por esta vía, pero también el uso de los contenidos para entrenar a inteligencia artificial, que es el otro motivo por el que New York Times demandó a OpenAI y el otro motivo que que vamos a ver resuelto en tribunales. Es decir, los creadores de contenido tienen la percepción de que ellos aportan un valor que luego en el negocio de la inteligencia artificial no se ve compensado. ¿Esto a qué nos lleva? Nos lleva a un reordenamiento completo de los económicos de la web. ¿En dónde más vemos este tipo de situaciones?
El caso paradigmático es su Reddit. Reddit tiene un contenido muy valioso de cara a los buscadores, de hecho, se se hizo popular en Estados Unidos el el de que la gente ya usa Google poniendo Reddit para que le salgan resultados de del de este foro de foros, y básicamente ha hecho dos cosas. Una es licenciar su contenido para entrenar inteligencia artificial, es decir, llega a un acuerdo con Google para que Google le pague por el la exclusividad de el contenido para entrenar inteligencia artificial, y dos, está cerrando el acceso a buscadores que no le paguen. Su postura empieza a ser un poco del tipo, bueno, como los buscadores ya no me van a compensar en tráfico, porque cada vez van a responder más, pues el que quiera indexarme y el que quiera usarme en sus resultados, que me dé perras. Por lo tanto, la economía de Internet cambia por completo.
Mi preocupación mayor es qué pasa con los pequeños. Es decir, porque New York Times, Reddit, New Score, toda esta gente, el grupo Prisa, que tiene un acuerdo con OpenI, tiene un poder de negociación que los pobrecitos habladores en Internet no tenemos. Y claro, yo digo, bueno, si al New York Times le dan ciento cincuenta mil por artículo, no voy a ser flipan los los yanquis. Bueno, el, pero claro, yo digo, pues voy a buscar en Perlicity diez artículos de error quinientos, yo lo dejo ahí guardado, ¿no? Me voy un notario, ¿no?
Me voy un notario, mira, mira lo que hace, mira, toma, y ya si lo del New York Times sale bien, vamos nosotros detrás, porque, claro, sí, aquí es, esas son las valoraciones, yo apunto.
Es lo que yo siempre dije. España en esto fue pionera con todo el tema de Google News, Menéame, Ángel de Cinde, César Alierta. Estos debates ya los tuvimos nosotros hace veinte años y ahora llegan los estadounidenses para que luego digan que vamos por detrás nosotros.
No, no, totalmente, tienes toda la razón. Es verdad que esa vía era un poco que llegue el gobierno y obligue a Google a pagarnos, y ahora empieza a ser, vamos a cerrarlo todo y obligamos a los buscadores a pagarnos o nos vemos en los tribunales. Que bueno, tampoco es tan tan diferente de la vía, Cinde. En fin, el futuro, Mattí, pasa por esas resoluciones judiciales para ver cómo se reordena el mundo de los contenidos de la IA, pero el futuro también pasa por tremendo aventazo en Barcelona, Mattíz.
Pues sí, así que os recomendamos muchísimo ir al evento Grow with SAP Innovation Day, porque todo lo que tenga que ver con optimizar recursos, el ERP de una empresa y el futuro de la IA, se va a contar en este evento el siete de noviembre en la Fundación Miró de Barcelona.
Sí, vamos a ver los enlaces a este evento de SAP en la descripción del del episodio. Hay, atención, conferencia y charlas sobre pintando el futuro con inteligencia artificial y ERP, lienzo digital de innovación y creatividad. Es decir, vamos a ver un poco, no ya a hacer dibujitos, no ya a chatear y perder el tiempo con un chatbot, sino las aplicaciones de IA fuertes en las empresas grandes y en la optimización de procesos, en lo que se nota en el Ricky Ricky, en la los dineros, Matías.
Tiene muchísimo que ganar las empresas con la inteligencia artificial para acelerar procesos y y optimizar, pues, los recursos que pueda tener la plantilla, ¿no?
Sí. Y por último, en este evento de SAP, repetimos, el siete de noviembre en Barcelona hay dos elementos que que yo creo que van a animar a nuestros oyentes a visitar. Uno, que da una ponencia el ídolo de Matías José Elías, presidente de Aulats Renovables y figura emergente en el Internet patrio, y después que hay una visita guiada por la Fundación Mío en exclusiva para los asistentes, así que yo no me lo perdería. Bueno, Matti, ¿tú qué planes tienes entre dos mil veintiséis y el dos mil treinta?
¿Remoquetar mi cuero cabelludo o hacerme fuerte para poder ser completamente calvo?
Vale, yo tengo el plan de ir entre Soria y Segovia, porque creo que hay un eclipse muy potente y tengo que mirar. Lo tengo en mi cabeza que cada vez que se hablan de estos años, digo, jolín, tengo que reservar a Gónsori y Segovia que se va a petar.
No es mala idea, porque también pasa por las Baleares y me parece a mí que las Baleares van a estar mucho más ocupadas en esas fechas que Soria, por ejemplo.
Pero con mucho menos torrenos, Mati, hay que ponerlo todo en la balanza.
Es verdad, hay que hay que equilibrarlo todo.
Bueno, el caso es que podemos recopilar los pronósticos de la llegada de la inteligencia artificial general, porque de nuevo, con los últimos avances, con los Premios Nobel y con todo con todo el tiroteo de dinero llegando a inteligencia artificial, los tótems de la industria se nos vienen arriba. Si recopilamos lo parecido por Hassabis de Google, de Dave Vined, Darío Modey, nuestro buen amigo del episodio anterior, Chan Altman, incluso nuestro amigo más escéptico, Jean Legum, más o menos entre todos pronostican la llegada de la inteligencia artificial general. Recordemos, aquella que tiene un nivel humano y no se circunscribe solo a una tarea concreta o a una forma de comunicación y expresión, pues entre las predicciones están entre el dos mil veintiséis y el dos mil treinta. Prácticamente ya, Mati.
Es verdad, es verdad esto. Además, ¿qué qué ve todo el mundo que coinciden más o menos en ese plazo de tiempo? Bueno, Jean Le Cohen, que era el escéptico, igual ya no lo es tanto, ¿no?
Claro, él él dice en en una presentación de en una Keino que dio, alcanzar el nivel humano llevará varios años, si no una década, de aquí ya dos mil treinta y cuatro. Y como Sean Alman dice varios miles de días en el postacre tan famoso que comentamos
Joem, recuerda a a las mujeres que han tenido hijos que hablan de la edad de sus hijos en meses. ¿Por qué samalman tiene que hablar en dos mil días y no hablar en años, que sería más claro? Dos mil días, seis años, tres mil días, nueve años. Está mal mal mal
mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal mal El el el al Madrid le timaron porque fichó por tres mil millones de pesetas a este otro. Eso lo usan los medios cuando quieren ahí meter el dedo, ¿no? Y y y y y y y y qué tontos eran. Bueno, el caso que a mí lo que me interesa de Lucumb es que dice, bueno, él habla de dos mil o tres mil días, e hizo nueve años, yo hablo de, pues eso, unos años, una década, estamos más o menos igual. Pero, ¿sabes qué detectado?
Que Lekun ha pasado de ser súper escéptico a solo algo escéptico. ¿Por qué? Pues él mismo lo explica. Mark Zuckerberg me pregunta mucho cuánto queda para la AGI, es decir, tú tienes a Mark por WhatsApp, imagino, no no no usar ese mes, ¿no? Usará lo suyo, ¿no?
De WhatsApp, ahí diciendo que mucho, queda mucho, ¿no? Es como cuando empieza un viaje de seis horas con niños pequeños, esta experiencia la he tenido, llevas diez minutos y de repente el niño dice, queda mucho, ¿cuándo vamos a llegar? Pues yo creo que Martha Kerber está en ese plan,
Me estoy imaginando a Martha Kernber entrando en la oficina de Jean-Lecun, Jean-Lecun cerrando rápido la ventana de Twitter, que está todo el día metido en Twitter, respondiéndole a Elon Musk para para parecer que trabaja.
Sí, sí. Totalmente. Yo creo que lo tenemos calado, lo tenemos calado al amigo Jan. Bueno, el caso es que hay gente como Stoar Russell. Russell escribió el libro canónico con el que todos hemos, que hemos dado inteligencia artificial en la carrera, hemos estudiado.
Creo que es el Russell and Norwich, ¿era? Bueno, ya no me acuerdo del compañero de del libro, pero esto Russell dice que que que, bueno, que esto que también él ve que claramente que va a llegar y que, bueno, ahí hay un bando escéptico, escéptico entre comillas. Por ejemplo, el Lino Storbar salió rajando de que Arai montó esto en marketing y él no se cree nada, y en el bando escéptico hay dos figuras que que yo estoy siguiendo y que me interesan mucho su discurso, Francesc Schollet y Jacques Lecoon, los dos un poco afrancesados, que ambos, pues, desconfían de que el sustrato tecnológico actual, es decir, todo el paradigma del deep learning, que da los grandes modelos de lenguaje autoragresivos, sea la tecnología con la que se va a llegar a la inteligencia artificial, a mí, de momento, de momento, argumentos me me seducen, me convencen y y me mantengo en esa parte escéptica. Y además, el bando escéptico Matte ha recibido nueva munición de de investigadores de Apple, que de repente han echado un jarro de agua fría con respecto a la IEA.
Sí, porque Apple se dice, ojo, que van dos años por detrás de la competencia, pero al mismo tiempo están sacando investigaciones que dicen, a ver, que lo de OpenAI y lo de razonar con los modelos O uno no están así, estos modelos no están razonando.
Claro, y esta esta discusión ha dado que ha dado una fenomenal discusión en el mundo de flipados de la IA en Reddit, en Twitter y en todos estos escenarios en el que yo ando sumergido noche y día. Es decir, yo en vez de en vez de ser un replie Guy de Elon Musk, un amigo francés, Lecoon, pues ando metido en estos en estos mundillos discutiendo sobre si realmente el paper de Apple demuestra que los modelos de lenguaje actuales no son capaces de razonar. Vamos paso por paso, vamos a ver. Vamos a tener una fenomenal confusión, creo que estos próximos años, porque no hay definiciones claras y no ambiguas sobre qué es un razonamiento, qué es un agente, qué es un copiloto, qué es todo esto. Es decir, aquí estamos en una territorio un poco más bien difuso, y por eso muchos de los investigación y los papers obvian la discusión de qué es razonar y se centran en, bueno, tenemos este pagemark, este conjunto de pruebas que le ponemos a la inteligencia artificial y vamos a ver qué resultados hay, que es algo objetivable, algo que podemos discutir.
Esta es la nota que saca, punto, pelota, ¿no? ¿No? Y luego ya discutimos sobre razonamiento, es una pregunta que es razonar casi pseudo, ¿no? Prácticamente filosófica. Bueno, detrás de razonar se suele ahí, hay una investigadora que es Melanie Mitchell, que de la que he tomado una un poco su su planteamiento para que podamos discutir sobre alguna base, dice que esto de razonar es un genérico que incluye muchas capacidades muy diferentes.
La deducción, la inducción, la abducción, todo ese tipo de razonamiento por el que llegamos a conclusiones, generamos conocimiento nuevo, pero también la analogía, el sentido común y la capacidad sistemática para resolver problemas. Sí, al final, razonar es un proceso con muchos pasos, varios pasos de inferencia, en el que necesitas una cierta capacidad de abstracción. No solo funciona bien con unos ejemplos concretos, sino con cualquier ejemplo análogo, más o menos diferente a lo que tú ya has resuelto antes, básicamente, esa posibilidad de abstracción y generalización es fundamental a la hora de razonar. ¿Qué es lo que dice el paper de los científicos de API? Esto no es que haya salido Team Cucas a decir esto, sino que ellos tienen un departamento de I más D en el que hacen la ciencia, hacen investigación y la publican.
Dicen, no encontramos evidencia de razonamiento formal formal en los modelos de lenguaje. Es decir, este paper lo que pone a prueba es a varios modelos de lenguaje, a GPT cuatro, a JAMA, Jetmaphi, a un montón de, a un montón de modelos en problemas matemáticos de primaria, es decir, no cosas demasiado complicadas tampoco. Entonces, su comportamiento, según estos investigadores, no es que sean capaces de razonar, no tienen esta capacidad de abstracción y de pensar paso a paso y olvidarse de los detalles concretos porque pueden aplicarlos a cualquier caso que se le presente, sino que tienen una memorización algo sofisticada de patrones. Es decir, ¿cómo notan ellos que el modelo no razona? Si cambian una pequeña parte de un problema, incluso añadiendo elementos poco relevantes, el modelo empieza a fallar mucho más.
Vamos a ver un ejemplo, Matías. Un ejemplo que proveyó a partir del el paper de los ejemplos que ellos ponían. ¿Qué es lo que decían ellos? Pues tú le pones un problema a ChatGPT o a cualquier otro modelo de lenguaje del tipo Oliver elige o compra cuarenta y cuatro kiwis el viernes. El sábado recoge cincuenta y ocho kiwis.
El domingo recoge el doble de kiwis que el viernes. ¿Cuántos kiwis tiene Oliver? Este es un problema de sumas, de entender el problema y de hacer razonamientos, ¿no? De que, oye, cojo los del viernes, te enjuades el sábado, el domingo son los dobles que el viernes, que os voy a hacer un cálculo. Este tipo de problemas en los modelos de lenguaje más sofisticados lo resuelven muy bien.
¿Qué es lo que encontraron ellos? Que cuando dicen, el domingo recoge el doble de kiwi que el viernes, pero cinco de ellas eran más pequeños, más pequeños que la media. ¿Cuántos kiwis tiene eliver? De repente, le has puesto una pequeñilla trampa que cualquier ser humano inmediatamente detectamos. ¿Qué más da que sean más pequeños o menos pequeños cuando le preguntáis cuántos kiwis tiene?
Bueno, en mis pruebas, este tipo de trampa, GPT cuatro O, los ha resuelto bien. Incluso se lo se lo copié a Domingo Gallardo, una trampa todavía más agresiva, pero cinco de estos kiwis eran venenosos. De repente, aquí al modelo le estás diciendo, oye, los kiwi del viernes, los kiwi del sábado, los kiwi del domingo eran el doble, pero cinco eran venenosos. ¿Hará bien la cuenta? Porque ¿qué más da que sean venenosos o no?
Yo te he preguntado el número de kiwi totales. Bueno, entonces, aquí el el modelo tiene que razonar si esto es relevante o no, si está asociada a pregunta o no, y en mis resultados lo responde bien, pero ya sabemos cómo son estos modelos. Estos modelos son estocásticos, de un componente aleatorio, no a todos nos responden lo mismo y nunca responden igual, siempre me entienden algunos cambios. Lo que detectaron ellos es que todos los modelos son susceptibles de ser engañados en estas condiciones.
Yo aquí le recomendaría al equipo de investigadores de Apple que no sobrestimaran su capacidad de razonamiento humana como humanos orgánicos de carne y hueso, porque es lo que a mí me pasó en segundo de bachillerato. En segundo de bachillerato había un número limitado de matrículas de honor. Matrículas de honor es que luego en la universidad no pagas la matrícula. Entonces, yo competía con la típica empollona, cuyos métodos de estudio eran muy parecidos a los de una máquina, un entrenamiento diario a base de, pues una base de datos que eran sus apuntes perfectamente limpios y exhaustivos. Entonces, ese entrenamiento le sirvió a ella, al final nos dieron la matrícula los dos, para obtener los mejores resultados, mientras que yo era el típico estudiante que confiaba de forma excelsa en su propia capacidad para responder las preguntas de los exámenes.
¿Qué ocurrió? Que luego llegamos los dos a la universidad y ella, pues tuvo una carrera impecable en la que año a año iba sacando todas las asignaturas y sacó la carrera en cuatro años, y yo suspendí todas el primer año, porque había confiado demasiado en mi capacidad de razonar y no en esos pasos un poco artificiales que hace una máquina para resolver un problema que mi amiga o mi colega del bachillerato tenía perfectamente atados. Entonces, yo creo que sea o no razonar, esto es una cuestión semántica y que las máquinas van a llegar a ese nivel y superarnos sin ningún problema.
Muy buen punto, Matti. Es que, ¿cómo con este ejemplo ilustras gran parte del debate que ha habido sobre la IA y el razonamiento? Fíjate, recuperando aquí a a mi amigo Cholet, que que me parece siempre muy agudo en sus observaciones, él dice, bueno, quizás estamos infravalorando la capacidad que puede tener la pura memorización. Es decir, fíjate que el debate que plantean los los científicos de Apple es el siguiente. Claro, los modelos de lenguaje están memorizando los razonamientos y ajustan los patrones a que en el texto aparece un patrón parecido al patrón que yo tengo memorizado, y que con estos pequeños trucos les estamos pillando.
Por lo tanto, no razonan de verdad porque le pillamos con estos pequeños trucos. El caso es que si los modelos memorizan y aprenden y aprenden con los ejemplos y aprenden con las excepciones y aprenden de estos trucos, a nuestros ojos será indistinguible saber si esto es pura memorización de patrones o es ese algo que llamamos nosotros razonamiento de abstracto humano genuino, que que no sé muy bien tampoco qué es, pero que al fin y al cabo, con el suficiente entrenamiento y con la suficiente cantidad como tu amiga será indistinguible. Por lo tanto, tu amiga tendrá tu capacidad de improvisación, además de, y habré llegado a ella por la vía de la memorización. Entonces, ¿qué diferencia va a haber entre el aprendizaje puramente memorístico a lo bruto de modelos gigantes con la comprensión verdadera? Pues, de momento, le pillamos a los modelos de lenguaje.
Como hacemos estos trucos y y caen en las trampas, decimos, ah, te pillé, no tienes comprensión verdadera, pero cuando hayan aprendido todos estos trucos y sepan hacerlo bien, ¿cómo distinguiremos que si tienen comprensión o no? Porque a nuestros ojos y a nuestra apariencia se comportarán y responderán como si la tuvieran. Entonces, me parece una discusión filosófica, ¿no? Al final, tendremos que creer, habrá emergido una comprensión de inteligencia verdadera o básicamente se simula tan bien, pero debemos concluir que, aunque lo simule muy bien, no hay comprensión verdadera, porque la comprensión verdadera, ¿cómo la medimos?
Cómo me alegré de esto. Tú sabes que OpenAI sacó una guía de prompts para usar los modelos razonadores como O uno, y es básicamente todo lo contrario a lo que a lo que te vienen enseñando en estos cursos online de ingeniería de proms. Es muy común, a mí me sale de anuncios cada dos por tres en Instagram, que te digan, para tener un buen resultado, dile a ChatGPT, por ejemplo, si fuera un copywriter de redes sociales, dile, eres el mejor copywriter de redes sociales del mundo, estamos trabajando en un proyecto de importancia vital, tienes que generar los mejores tweets en la historia. Bueno, esos proms con O uno quedan obsoletos, porque lo que recomienda OpenAI es un prompt simple, al grano, que el razonador lo va a entender y, sobre todo, no hace falta decirle ve paso a paso y tal y cual, porque esto ya lo interioriza el propio modelo razonador. Y yo me alegré muchísimo porque odiaba ese tipo de proms y nunca los usaba.
A mí me gustan los proms cortitos, los proms que van al grano y y me alegro que hayas evolucionado el chat GPT hacia hacia ese camino.
Muy bien, Matty. Si quieres pasamos página, porque nos hemos detenido mucho en este en este mundillo del razonamiento, porque este debate es importante si recuperamos el la hoja de ruta de OpenAI. Acuérdate, camino a la inteligencia artificial general, primero los chatbots que dominan el lenguaje, check. Segundo paso, la capacidad de razonar y la capacidad de, ya hemos dicho, resolver problemas complejos paso a paso tomándonos nuestro tiempo, lo hemos explicado cuando explicamos los modelos uno y lo hemos discutido hasta ahora. ¿Por qué es importante saber si tienen capacidad de razonar los modelos genuinamente?
Porque es el paso anterior a la llegada de los agentes inteligentes. Y esto de los agentes inteligentes es la siguiente gran cosa que nos prometen las empresas de inteligencia artificial.
Yo no no me podía creer ayer, menos mal que salió ayer y no hoy, porque habíamos perdido el tema de la semana, cuando Anthropic presenta, como quien no quiere la cosa, un agente de IA. Por muy experimental y prototípico que sea, esto es lo que estábamos esperando, un agente de IA. Es cierto que hay una serie de startups que intentan replicar esto, como rappers de otros modelos, pero Anthropic lo que ha hecho es enseñarle a su modelo, que tenemos que hablar del naming, porque mismo no entiendo por qué le han puesto el mismo nombre a un modelo nuevo que el que ya tenía, que es el el Cloudsone tres punto cinco, le enseñan a usar interfaces gráficas de ordenador pensadas para humanos. Es decir, le enseñan a usar un Windows, un MacOS y, a través de una API desarrollada para para este modelo, interactuar con ella, y puede hacer, básicamente, todo lo que tú puedes hacer en el ordenador por ahora. Está un poco limitado, la propia Anthropic dijo, recomendamos usar esto para usos de bajo riesgo, no para gestionar tus inversiones en bolsa.
Puede programar en el compilador que tengas, puede organizarte un viaje abriendo el Apple Maps y y marcando los restaurantes. O sea, aquí empieza lo que estábamos esperando, el mundo de los agentes de IAM.
Sí, sí, sí, sí. Pero no todo pueden ser los agentes, seguiremos hablando de agentes, también hay una labor de este podcast que es recomendar otros podcast, otros historias interesantes, y hoy traemos una de nuestras partes favoritas del mundo, Matty, una con el podcast Greal.
Antonio, esto me parece fascinante porque, como te despides con el chau Amix desde el primer episodio de Monos Estocásticos, siempre hemos estado muy vinculados a a Cataluña, hicimos el evento en Barcelona con paréntesis, etcétera. Y ahora vamos a recomendar el podcast Greal, el secreto de las ocho llaves. La sinopsis es. Lo último que Pep hubiera imaginado la tarde en la que comienza nuestra historia es que su vida iba a cambiar para siempre. La historia sigue a Pep, un periodista que sueña con ser escritor, pero que trabaja como rider en Barcelona.
Imagino que hay muchos riders identificados con Pep en en Barcelona. Un día, mientras Pepda lea frustrado por la ciudad, una mujer choca con él y desaparece, dejando tras de sí un cofre misterioso con una cerradura peculiar. Junto a su amiga Laya, una experta en historias del arte, Pep se aventura para descubrir el origen y contenido del cofre, viajando por diversos lugares de Cataluña y descifrando pistas.
Greal, el secreto de las ocho llaves. Yo planifiqué un viaje a Cataluña hace un par de años en el que conseguí convencer de las virtudes del lugar a a mi familia, prometiéndoles gambas de Palamos, ¿no? Por aventura, todo esto, pero yo lo que quería ver era el románico de Tarragona. Entonces, fíjate, a ver si la IA de Claude es capaz de organizar un viaje como este consiguiendo eso, Bueno, básicamente, por por recapitular un poco, ya sabemos que no hay una definición estricta, pero vienen ser, pues, sistemas de inteligencia artificial que además de de trabajar con información, le preguntamos y nos responden, esa es la etapa chatbot, se van a la capacidad de interactuar con el entorno, es decir, de ejecutar cosas en tomar decisiones o micro decisiones del del de la tarea grande que tú le has pedido sin la constante intervención humana. ¿Qué tipo de casos de uso se plantean con los agentes?
Es casi siempre se habla de lo mismo, que es lo que yo creo que no se va a hacer, que es hacer compras o reservar viajes, programar reuniones y que, claro, estos agentes para hacer cualquiera de estas tareas, necesitará dar muchos pasos, interactuar con muchas herramientas y, por lo tanto, todo eso lo hará solo, ¿cierto? Tendremos esa capacidad de dar una tarea a la inteligencia artificial y ella sola se buscará la vida y sabrá cómo ejecutarla. Y esa es la próxima gran cosa, lo que ha presentado Anthropi es que, claro, lo de Anthropi es es la caña porque lo vemos. Es decir, un agente en general no tendría por qué darnos su ejecución, pero yo creo que Anthropic ha sido muy hábil en presentarlo de una manera en que, oye, mira, ¿cómo abre el navegador? ¿Cómo reserva a través del calendario en tu hueco libre una reunión y le manda un correo a la otra persona para que sepa que esa reunión?
¿Vale? Es decir, hace un conjunto de pasos que tú harías para convocar ese esa reunión. Bueno, ahí estamos. El tema es, ¿hasta dónde nos fiamos? Nos fiamos de que la tecnología es buena por Es decir, los chapóts todavía alucinan y se equivocan.
La capacidad de razonar, pues llega hasta cierto punto y ya vemos que tiene sus límites, como como el paper de Apple evoca. A esto arrasa el otro día lo decía y yo creo que tiene un argumento. ¿A cuál de estos agentes tú te atreves de darle tu tarjeta de crédito, Mati?
La tarjeta por ahora no, tampoco es que tenga mucho en el banco, pero por ahora no. También es que me han hecho mucha gracia los ejemplos que ha presentado, que han sido un par Anthropic, porque, por ejemplo, en este que estamos viendo ahora mismo en el vídeo, le piden que haga algo con una página web, entonces el modelo se va a cloud punto AI, habla con cloud, o sea, el modelo habla con sí mismo para generar el código de una página web. Y en este otro se ve incluso mejor el punto al que quiero llegar. Bueno, como Google detectó que no vivo en Argentina, me ha quitado el premium, así que me salen anuncios en YouTube de vez en cuando. Pero la cuestión es que la chica le pide a Cloud que busque el mejor punto para ver el Golden Gate de San Francisco con un amigo que no conoce la ciudad, es la mejor panorama, y lo que hace Cloud es buscarlo en Google.
O sea, me hace mucha gracia porque me recuerda lo que hablamos de los robots antropomórficos. ¿Por qué están haciendo robots antropomórficos? Pues para que puedan usar herramientas que económicamente están pesadas para humanos, pero ya, que estos modelos de lenguaje aprendan a usar Google o aprendan a usar los propios modelos de lenguaje, se vayan a ChatGPT punto com o se vayan a cloud punto y ahí y le pidan que genere una página web, es como una vuelta de tuerca de eso, ya no son robots antropomórficos, son modelos de lenguaje antropomórficos de alguna forma.
Sí, Matty, yo aquí tengo una posición un poco contraria. A mí este ejemplo de de Anthropic no me ha gustado, porque en organizar los viajes esto es lo que se me da bien, no, organizo las horas, nos movemos aquí, cogemos este tren, comemos en tal sitio. Ese es mi rol. ¿Tú acuerdas de esa tendencia de los padres de aeropuerto en los viajes? ¿No?
Que están como supervigilantes de todo, todos los detalles, tienen en cuenta, siguen todas las cosas con con mucha intensidad. Ese soy yo en los viajes. Entonces, claro, si tú me dices que que que Zone tres punto cinco, que este es Sony tres punto cinco dos, ¿no? Han actualizado el mismo tres punto cinco, es una cosa muy rara, tienes tú razón. Ya puede hacer todo esto, pues claro, ¿qué papel queda queda para lo los los padres de de viaje?
Estamos perdiendo nuestro
Fíjate, creo que esto es una cosa muy de hombre, ¿no? Porque yo cuando voy al aeropuerto con mi mujer, soy yo el de vamos a ver qué puerta es, a ver si están embarcando, voy a ver en la pantalla si están ya embarcando, voy a ver al minuto siguiente si están ya embarcando, y mi mujer va con una tranquilidad y una pachorra de, yo no me voy a poner en la cola para estar de pie si tengo ya el asiento asignado. No sé por qué se te activa como persona hombre padre de familia, gen de, hay que tener el control de dónde está la puerta de embarque y de a qué hora están embarcando.
Claro, chequear las cosas menos de diez veces es es frívolo, es ir improvisando por la vida, Mati, no no estoy de acuerdo con eso. Entonces, bueno, el el el punto, yo creo que al final, creo que hay una parte que tú dices, pensamos la nueva tecnología desde las categorías anteriores y por eso estamos pensando en un agente que abre el navegador, que se conecta con, que busca en Google, ¿no? Que hace todo esto como si fuéramos nosotros, no tiene sentido, en mi opinión, ¿no? Lo normal es que abren sistemas software a través de APIs, no porque sepa usar un ratón y una pantalla el el en la inteligencia artificial, creo yo. Pero bueno, el el punto es que mi, yo tengo ahí dos tres, una, a lo mejor, por ser como soy, yo no quiero que la ILA, o no es el caso de uso que me gustaría, compre por mí en Internet, por ejemplo, que yo creo que es un que es un caso de uso que que a mí a mí me me me tiene muy me da muy poco interés.
Y y lo segundo es que sí creo que hay un potencial enorme, un potencial enorme en que la inteligencia artificial entienda lo que hay en la pantalla. Entienda siempre, entre comillas, porque ya hemos debatido antes si hay auténtica comprensión o no, da igual. Hay competencia, hay capacidad de ejecutar las cosas y llegar a los objetivos, que es lo relevante. Y, entonces, si la IA tiene esta capacidad de procesar lo que hay en pantalla para ser competente, entonces cambian mucho las cosas, cambian mucho las cosas, porque el asistente está viendo justo lo que yo tengo en la pantalla, me podrá ayudar muchísimo más. Y ahí enganchamos con otra de las presentaciones de la semana, que es la de Adobe, Matías.
Bueno, como se han vuelto locos los diseñadores y los ilustradores, sobre todo los que están a favor de la IEA, porque en ese sector hay muchos en contra, con lo que han presentado, porque el ahorro de tiempo es absolutamente brutal en algunos casos. De todas las demos que hicieron, yo me quedo con dos. Bueno, han actualizado básicamente toda la suite de programas, el Premiere ahora puedes directamente en la línea de tiempo del vídeo ampliar los fotogramas con inteligencia artificial, es decir, con un generador de vídeo. Pero yo me quedo con este uso de Photoshop, tienes un flyer, una imagen con cierto formato y le pides a la IA que la misma imagen te la haga en dieciséis, nueve, en nueve, dieciséis y en todos los formatos que necesitas para redes sociales y sin ningún tipo de esfuerzo, te reconfigura, te remaqueta todo para tenerlo en todos los formatos. El ahorro de tiempo de esto, que esto sí es un caso de uso que a lo mejor yo podría darle a Photoshop, es espectacular.
Y luego, a nivel Illustrator, ilustración y y vectorial, dibujo vectorial y tal, presentar una cosa chulísima, que es convertir, gracias a la IA, un un garabato, un dibujo en en dos dimensiones, en tres D de forma que puedas girarlo. O sea, la imagen final acababa siendo dos D de nuevo, pero tú podías girar a los personajes para configurar un poco la escena. O sea, me parecen cosas que antes llevaban horas, literalmente, y que ahora la suite de aplicaciones de Photoshop al integrar la inteligencia artificial para un montón de cosas prácticas, pues ahorras un montón, un montón de tiempo. La verdad es que este es el, esto es el, ahora mismo yo creo que este tipo de de usos de la ILA son son los más prácticos, ¿no? Para un montón de gente.
Es que, claro, me parece que es como el caso de de tu padre hablando con el chatbot, es decir, gente que esté a lo mejor un poco fuera, dice, bueno, no es para tanto, ¿no? Redimensiones una imagen, que qué qué valor hay ahí, ¿no? En la redimensión, pasar un dibujo a a Photoshop. Pero es que ese pasar un dibujo hecho a mano, a elementos procesables en Photoshop, y que en Photoshop tú luego puedas redimensionar y automáticamente todo se reposicione, tiene un elemento de uso de la inteligencia artificial que hay, dice, una comprensión, sino que hay una capacidad de entender lo que hay en el dibujo, de manera que luego puedes trabajar con ello, pues, prácticamente de manera declarativa, hazme esto, hazme lo otro, y como el AI entiende lo que hay justo en el dibujo, es capaz de ejecutarlo de una manera súper automática y súper productiva.
Un ejemplo perfecto, lo decía Doce CV. Un ejemplo perfecto es el de los sonidos. Los YouTubers que hacen animaciones como como Doce CV y como muchos de YouTubers divulgadores tienen que meter efectos de sonido en las animaciones, es un coñazo porque tienes que irte a bancos de sonidos con copyright, sin copyright, y elegir el sonido y luego engancharlo en el vídeo. Pues esto también lo solucionan con la IA, porque automáticamente te generan sonidos para el elemento que hay en ese momento en la en la pantalla. Es un ahorro de tiempo brutal.
Yo esto lo comprendo como eso, como acelerar un montón de procesos y que una sola persona pueda tener proyectos mucho más rápido.
Ay, qué maravilla, qué maravilla, Mati. El episodio de hoy es para que cada uno pueda decidir si es optimista, ¿no? Es decir, joder, lo que viene, tenéis los agentes, la IA va a entender justo lo que hay, puede empezar a transaccionar y empezar a ejecutar cosas, o decir, quieto parado, no nos flipemos, porque es que uno es me tiradora de Apple diciéndole que un kiwi es venenoso o una seta es venenosa, de repente han conseguido que el mejor modelo razonador, que es O uno preview que tenemos disponible, pierda un trece por ciento de acierto en problemas matemáticos de primaria. Entonces, puedes elegir ahora mismo lo los dos caminos delante, ¿no? Decir, pues, salir de este episodio super optimista o puedes salir diciendo, uf, aquí la base sobre la que está construyendo todo esto no es sólida.
Bueno, tenemos que pasar a dos o tres temas superrápido, Mathi. Primero, felicitarte porque es la mejor semana del año para la gente que le gusta hablar con piedras, es decir, con GPUs, es decir, con sistema de inteligencia artificial que se ejecutan en la GPUs. No era buena, Mati, porque OpenAI ha traído el modo de voz avanzado a la Unión Europea y ahí. Yest the state.
Eso ha sido bastante rápido. No sé si porque firmaron esos compromisos de la EAJ, o porque hablaron con la Unión Europea y les dijo, bueno, esto no invalida en ningún caso la EAJ, pero ha llegado más rápido de lo que yo esperaba, y a lo mejor ha sido una bajona, ¿no? Porque ahora que lo tenemos, ¿para qué lo vamos a usar? Yo por ahora lo único que hago es conversar con con el modo avanzado de voz en el coche mientras voy de camino al crossfit, porque no se me ocurren muchos casos de uso en el día a día.
Claro, yo estoy practicando un poquito de inglés, eso de corrígeme la gramática y la pronunciación, la verdad es que que que está majo, pero me siento un poco frustrado, lo lo aplicamos en el episodio en que lo habíamos probado vía VPN. Creo que han capado mucho en la parte afectiva de la guía, de del sistema de voz, y que han subrayado mucho la parte práctica informativa. Entonces, bueno, hay algún contexto en el que puedo querer hablar con con el con el chatbot, pero pero, como tú dices, no no encuentro un caso de uso ahí que que sea matador. ¿Quién ha metido también voz? Es Gemini Life, ahora en Google, que tiene su rival y de de ChatGPT.
Entonces, los usuarios de Gemini, pues, ya pueden hablar también con el modelo. Mi impresión, yo tras probarlo es que están en el nivel de chat GPT previo al nuevo modo de voz avanzado, es decir, es una cosa que es como el modo de texto, pero pero pasando de texto a voz, y además, Perplexity, los amigos de los que hemos hablado, han sacado su alternativa a notebook ML, es decir, los, se llaman los espacios de Perplexity y básicamente, pues están recorriendo el camino por detrás de de Google. Entonces, la mejor época del año, Matty, para para charlar con piedras.
Bueno, ya decíamos que esto transforma bastante la barrera de entrada de la IA, que es la interfaz con la que nos comunicamos con la IA, porque al final, digo siempre que yo tengo un uso muy utilitarista con ChatGPT, pero la voz es transformativo en lo que acabas haciendo con la IA, porque yo a ChatGPT le puedo pedir que haga cosas, pero cuando empiezo a hablar con ChatGPT, ya el trato ya de entrada ya es distinto, ya lo trato como si fuera una persona, intento no interrumpir. Me funciona esa ilusión de que no es una máquina, sino que estoy hablando con alguien al otro lado del teléfono. Entonces, para mí, esto mucha gente la puede hacer entrar a usos de la ILA que nosotros siempre tratamos en puerta grande de enfermería, ¿no?
Fíjate que me crucé en Twitter con un colega que decía que él estaba ayudando el modo de voz para reflexionar sobre sus propios pensamientos y sentimientos. Ha empezado a hablar con la IA de las cosas que pensaba y sentía, y que la IA le le ayudaba a explicar esa esa esos posicionamientos. Y yo dije, madre mía, madre mía, la la puerta que se está abriendo aquí, como tú bien has explicado, es insospechada, y no me extraña que que OpenAI haya puesto muchas salvaguardas en en este elemento. Y, vamos, yo sospecho que Mario Draghi estaba deseando usar esto, y Mario Draghi habrá llamado allí a sus colegas en la Unión Europea y decirme, me dejaron a los chavales que nos que nos traigan el modo, porque, claro, necesito hablar con con ChatGPT en modo avanzado, claro.
Sí, es posible. O Macron, que ahora también es como muy pro guía.
Sí, es fácil marxista Macron.
No lo hemos comentado, pero el notebook LM, que solo estaba en inglés, técnicamente sigue estando disponible en inglés, pero ahora, como puedes dar instrucciones para controlar un poco el podcast que te genera, pues una de las instrucciones que puedes darle es que lo haga en español, y entonces salen dos personas hablando en español del tema que la hayas subido. Está bueno.
Mira, ¿sabes qué le voy a meter? Le voy a meter el artículo de Yosuyon Imath, el ex Lindakari, que ahora es directivo de Repsol, que es nuestro Mario Derari, Mattie. Hizo cuna rajada el otro día en La Vanguardia en plan, aquí no nos industrializamos y nos vamos al carajo en el futuro, que es todas las mismas bikes que que el mensaje de nuestro amigo Mario. Entonces, es posible que con con Josu John tengamos ahí un campeón de de la industrialización y la inteligencia artificial español y de de cara al al futuro. Veremos, ya sabemos que en Repsol, lo contamos en el episodio anterior, ganaron dos horas para irse al gimnasio y para y para charlar en la máquina del café.
Yushu, pues, no solo lo pide de cara para afuera, sino que lo está aplicando de puerta para adentro.
A mí me encanta cómo España poco a poco se va poniendo a la altura de los grandes en en materia de inteligencia artificial.
Bueno, Mathi, llevamos mucho tiempo de podcast. Como siempre, tú estás armando, tú eliges algún tema importante comentar. Por ejemplo, San Altman y Satia Anadela puede que estén empezando una pelea, ojo, la capacidad de automejora de la IA, es otro tema que tenemos en en el guion, o la guapo, un tema recurrente. De igual manera, también te digo, el puerta grande viene cargadito.
Tienes que elegir. Es muy difícil, porque me has dejado muy intrigado con la pelea entre Samantha y Satya, pero la guapocracia también es un tema que hemos tratado anteriormente y que me interesa ver si hay novedades, así que no sé por cuál empezamos.
Vea, vamos a ir a a a, a, a, a, a, a, a, Sam y Satya se pelean, porque lo que empieza con poca claridad, luego es difícil de manejar, Mati. ¿Qué el cuál es el pecado original de esta relación? Pues, básicamente, que cuando Microsoft hace esa pequeña primera donación o inversión en OpenAI, OpenAI, digamos, tenía una estructura en la que la parte que no buscaba beneficios o llevaba la el mando, ¿no? ¿Qué es lo que pasa? Que, bueno, si atendemos a lo que dicen distintos medios con fuentes dentro del acuerdo, nos contaron en su momento sobre sobre este, es que, claro, como era una parte sin ánimo de lucro, Microsoft no hizo una inversión genérica o habitual en la que te quedas una parte de la propiedad de la empresa, sino que básicamente el acuerdo era que de los beneficios de OpenAI, Microsoft se quedaba un porcentaje importante.
Es decir, el setenta y cinco por ciento de los beneficios hasta recuperar la inversión, no explicaba la information, y luego el cincuenta por ciento de las ganancias hasta llegar a un máximo de noventa y dos mil millones de dólares, según Forch. Este era el acuerdo original según las filtraciones a los medios de comunicación que parecen tener mejores fuente. Entonces, claro, ¿qué qué ha publicado New York Times esta estas semanas? Que se abren grietas, tensiones entre OpenAI y Microsoft, porque OpenAI, para parte del pago del dinero que le da Microsoft, no es transferencia bancaria, no no no le dan el el la pasta, sino que le pagan en créditos de computación. Es decir, OpenAI usa las máquinas de Microsoft, los servidores Azure, para entrenar y ejecutar sus modelos.
Y aquí hay un poco de de de rifirrafe, Matías.
Es que no me extraña, porque si Microsoft tiene que recibir el setenta y cinco por ciento de los beneficios, yo primero, o sea, Diana Adela, vaya genio del mal, y luego, si fueras a Malmal, lo que quería sería, como son beneficios y no ingresos, pasar como gasto, pues una cenita en el diverso, pasar como gasto varias cositas que vayan vayan reduciendo los beneficios.
Claro. ¿Por qué la gente de OpenAI está empezando a cabrearse, según el New York Times? Porque Microsoft, además de de darle esta inversión a su compañía, mantiene su propia línea de investigación y su propia línea de desarrollo con todo toda la parte de modelos propios, a lo mejor los más conocidos son los fee, que son los modelos pequeñitos, pero básicamente tienen tienen su propio desarrollo de de inteligencia artificial y sus propios proyectos, y además Microsoft está invirtiendo en otras empresas alternativas a OpenEye, como por ejemplo cuando le dieron dinero a la francesa Mistral. ¿Qué es lo que pasa? Que los dependenAI cada vez piden más servidores, más potencia, más capacidad, más ¿Y y y qué pasa?
Que dicen que Microsoft no les está dando lo suficiente y que por culpa de eso es posible que OpenAI se quede atrasada o se quede, o puede un competidor adelantarle, como puede, por ejemplo, puede pasar con Meta, puede pasar con Google, puede pasar con cualquiera. ¿Cuál es la carta de OpenAI? Que hay una cláusula en el acuerdo entre ambas compañías que podía ser la clave para librarse de las ataduras con respecto a Microsoft. Esta cláusula estipula que si OpenAI llega a la inteligencia artificial general, es decir, llega a la AGI, una máquina, pues, ya sabemos, un sistema de inteligencia artificial de nivel humano, como hemos discutido en el episodio y muchos otros, Microsoft perderá el acceso en exclusiva que tiene ahora mismo sobre los modelos de OpenAI. Es decir, el modelo de OpenEye no puede estar en Amazon y y tú ir a través de Amazon y y y usarlo, no, tienes que ir a través de Microsoft, que tiene esa exclusiva.
Pero ¿cuándo se acaba esta exclusiva? Pues cuando se llega a la AGI. Esto estaba pensado porque no querían que si consiguen ese alcance de inteligencia artificial de nivel humano, fuera el monopolio de una única empresa, en este caso, Microsoft. Ahora, claro, ¿qué qué qué es la AGI? ¿Cómo la medimos y cuándo decimos que hemos llegado?
¿Y por qué San Altman dice que va a llegar muy pronto? Pues aquí podemos tener un elemento que nos indique que va a haber mucho interés por parte de OpenEye, hay un incentivo perverso en este acuerdo con Microsoft para vendernos que han encontrado o que han conseguido la AGI.
Bueno, el episodio de AGI hoy es, se viene, se viene, pues te digo que esto lo ha publicado el New York Times, estamos resumiendo un artículo del New York Times, a ver si estamos ahora en ciento cincuenta mil dólares en negativo, monos esto,
¿verdad? Uf, es verdad, es verdad, qué mal asunto este, Bueno, a lo mejor también con esto conseguimos dinero de Telefónica, las gallinas que entran por las que salen, Madrid. Último punto sobre este mundillo de OpenA y Microsoft es que nuestra heroína del podcast, Mira Murati, pues está planeando establecer su propia startup, ya hemos comentado, inteligencia artificial, y está en conversación con inversores para asegurarse cien millones en financiación. Cien millones, ahora mismo, es una cifra modesta viendo cómo está la industria, pero yo sospecho que que Mira nos va a sorprender, que no va a ir a la pelea de los grandes modelos, no va a ir a entrenar un GPT cinco, un modelo análogo a lo que se viene en el futuro, sino que va a tirar por un camino alternativo y original. Entonces, yo tengo mis esperanzas puestas en que en que Mira Murati va a competir de una manera original y diferente, y que vamos a tener ese esa competencia, ese salseo entre Schüzquever contra Allman contra Murati.
Pues, desde luego, lo primero que llama la atención es que la cifra de cien millones de dólares es diez veces menos de lo que le han dado a Iria Sus Kever para su startup. Alguna diferencia por detrás sabrá, a ver qué tipo de modelos propietarios va a entrenar Miramurati y su equipo. Pues sí. Bueno, hablamos mucho de generadores de vídeo en el episodio anterior, pero no podemos dejar de hablar de lo nuevo de Runway. Ya sabéis, esta empresa, que yo creo que es la más puntera en generación de vídeo, Lo hemos leído en paréntesis media, paréntesis punto media.
Ranway presenta at one para animar personajes con Ia. En resumen, sin trajes de seguimiento de estos de traqueo que siempre vemos en los making off de las películas de Marabelle y de de Pixar, de Dreamworks, ahora lo puede hacer cualquiera desde su casa, grabándose con una cámara, porque el modelo transforma el vídeo y la grabación de voz, se sincronizan también los labios, los gestos, la cara en un personaje de animación o realista, el estilo que le pidas. A mí esto me parece una locura. Y además lo que dice Adrián Soleren en paréntesis media, que la presencia de un actor humano hace más creíble el resultado. Bueno, gracias a nuestros amigos de paréntesis media por estar siempre al día de estas cosas.
Y, bueno, se nos se nos va el tiempo, la guapocracia tendrá que esperar otro episodio porque hoy tenemos tremendos temas en puerta grande grande o en Ferrer.
Muy bien, veamos de qué va la cosa.
La competencia, Matti, en el mundo de la inteligencia artificial está llegando a cotas inimaginables. Tik Tok, bueno, PayTunce, la empresa detrás de Tik Tok, ha tenido que despedir a un Inter. Bueno, un Inter muchas veces lo traducimos en español por un becario. Bueno, es es algo más que un becario porque no es un empleado en prácticas, ¿no? Un empleado con poca experiencia.
El caso es que los GPUs en estas empresas son escasas, están muy discutidas, están muy peleadas, ya hemos visto el caso de OpenAI enfadadillos con Microsoft. Bueno, en big danks y y su capacidad de tener GPUs, pues, todavía más grave, porque sabemos que hay un veto Estados Unidos a la venta de de GPUs de Nvidia a a este país, entonces, bueno, se tienen que apañar con lo con lo que tienen a mano. Entonces, claro, como hay muchos proyectos dentro de las empresas para usar inteligencia artificial, ¿qué es lo que hacía este este inter, este empleado en prácticas de TikTok? Para conseguir que le dieran tiempo a sus proyectos, saboteaba los proyectos de otro. Es decir, claro, ¿cómo consigues tú que tu proyecto de ella se desarrolle bien dentro de de tu empresa?
¿Cómo puedes conseguirlo? Pues a lo mejor no es obteniendo geniales resultados con lo tuyo, sino consiguiendo que los resultados del resto de empleados sean un desastre. Entonces, esta noticia ha dado la vuelta al mundo en que en que TikTok está echando a gente por sabotear proyectos internos.
A mí me parece que sí funcionan muchas empresas. Yo, por lo menos, empresas en España creo que hay muchas que internamente funcionan así.
Ya, por ejemplo, en una empresa de medios, ¿qué hace? ¿Se entran en el artículo de otro y le pones faltas de ortografía? Hay que ser un poco perro, ¿no? Yo creo que también, para un poco, sí, para tener un poco de mala de de mala baba para para hacer este tipo de de rollos, Yo aquí, yo lo veo un poco más enfermería, porque nosotros tenemos que animar a a la colaboración y al desarrollo, es decir, a lo mejor uno de estos proyectos de de TikTok, ¿no? Que ha saboteado este empleado, era algo en el que todos aparecemos, ¿no?
Nosotros conseguimos aparecer guapos, divertidos e inteligentes en TikTok. Imagínate que ese filtro ha sido saboteado y de repente nos tenemos que mantener con nuestra realidad objetiva representada en en las plataformas, lo cual nos va a nuestro favor, Matty. Entonces, han podido sabotear un proyecto que nos interesara. Ahí me preocupa.
No sé, yo también te digo que como TikTok me parece cocaína del siglo veintiuno, para mí que se saboteen entre ellos y que la cosa acabe color de hormiga porque no Es una es una cosa que me supera, ¿no? La adicción a TikTok yo siempre lo tengo borrado.
Sí, sí, yo también intento utilizarlo poco. De hecho, yo tengo la teoría de que el contenido de TikTok es bastante malo. Me explico, ¿por qué hacemos tanto scroll y tanto scroll y pasamos de vídeo de vídeo? Porque si un vídeo fuera bueno y nos convenciera, nos quedaríamos mucho más tiempo y lo y lo veríamos y y nos entretendría el vídeo en sí, Pero realmente, como lo que nos engancha es esa chute de dopamina del cambio y la novedad, realmente estamos enganchados más a ese círculo dopamínico que han hackeado la plataforma y el contenido realmente es que es malo. En fin, esa esa es mi conclusión.
Pero hay otro proceso en marcha, Mathey, en la sociedad, que yo lo he llamado la alucinación inversa. Es el proceso por el cual empezamos a ver inteligencia artificial en todas partes, en el que contenido humano, que hasta ahora no no nos causaba problemas, ¿no? Y no nos no nos interpelaba y no nos generaba dudas, pues, de repente, empezamos a decir, no, no, esto no puede ser verdad, esto tiene que ser IA. Lo he visto con las fotos de Donald Trump en el McDonald's, en el que el el tuitero populis update, bueno, ahí está, ese tuitero, dice, esta es la foto con más vibras de inteligencia artificial, no siendo inteligencia artificial de la historia. Donald Trump ofreciéndote un paquete de patatas fritas de de McDonald's.
Es totalmente cierto esto. Es esta foto, si no hubiera visto vídeos de Trump trabajando en el McDonald's, bueno, trabajando, por lo visto, estaba todo armado, ¿no? Estaba cerrado el McDonald's realmente. Te diría que esto está hecho con la última versión de Midjourney. Es que hasta el contraste, y a lo mejor el fotógrafo lo ha hecho un poco a propósito, Es una foto, alucinación inversa es la definición perfecta, Antonio, te felicito.
Sí. Es que además, los padres de una escuela en Estados Unidos han demandado a a la escuela estadounidense siempre están en un tribunal, que calificaron, le dieron una mala nota a un estudiante por haber usado inteligencia artificial para completar una tarea. Claro, el estudiante dice que no lo usa en inteligencia artificial, pero los profesores y la y la institución no están de acuerdo y entienden que usó inteligencia artificial. ¿No? Y entonces ahí está el pleito, ahí está la duda.
De hecho, un una queja que se está haciendo general en el que estudiantes académicos y desarrolladores software afirman que los detectores de escritura de inteligencia artificial tienen más probabilidad de marcar falsamente ensayos escritos de forma más genérica como por escrito de herramientas por IA. Es decir, si tú eres, pues tienes poca poca avergueación, ¿no? Es decir, poca diversidad en el vocabulario, el estilo de frases, los giros, eres más bien más plano, más directo, buscas un un una claridad y una concisión y tu discurso es muy regular, los sistemas de detección de esto está hecho por IA o no, es más probable que te den positivo que a otro contenido que sí ha usado la inteligencia artificial. Por lo tanto, en este caso de alucinación inversa, hay muchos damnificados. Es decir, toda la gente que no tiene, que es más regular, pues de repente se ve señalada, Matías.
No, esto a mí me preocupa mucho porque la lo que es mi léxico, además tengo la mezcla de haber crecido con lunfardos argentinos y y luego haberme criado en Andalucía también, me preocupa mucho esa neutralidad con la que hablo y con la que escribo, porque al final van a pensar que soy una guía también, o estamos viendo IAs en todas partes, y lo que se me ha ocurrido es estudiar a fondo los vídeos de Spock esponja.
No sé
si conoces a Spock esponja, pero es este streamer, Instagramer, que tiene referencias para absolutamente todo, además referencias muy millennials y noventeras. Me gustaría empezar a estudiarlo, igual que quiero estudiar chino, empezar a estudiar los vídeos de Spock esponja para introducir un poco más de juegos de palabras, expresiones y y temas que puedan ayudarme a no parecer una Ian.
El problema es que tendrás que acabar rapeando, Matías. Entonces, bueno.
Eso es como el saber y ganar, ¿no? El el rap este de de saber y ganar va a quedar
Claro, eso nunca lo hubieras pensado generado por Ia. Es decir, Matías, tú tienes que elegir o te metemos en el cajón de has sido generado por Ia, ¿no? Me estás engañando o rapeas. Aquí están los dos caminos en la vida, Matty. A veces las las cosas no son sencillas.
Yo creo que la imagen mía rapeando me perseguiría toda la vida, y que nada, prefiero parecer un año.
Bueno, te voy a traer un último caso para el portacanto de enfermería y le anticipo una cosa, Mati. Estoy en tus manos porque nunca antes había tenido esta tentación de hacerme antiía, de hacerme receloso del avance tecnológico y de levantar una muralla ante los progresos de estas empresas tecnológicas que nos alienan. Me crucé con una declaración de San Alma. Sí. San Alma va por ahí con tanto sus cosas y dijo un par de frases, un par de pactos que mandan mucho que pensar esta semana.
Dijo, somos la última generación que no espera que todo lo que nos rodea sea más inteligente que nosotros. La IA estará en todos los lugares y en todos los objetos. Esto me da mucho que pensar, Mati, porque, vamos a ver, yo tengo una buena relación con mi Thermomix, ¿vale? ¿No? La Thermomix, pues bueno, las lentejas, el pisto manchego, también me ayuda a hacer a hacer la porra, hago la porra en la termo.
Entonces, claro, tiene una relación buena con ella, pero si la termovía es más lista que yo, no estoy seguro de que eso sea un cambio positivo. Es decir, ahora la miro con más recelo. Mira, bueno, a ver si yo estoy haciendo ahí la porra con con porra, la receta archivonesa es la que yo hago, o hockey. Y de repente la ILA la la ILA de la Thermomix, que se cree más lista que yo, empieza a corregirme, diciendo no, no, no, que te has pasado de pimiento o va va flojita de vinagre. Bueno, es que a mi mujer no no le gusta tan fuerte la la porra.
Y si la de Thermomix empieza a corregirme y empieza a a ponerme peros y empieza a a rozar conmigo. Pero tuve otro pensamiento, Matty, este y este es lo que me llevó a empezar a ser un poco antiguía. En las pasadas navidades, mi familia me regaló un sacacorcho de estos de pino eléctrico, ¿no? Es es muy práctico porque, bueno, en vez de hacerlo manual, como como como lo hace la gente habilidosa.
Sí.
Pues, para gente que es un poco menos habilidosa como yo, pues tú lo pones encima, le le pulsas y saca el corcho del vino. Y me dijeron lo siguiente. Hemos encontrado este que es muy bueno, pero nosotros queríamos regalarte el sacacorcho de Pertino Vorne. Vale, entonces, con la idea de Sam Altmann, si yo tuviera el sacacorcho de Pertino Vorne, claro, estaría equipado con inteligencia artificial. ¿Y a qué nos llevaría esto, Mati?
Nos llevaría a que, a lo mejor, podía tener el modo de voz, pero con la voz de Bertín Osborne. Es decir, tú tendrías un sacacorchos de vino con la voz de Bertín Osborne, a lo mejor te puede cantar sus canciones, Buenas noches, señora, Buenas noches, señora, la ranchera mexicana que cantaba Bertín, y de repente tú tienes en tu sacacorchos a Bertín Osborne y además lo que es más grave, más inteligente que
tú. Claro.
¿Te das cuenta a dónde estamos llegando? Es decir, ¿tú quieres vivir un mundo, Mathi, en el que el sacacorcho de Bertín Ovorn es más inteligente que tú y sabes más cosas que tú y, además, te canta buena noche, señora, buena noche, señora? ¿Este mundo insospechado y terrible es el que queremos para nosotros y para nuestros hijos? Ahí te lo digo.
Es un futuro horrible, es un sacacorchos que que te diría, ya no se pueden hacer chistes de mariquita, te dice de repente el sacacorchos, pues no es un buen sacacorchos. Yo te propondría, Antonio, dividir, y esto se lo voy a escribir a la Comisión Europea, dividir los electrodomésticos entre potenciales perros y potenciales gatos, porque los perros son amigos fieles y son, pues, ese animal que siempre te va a apoyar en todo y que te va a perdonar absolutamente
todo y que no te juzga, aunque estés viendo hentai un
sábado por la noche, ¿no? En cambio, estés viendo hentai un sábado por la noche, ¿no? En cambio, el gato te odia. El gato es un animal que te detesta, que sabe que depende de ti, pero si pudiera hablar, si pudiera hablar, probablemente te diría cosas muy hirientes. Entonces, por ejemplo, la Mini Pymer, la Mini Pymer yo no quiero que tenga inteligencia artificial, porque yo sé que la Mini PyME sería un gato, es, no me gusta.
A lo mejor el microondas podría ser un perro, entonces no me importa que tenga inteligencia artificial.
Pues, Mathey, yo siento cerrar el capítulo así. Es decir, aquí siempre sí hemos sido generalmente optimistas, un poco escépticos, pero por desarrollo tecnológico, ¿no? Por desarrollo industrial, innovación y avances hacia el futuro. Pero, bueno, a veces la realidad nos golpea. Todo este escenario que piensan San Altmann y Bertín Osborne creo que a mí me hace reflexionar, y a partir de ahora, fíjate, tú lo has dicho muy bien, ¿no?
Que que entre la Unión Europea aquí. Aquí sí que yo veo riesgos sistémicos, porque si el sacacorcho es más listo que tú, yo creo que los señores maduros entraremos en una crisis que que no sé a dónde nos va a llevar, Matías.
Pues nada, con este mensaje y este aviso a los reguladores cerramos el episodio tan variado y tan completo que habéis escuchado. Un abrazo a todos.
Chao, Amics.