El espíritu de Fernando Alonso llega a la inteligencia artificial

00:00 /1h08

La gran guerra por el mejor modelo grande de lenguaje de 2024 tiene un gandor provisional: Claude 3 Opus.

Patrocinador: Hoy os recomendamos el Master en Innovación e IA de Fouderz en colaboración con Microsoft. Te enseñan desde los fundamentos de la IA al uso profesional de IA generativa, la creación de GPTs propios, dashboards con PowerBI, Copilot, Notion y hasta publicar un chatbot, todo con no-code. Tenemos descuento del 20% para los 100 primeros inscritos con el código "20MONOS"
https://founderz.com/es/programa/master-inteligencia-artificial-online/

Además:

- La IA ya es capaz de una persuasión sobrehumana

- Más problemas para los actores de doblaje: OpenAI ya tiene su modelo de voces sintéticas

- Amazon sigue metiendo pasta en Anthropic, creadora de Claude

- OpenAI y Microsoft harán una supercomputadora de 100.000 millones de dólares

- Sam Altman también pide perras para hacer un dispositivo personal de IA con Jony Ive

Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com

Transcripción


Bienvenidos a un episodio más de monos Estocásticos. Somos Antonio Ortiz y Matías. ¿Sabía? ¿Cómo estás, Antonio?

Estoy preocupado, Mati, estoy

preocupado ¿Qué ha pasado?

Con con mi hijo, es que los los hijos nos dan muchas preocupaciones, Mati, y yo, a Bruno, estoy concluyendo que no le veo a futuro en la inteligencia artificial.

Me estás preocupando, pero ¿por qué?

Porque a Bruno le le pusimos la paga, ¿no? Digo, uno tiene quince años y tiene como una paga mensual para para sus gastos cuando sale y esas cosas, ¿no? Y yo le dije, Bruno, tú a principio de mes te tienes que acordar de venir y pedirme el dinero, que yo, pues, se me puede pasar, estoy en otras cosas, ¿no? Y ni un mes, ni un puñetero mes se ha acordado él de venir a pedir la paga, a pedir el dinero. Entonces, en la tarea más importante de la inteligencia artificial, Mathy, que es pedir perras, ¿no?

Tú coges un un nombre de referencia en la IA, Sam Altmann, ¿qué es lo que mejor hace Sam? ¿Qué es lo que más hace Sam? Pedir dinero por ahí, todo el día, todas las semanas. Y en cambio a Bruno no no le veo bien dotado para para esta tarea.

Sí, tú querías que saliera aceleracionista efectivo y te has salido altruista efectivo contigo. Es raro, ¿no? Porque la la lo la chavalada está tan obsesionada con los ingresos pasivos, qué ingreso más pasivo que una paga. En fin, vamos con la inteligencia artificial. Hoy tenemos, la verdad, temas muy interesantes que tratar porque, bueno, una vez más la actualidad nos ha comido estas últimas dos semanas, porque el episodio anterior, si no lo habéis escuchado, es un episodio especial que hicimos en directo, en la Skye, y que, bueno, ha recibido buen feedback, por si no lo habéis escuchado, y ahí lo tenéis.

Vamos a hablar de persuasión, para empezar, antes que nada, pasamos de abocados a persuasión. Esto, lo lo te voy a te voy a comentar una cosa. Por lo visto, la IA ya no supera en persuasión.

Bueno, hay hay un estudio que que da que pensar. Bueno, lo primero es que estamos sobrepasados por la actualidad, es decir, tenemos un guion como para cubrir cuatro horas de monosistocásticos. Hay quien nos ha pedido más tiempo de de podcast, Home Mc Dick, que hay gente que que no se cansa de nosotros.

Que esto da para diario.

Sucesos inesperados. El caso es que vamos a meter una noticia que es un poco, pues, que que está menos bajo los focos, pero que a mí me ha resultado superinteresante. Este estudio, que que al que nos referimos, pues puso a seres humanos a charlar con otros humanos o con modelos grandes de lenguaje, es decir, con, en concreto usaron GPT cuatro, y en esos debates lo que medían era la capacidad de los modelos de los grandes lenguajes o de esos otros humanos de conseguir hacer cambiar de opinión a los sujetos, a los a los que ayudaban en el estudio, a los que participaban en el estudio, y los resultados son bastante interesantes, porque sí, ni participantes ni modelo de inteligencia artificial tienen mucha información de con quién están hablando, pues tienen niveles de percepción similares, pero sí tienen información de con quién están hablando, estoy hablando con Matías, que es un articulista de tecnología, periodista, que es Marbelli español argentino, que tiene esta edad, que le gusta el crossfit, ¿no? Cuanto más información tenían, más subía la capacidad del modelo de inteligencia artificial, del GPT cuatro, para ser persuasivo y hacer cambiar de opinión a los sujetos, mucho más que lo que eran capaz de hacer otros humanos.

Por lo tanto, en todo, la conclusión del estudio era que la inteligencia artificial ya es más persuasiva que nosotros, Paty.

En concreto, los participantes que estaban debatiendo con GPT cuatro, si GPT cuatro no tenía información sobre sobre ellos, tenía aún así un veintiún por ciento más de probabilidad de, pues de persuadir, y en cambio, si tenía información, era un ochenta y uno coma siete por ciento más persuasivo que los oponentes humanos. Esto, lo que más me sorprende, es que lo predijo Sam Alman hace un año, bueno, en octubre del año pasado, y a mí me hace pensar, ¿qué qué conocimientos maneja Sama Alman dentro de OpenAI para que ya el año pasado le preocupara la capacidad súper humana o sobrehumana de persuasión de los modelos de lenguaje?

Claro, Matti, aquí atención, yo yo voy a tres takes muy claras. Una es, ICGPT cuatro ya ha persuadido a todos los empleados de OpenEye y no son más que títeres y marionetas en su confabulación de dominación mundial, porque es muy persuivo. Por lo tanto, quienes más expuestos están, más persuadidos pueden acabar estando. Esa es la primera. La segunda, esta es una propuesta para el podcast, Mati.

Aquí hacemos promociones, hacemos publicidad, estamos, más estamos muy contentos porque tenemos casi todo vendido de aquí a a al otoño. Y sí, cuando hacemos la promo nos callamos nosotros, Mati, y y enchufamos a GPT cuatro a vender el producto, que convencerá mucho más a la audiencia que tú y que yo. Puede ser una solución comercial que yo ahí la dejo.

Este, claro, es que esto abre un mundo de posibilidades. Si OpenAI maneja los mejores modelos persuasivos, podría hablar con sus empleados y decir, ¿por qué te vas a ir a Google por un millón más al año cuando te puedes quedar aquí por quinientos mil, que estás tan bien, que vives muy cerca de la oficina? Pues no lo sé, y bueno, y si ya abrimos el melón de el tema político, ya recordemos lo que pasó Cambridge Analytica, ¿no? Pues imagínate esto aplicado a a modelos de lenguaje super persuasivo, ¿no?

Claro, es que fíjate, yo creo que aquí puede haber un montón de casos. La gente del marketing seguro está afilando sus cuchillos con con todos estos temas. Hay un tema de desarrollo ético con con estos modelos, pues, claramente, es decir, ya sabemos que hay mucha ideología que va a estar codificada en estos modelos de inteligencia artificial y hasta qué punto se les puede empujar a intentar persuadir hacia ciertas partes. Esto lo pueden ver incluso organizaciones y sistemas educativos como algo positivo. Y sí, el chatbot con el que estudian los chavales les anima a estudiar más, les anima a tener hábitos más sanos, les anima, ¿no?

Empiezas a pensar en cosas buenas, ¿no? Les animas a a ser a a a luchar contra el acoso escolar, bueno, en fin, que que puede ver gente que diga, pues, vamos a intentar usar esto para lo bueno y no para para lo malo. En todo caso, claro, se abre una una vía de de exploración porque en los chatbots se produce mucho intercambio de información personal. Solo por tu lenguaje se puede inferir mucho de tu edad, de tu localización, de tu clase social. Tendemos a compartir cosas íntimas y cercanas, les puedo hacer una pregunta de salud, les puedo hacer preguntas profesionales.

Entonces, va a haber mucha cesión de esa información, que es el escenario en el que el chatbot podría ser más persuasivo.

Bueno, no te hayamos preparado un GPT cuatro súper persuasivo para hablar de esta promo, pero estamos muy contentos porque nos patrocina la gente de founders que, creo yo que los oyentes de monos estocásticos deberíais ya conocer founders, porque tienen un máster de innovación en inteligencia artificial en colaboración con Microsoft, que es de lo mejorcito que hay, y te enseñan bastantes cosas muy prácticas, como crear tus propios GPTs, IA generativa en temas audiovisuales, en temas más empresariales, pues dashboards con Power BI, de Microsoft, Copilot, enseñan un montón de cosas. Además, Antonio y yo hemos estado metidos, hemos visto los vídeos, nos ha encantado la experiencia y tienen este canal de Discord en el que, Tocco, la la gente que está haciendo el máster, pues pone ahí a a debatir sus prácticas, ¿no?

Sí, es un máster en remoto, que es máster online, y a mí hay muchas cosas que me han interesado y que me han gustado mucho, porque hay muchas herramientas de Microsoft, pero, por ejemplo, se meten también a fondo en un en un Notion. Luego puede, es un máster en el que entiende cómo funcionan las cosas, pero también haces, pero no haces hasta llegar a ser un programador de un inteligencia artificial. Todo con no code y, por tan, y pero por con no code puedes hacer un montón de cosas. Yo he visto de la las clases, vas a publicar tu propio chatbot, que están interesantísima. Entran en segmentos verticales sobre seguros, agricultura, entretenimiento, tienen clase muy especializadas en educación.

Súper completo, Matty, Fundas.

Pues bueno, no solo va recomendado por monos estocásticos, sino que nos han dado para los oyentes un descuento especial de, ojito, el veinte por ciento para los primeros cien inscritos que estéis escuchando esto. Así que si os interesa aprender sobre inteligencia artificial de una forma práctica, de una forma aplicable a tu vida profesional, pues ahí tenéis el máster de innovación EIA de founders.

Código veinte monos and founder. No lo olvidéis. Y hablando de percepción, Matty, ¿sabes lo que persuade más? Pues lo que más persuade, Matías, es la voz.

No me extraña, por eso estamos viendo tantas estafas que se basan en en voces sintéticas, ¿no? Pues el que faltaba ha parido la abuela porque OpenAI ha presentado su propio modelo generador de voces sintéticas, pero como viene siendo habitual en OpenAI últimamente, no lo podemos probar, ¿no? Un grupo muy selecto de gente tiene acceso a él, y lo que podemos escuchar es una serie de ejemplos escogidos, imagino que con un poco de cherry picking por parte de OpenAI. Tampoco siento que me hayan volado la cabeza, porque ya tenemos herramientas muy potentes, incluso algunas que se pueden probar gratis, como las de Eleven Labs, Y OpenAI llega un poco tarde a esta fiesta,

Sí, y muy prudente. Creo que quizá cada vez pareciéndose más a Google, es decir, tenemos esta tecnología intelitecial superlativa, pero no la podéis usar, no la podéis probar, queremos estar muy seguros de que se emplea para el bien. Y, bueno, yo creo que la las elecciones estadounidenses van van a topar mucho mucha puesta a producción, Matty, hasta que hasta que pasen creo que van a ser muy muy muy prudente. Tú lo has dicho, esto es un eleven lapse, es decir, tú con quince segundos escuchándote ya es capaz la inteligencia artificial, el voice engine, de imitar tu voz y hacerles decir lo que tú quieras. Puedes, con esa misma voz, declamar un texto de entrada, puedes que un texto de entrada, declamarlo con con otra con en otro idioma, bueno, puedes puedes darle inflexiones, pues, emocionales.

En principio, está chulísimo. De hecho, hay una manera de probarlo o verlo en producción, que es usar ChatGPT en la aplicación y charlar con él, con con con el ChatGPT, y esa voz es una voz generada con este Vice Engine de de OpenEye. Claro,

el tema, el temor no es que tú sintetices un texto con una voz random que no de una persona que no existe, sino que el temor es que uses un audio de referencia de una persona real y utilices esta herramienta de OpenAI para generar texto, pero para generar audio sin su consentimiento, ¿no? Y, de hecho, se han asegurado mucho de que tengas el consentimiento de esa persona que usas como voz de referencia, así que, extrañamente cautos, se está se le está poniendo cara de de Google Open AI, ¿no?

Hay algunos críticos, por lo general, yo creo que, ya sabes mi posición, yo creo que la mayoría de de los de los miedos y alarmas están un poco exageradas con la inteligencia artificial, pero con la voz fíjate que a ti sus los argumentos de estos críticos, de estos alarmistas, no me suenan tan desenfocados. Es decir, su punto de algunos es, no tiene esta síntesis de voz con la inteligencia artificial muchos más casos peligrosos que beneficiosos. Claro, porque tú dices, está la estafa del hijo o del del hijo desamparado que necesita una transferencia, la estafa la estafa del del CEO en apuros. Está esa parte en la que se usa la biometría de la voz para autenticarte en servicio. En Europa no tanto porque tenemos otra otra normativa, pero en Estados Unidos parece que es más habitual el en la banca tener estos este tipo de sistemas.

En fin, que que en esta también simulación de poder denigrar de Matías ha dicho estas barbaridades, tengo aquí el audio, No sé, se acumulan mucho las las situaciones en las que vemos, claro, que puede haber usos perjudiciales luego, ¿verdad? Que hay los usos beneficiosos. Gente que ha perdido la voz y que, de repente, puede volver a sintetizarla y hablar con su propia voz, en usos artísticos, por ejemplo, pues proyectos inacabados de de de alguna estrella televisiva, como el cocinero este de Bourden, que que le simularon la voz para para acabar su su capítulo. Hay usos artísticos, el Agear no me acordaba del nombre, pero este este este podcast tan famoso en el que se simuló la voz de Franco, no me volverá. Bueno, hay un podcast muy famoso.

No sé si era ex rey, pero pero uno de estos.

Era el ex rey, era el ex rey. No se usa para falsear y hacer que Franco dijera cosas que no dijeron, sino para que las cartas de Franco que envió, por ejemplo, al padre del del rey Juan Carlos explicando cuando no, porque, ¿no? Explicándole, diciéndole, tú no vas a ser rey, vas a ser tu hijo, pues la la meten sonoramente con la voz de Franco. Entonces, tiene un sentido narrativo y queda, pues, realmente muy bien, y será un trabajo muy fino porque lo hicieron además mucho antes de que apreciaran los los modelos que lo ponen tan fácil. Entonces, bueno, y luego tenemos los memes, Mati.

Es que, ¿cómo gana un audio de WhatsApp cuando lo mandas con la voz de Yado? Es una cosa increíble. Yo lo que será que

Sí, además tenemos un amigo en común que cada vez que sale una herramienta de estas nos manda algún chiste o con monos estocásticos o o referente a ya dos, y bueno, yo lo que me alegro es que por fin Carlos Latres se ha quedado sin trabajo, ¿no? Ese hombre lleva ¿cuánto cuánto tiempo lleva trabajando de los mismos personajes? Y y ahora ya no hace falta, ¿no? Porque con quince con quince segundos de de cualquier audio puedes puedes imitar.

Bueno, está muy está muy bien que sigas haciendo amigos del podcast, Carol. Bueno, fíjate, hace poco con con la gente de Cope colaboré en una en unas clases, un máster que tiene con con la Francisco de Victoria, y también he hablado con algunos periodistas para sus reportajes, sobre los dilemas de los actores de doblaje, Mati. Porque con todo esto de la voz sintética, el uso profesional va va a estar claramente ahí y, claro, está el riesgo de los actores de doblaje que puedan ser sustituidos, pero tienen un dilema porque hay varias posibilidades, hay varios escenarios disponibles, Matías, y y, bueno, no tienen tienen una encrucijada complicada. Primero, pueden ser sustituidos por voces puramente sintéticas, es decir, no por voces que le imiten a ellos, ¿no? Que emiten a un actor concreto famoso y que usen esa voz, sin una voz completamente sintética y nueva, por lo tanto, el mayor riesgo es es ese.

Luego, pudiese sustituido por los actores originales. Leonardo DiCaprio en español, a partir de ahora, podría empezar a ser Leonardo DiCaprio con su voz original, pero españolizada. Y eso es una vía, porque podemos imitar la voz de Leonardo DiCaprio. Y hay una tercera vía, una tercera opción que se está empezando a plantear y que tiene que ver también mucho con el con el lo el acuerdo y la negociación de los sindicatos de actores en Estados Unidos, que es lo siguiente. Tú eres un actor de doblaje famoso, tu voz gusta mucho, te nos gustaría tenerte en muchos proyectos, qué tal si clonamos tu voz con inteligencia artificial, pero en esta sustitución, tú cada vez que lo usemos cobras royalty.

No vas a cobrar como si la doblaras e hicieras todo el trabajo, pero sí, cada vez que usemos tu voz vas a cobrar una pequeña fracción. Por lo tanto, la casuística posible con los actores de doblaje es es, bueno, es difícil posicionarse ahí, ¿no? Si te toca.

Yo creo que aquí lo van a tener más fácil los actores de doblaje, por ejemplo, Carlos Revilla de Los Simpson es más difícil, está fallecido, claro, y luego el doblados que le siguió no no era tan bueno. No es tan fácil de conseguir porque se inventaba la las interpretaciones de de de los chistes y las adaptaba muy bien a al español, no sé si era trabajo del traductor o de Carlos Revilla. Pero luego los que son más insulsos, que suele ser como la media de de actores de doblaje y de voz de de la actualidad, me parece que son más fáciles de sustituir por una IA, ¿no? Creo que, por ejemplo, nosotros dos, monos estocásticos, es más difícil de imitar con por una IA, por lo mal que hablamos y vocalizamos y pronunciamos

Claro.

Que que un podcast que de estos que voy a leer un guion. Las noticias de esta semana son tal y cual.

Oye, esa boca has puesto a Mathis, es una voz muy pro, Es verdad que si, además, si metes inteligencia artificial para quitar los los defectos, los silencios incómodos, los que a veces yo meto, también le quitas un poco de autenticidad y de y de cercanía que tienen los podcast indies. Pero bueno, vamos, yo veo un montón de diferencia en, por ejemplo, en un audiolibro que esté narrado por una voz buena, que te clame bien, que que tenga esa personalidad, no que sea técnicamente irreprochable, pero sí que tenga esa llegada y esa cercanía, que que me llene el oído. Entonces, una voz de de ese calibre creo que tiene un un valor enorme. Y hablando de audiolibros, quien se puso las pilas hace tiempo con con esta opción es Amazon con su Voice Studio, Matías.

Esto, el que haya escuchado desde el principio, en modo estogásticos lo sabe, yo estoy obsesionado con dos cosas, que me resuma en PDFs y pueda charlar con PDFs, y que me lea una voz sintética generada por inteligencia artificial, artículos largos, audiolibros, etcétera. A mí me da un poco igual si es o no una voz sintética, porque esos manerismos y esas tonalidades ya se pueden conseguir con Ia. Puedes narrar un audiolibro con diferentes voces en en cuestión de minutos, ¿no? Le le dices a a la IA que que se pare en diferentes voces, y más o menos la Ia interpreta la tonalidad que le tiene que dar a a las diferentes partes del libro, y yo creo que puedes conseguir un resultado que yo lo compraría, yo lo escucharía.

Claro, se en en el caso de los audiolibros, creo que sobre todo es interesante para la gente que se autopublica o para editoriales con con muy poquitos recursos, porque, claro, rebaja un montón la barrera de entrada, es decir, el coste de tener la versión audiolibro de tu libro. Entonces, cuando no tienen dinero o presupuesto para hacer ese doblaje, para hacer esa interpretación, pues ya a lo mejor te te viene bien conformarte con una voz que aunque no sea perfecta, redonda, maravillosa, pues te puede valer para para lo mínimo y tener presencia. Entonces, claro, creo que va a haber mucho más audiolibro porque los costes de entrada de conseguir la la versión, pues van van van a bajar mucho. Y donde estamos en el momento, Mathi, y está relacionado con la voz, es la el momento efervescente de la música generada con inteligencia artificial.

Jopeta, yo no sé si yo estaba de viaje o era la semana de las GAE, pero de repente me conecto a Internet y está todo el mundo generando canciones, no no precisamente con la herramienta de Stable Diffusion, o de Stability AI, mejor dicho, sino con otra de la que hablaremos después, pero una de las que se ha presentado estos días es Stable Audio dos punto cero, de Stable Diffusion, que permite eso, generar canciones de una duración de noventa segundos a partir de de un prompt, y además con con resultado increíble, o sea, cuidado aquí ciertos cantautores.

Stendle, yo estaba probando las dos, estaba probando Stable y la que yo creo que tú te refieres con resultados increíbles que es Suno. Cuando han sacado el V3 desde el último modelo, lo de Sunos sí es de esperarte la cabeza, es bastante bueno. Stable no he conseguido que me cante una letra bien en español, bueno, a lo mejor también ha sido fallo, bueno, que no que no le he dedicado el suficiente tiempo, no le he puesto cariño a los promp. Bueno, no no me ha tirado tan bien, pero ese salto, Mattí, se da con su no, con con el v tres, que creo que está, bueno, es una cosa bastante loca, ¿no? Entonces, vamos a dedicar un episodio entero a la música, a la creación de música de una inteligencia artificial, a la visión del artista, al impacto en la industria musical.

Pero yo te adelanto una una una cosa que veo, Mati, que es que, claro, ha ha salido un manifiesto de un montón de gente de la música diciendo que esto, bueno, esta sustitución, pues está muy mal, que es deshumanizadora, que no tenemos que dejar que que se pierda ese toque humano en la en la música. Pero, claro, yo lo que he visto con Tzuno es que la gente hace canciones muy especiales. Por ejemplo, en el artículo que hiciste en Chataca, pues había una canción sobre los comentaristas de Chataca, como algunos están a favor de China, por ejemplo. Claro, Billy Ellis, que firma el manifiesto, nunca le haría una canción a los a los comentaristas de Chataca. O, por ejemplo, yo me crucé con una que se me metió en la cabeza, una canción hecha con Suno, que no me la pude quitar de la cabeza en dos días, que, pues, versaba sobre una cosita que había hecho una famosa activista, creadora de Internet, barra influencer, y era una canción un poco humorística a partir de esa experiencia.

No no citaremos cuál, pero el caso es que esa canción nadie, ningún artista en su sano juicio dedicaría tiempo a hacer una canción sobre este tema, pero yo creo que puede ser que la herramientas de ya aborden ese mercado de de lo de lo poco visto, ¿no?

Claro, es que en contra de los firmantes del Manifesto, el noventa y nueve por ciento de las canciones versan sobre amor o desamor y o desamor. Y que tú puedas hacer una canción sobre este caso que tú mencionas de una influencer que rima con cipote grabando a un señor haciéndose un pajote, pues esto no lo puedes conseguir en la industria musical, solo puedes conseguir en tu casa con una con inteligencia artificial como es uno. Sí. Porque se ha democratizado, se ha democratizado la música.

Yo hice una prueba, le dedico una canción a a mi hija y y cómo nos gusta cocinar torrijas, a Bruno y lo bueno que es jugando al Fortnite, y también he preparado una canción para turismo de Carta Mamestación. Carta Mamestación es una población que, al contrario que el resto de la provincia de Málaga, no no acaba de de de explotar su su potencial. Entonces, qué mejor que un buen jingle para para que este verano los turistas digan, no queremos más marbella, no queremos más Torremolinos, ven al Madeena, Tepona, fuera, carta a la estación, que es donde está donde está el meollo, ¿no?

Me la tienes que pasar, la la voy a poner de, en lugar de la música de monos, la pongo de auto de de este episodio.

Sí, bueno, no no no me gustaría perder oyentes porque viene un tema importante, Matti. Hay un tema gordo que que yo creo que esto es la gran guerra por el mejor modelo grande de lenguaje, el mejor de inteligencia artificial de dos mil veinticuatro, Matías.

Esto se venía barruntando en los episodios anteriores de monos estocásticos, lo veníamos comentando, cuidado, porque el RAID ya no es GPT cuatro, que parece que hay un consenso general de que lo que está haciendo Anthropic con Cloud tres, y no solo con la versión Opus, que es más potente, sino también con la versión HiQ, que es más rápida, más eficiente, pero más pequeña a nivel de de parámetros, etcétera, la gente se está migrando, está migrando de GPT cuatro a cloud.

Sí. Bueno, la la gente que no es europea sobre todo, porque Cloud tres, Soft Plus, no lo podemos probar en España. Entonces, en España ni en Europa, yo creo que es por DSA, DMA, que los datos se queden en Europa, todo ese tipo de de movidas, ya empezamos a estar acostumbrados. Pero es es es esa sensación. No es tanto solo Cloud tres, Opus, que en la arena de Haging Face, en la chatbot de Arena tienen como un sistema competitivo de de chatbots, pues Haging Face ya ponen como ganador a Cloud tres.

Es la sensación de que Jamie ha avanzado mucho, de que en ventanas de contexto está muy superado GPT cuatro, de que Mistral es No supera GPT cuatro, pero está en la misma liga, ya compite ahí. Entonces, es es esa sensación y lo que viene y lo que viene en dos mil veinticuatro, porque Amazon, de los que hablábamos muy poco, a pesar de que de de tu amistad íntima con Jeff Bezos, viene viene fortísimo. Primero, metiendo pasta en cloud a lo loco, es decir, era algo que una una inversión que ya había prometido, pero pero que ahora consolida y reafirma, entonces, una inversión total de cuatro mil millones de dólares en en en cloud, en en Anthrop, mejor dicho, en la en Anthropic, en la empresa, probablemente mucho será con pago en especie, es decir, pago con tiempo de computación en AWS, la la plataforma de de de Amazon, pero que, vamos, definitivamente, si creíamos que Amazon se iba a descolgar de esta carrera, pues pues para nada.

Pues me pregunto si, como dices, mi querido seguidor, Jean Pezzo, se está detrás de estos movimientos, porque lo veo muy atento en Twitter a a todo temas de de inteligencia artificial, siguiendo incluso estas cuentas que parecen un poco de coña y y estudiando muy bien el mercado. Ahora, lo de la inversión en Antheopic me parece jugar sobre seguro, porque es que la gente ya está diciendo, evidentemente en el mundo anglo, que supera a gpt cuatro incluso para temas de programación, ¿no? Entonces, cuando cuando ya migran hasta los programadores es que algo hay ahí. ¿No? En fin.

Sí, y bueno, es eso y que en The Verge hicieron un un reportaje con con el jefe de IA de de Amazon y, bueno, y lo llaman el equipo de Agil, es decir, el equipo de inteligencia artificial en general, y creen que a mediados de dos mil veinticuatro van a superar a Cloud. Es decir, Amazon ya está pensando que, oye, tenemos tenemos unos huevos en la cesta de Anthropic, pero tenemos otros huevos en nuestros propios proyectos y en nuestros propios modelos. Entonces, si ellos están confiado que en dos mil veinticuatro superan a a Anthropic, pues pues, vamos, tenemos candidato también a a mejor modelo del año, pero al mismo tiempo hay muchos millones, Matty, cien mil millones de dólares para comprarse un ordenador. Este es el proyecto de tu amigo Sam Alman y Microsoft.

Bueno, a esto es a lo que te referías con que Bruno tendría que aprender, Bruno, tu hijo tendría que aprender de Sam Alman y seguir pidiendo perras. Bueno, hay más casos en los que OpenAI necesita mucha financiación, pero en el caso de este súper ordenador del que hablas de cien mil millones de dólares, parece que, mientras hablamos, Microsoft y OpenAI han planificado por fases el desarrollo de un data center que es como cien veces más costoso que cualquier data center actual, ¿para qué? Para conseguir esta este nivel de supercomputación en la inteligencia artificial. Entonces, esto que digo que se va a desarrollar por fases tiene muchas vertientes, muchas aristas, como por ejemplo el tema el tema eléctrico, ¿no? Comentábamos en el último episodio de de Elon con con Alex, que Elon Musk predice que que que el mundo no está preparado, ya directamente el año que viene no va a haber suficiente capacidad en la red eléctrica para alimentar la inteligencia artificial.

Entonces, este plan por fases de Microsoft incluye nuevas formas de alimentar estos data centers, como la famosa fusión nuclear, fusión nuclear en la que en la que inviertes Amalman, y también en el corto plazo en la fisión nuclear, ¿no? Con estos pequeños micro rectores.

Sí, Claro, bueno, que es, podría llegar a costar ciento quince mil millones de dólares, poca poca broma. El caso es que, claro, la capacidad de computación que van a tener juntos OpenAI y y Microsoft es, nos señala muy claro la carrera, es decir, quien quiera tener el mejor modelo, el primero que quiera llegar, sí se llega con todos los asterisco a esa inteligencia artificial de de de nivel humano, pues va a necesitar esto. Para mí también es un síntoma, y creo que que que tendríamos que debatirlo con con con foco y con interés, de el reparto de poder que puede devenir de el de quién tiene la capacidad de generar y controlar estos modelos. Es decir, no hay un estado ni una organización supraestatal como la Unión Europea que se acerque a la milésima parte de capacidad de computación que van a tener OpenAI Microsoft o que va a tener Meta con Facebook o que tiene Amazon o que tiene Apple. Es decir, que si estos modelos van a integrarse, van a venir cargados de ideología y puntos de vista, van a capturar un montón del valor del aumento de la productividad, van a ser los decisores en el coste energético, la clave en la investigación científica.

Claro, todos estos factores se van a mover, primero, en síntomas de de desigualdad, es decir, a unas pocas entidades centralizadas, a no ser que el mundo ofensor funcione mucho mejor de lo que yo espero. Y dos, además, van a capturar un una, bueno, van a capturar y van a tener una influencia política y económica enorme. Y yo creo que los estados van a empezar a ver esto con con recelo. Para para para acabar un poco con con esto, Grog Dog, Grog Dog debería llegar también este año, por lo que ha provisto Elon Musk. Atención, porque Grob uno y medio ya está bastante bien.

A a margen de la visión meme o la de de la de la etapa actual de Elon, él lo lo de Groc viene viene en serio, yo creo que va a ser uno de los candidatos, y Apple se supone que tiene real, que es un modelo también grande de lenguaje, que tiene algunas innovaciones interesantes, que dicen que promete renovar a Siri y que podría salvarle de tener que contar con tecnología de terceros para el nuevo para el nuevo iOS y que, en teoría, con esto, Apple debería estar también en la pomada. Llama tres llega este verano y GPT cinco se supone que también antes de otoño, o sea, que va a estar la carrera enorme, todo con empresas privadas, todo con organizaciones estadounidenses, sobre todo, y parece que no hay ningún estado, ¿verdad, Mati? Parece que que ninguna potencia, no sé, a lo mejor europea se anima a entrar en esta en esta guerra de combate? ¿O tú tú sabes de alguien?

Yo sé de un gobierno que a lo mejor se pone a la altura, No es Corea del Norte, no es Irán, no es Estados Unidos. Estoy hablando del gobierno de España, estoy hablando de la administración de Pedro Sánchez.

Wow, por fin, por fin estamos ahí, Matías. Sabíamos que, bueno, ya somos una potencia en crear influencers virtuales, por ejemplo, ahí estamos muy bien colocados, pero lo veíamos, ya dijo que iba a crear un modelo de lenguaje y ya ha dado el paso del del gran acuerdo con un proveedor para ponernos en marcha. Y este proveedor, nosotros, que IBM, con el que han firmado un memorando, un acuerdo de colaboración el el estado, el gobierno, con con la con la gran consultora estadounidense, Matías.

Claro, es que se pondrían a pensar, ¿qué empresa del mundo tecnológico está más llena de telarañas que Cisco, por ejemplo, pues IBM. No, no, es es broma, es broma. IBM, si si no se escucha algún ingeniero de IBM, sé que es sí que hay sé que sigue habiendo buenos ingenieros en IBM, pero voy a dar paso a tu investigación, porque has hecho toda una documentación de lo que tiene IBM en inteligencia artificial, y y no es exactamente muy prometedor, ¿no?

Vale. Hay un punto de un inciso, es decir, cuando yo estudiaba la carrera, éramos unos colegas, y nos hicimos un viaje a Madrid, era, creo que fuimos, atención, señoras y señores, fuimos al SIMO y era era un viaje ahí como muy muy especial para nosotros, y aprovechamos para pasar, atención, Mathi, por la por la sede de IBM y hacernos una foto con el logo. Es decir, eso éramos los estudiantes de de informática de hace de hace veinte años, una una situación que bueno, no sé por qué, no sé por qué lo he contado, pero pero es una data que que ya sabe la audiencia de monos etocrático. Vale, el el el cositas que han contado en el memorándum, ¿vale? Pues que quieren construir un protocolo sobre herramientas de código abierto, bueno, está muy bien.

Sobre una infraestructura que permita la diversidad de hardware, porque mira, también es otro aspecto para bien pensado, no no te atas a un único proveedor, adaptada, bueno, pues un poco a la realidad también estatal española, porque lo que quieren es que se incluyan toda la la lengua cooficiales con innovación, transparencia y seguridad. Y, bueno, es un poco la las declaraciones estas que se hacen, ¿no? En en esto en este tipo de momento. Y, bueno, yo creo que les ha faltado decir, a nadie le han despedido la vida por contratar a IBM, ¿no? Es un es un pincho que que siempre andaba ahí por el por el desarrollo informático.

Bueno, yo me he ido un poco a decir, vamos a ver con qué modelos cuenta IBM, ¿vale? Vamos a ver con qué con qué modelos, pues, grande de lenguaje tiene tiene esta empresa Y, bueno, tiene tiene una página, también me ha apoyado un poco en el trabajo de de César García en LinkedIn. Bueno, el caso es que en su biblioteca aparecen tres modelos grandes, unos trece billones, unos de veinte millones de de veinte billion parámetros, bueno, ya sabéis, meditas estadounidense. Y y también disponen y ofrecen que trabajan con con Jama o trabajan con Mistral o con los modelos que liberó con liberó Google, pero entendemos, yo entiendo que van con los modelos granite, que son los tres modelos grandes que ha que ha creado IBM, ¿vale? Entonces, pues tienen una especialización, defiende IBM, en, que son muy buenas en preguntas de respuesta, resúmenes, clasificación, traducción y RAG.

RAG, acordaros de que hace un par de capítulos hablamos muchísimo de de de este, el uso de esta de esta técnica en inteligencia artificial, y que viene a decir que está muy bien pensado para capturar también y apoyarse en una base de datos o en una fuente de conocimiento externa al modelo, ¿cierto? Has entrenado el modelo con los contenidos que ahora veremos, pero además le dices al modelo para construir la respuesta mírate toda esta documentación, lo cual puede ser aprovechable para algunos casos de uso que haya pensado el gobierno o el estado, que, por ejemplo, pues que mire la documentación de la Seguridad Social o que mire la legislación que que diga Ministerio de Hacienda, pues pues cosas así. Bueno, el caso es que hay un PDF con un informe técnico de de los modelos y, bueno, tienen unas, según su la propia información que da IBM, atención, no es ranking de de gente externa, tienen una clasificación o un rendimiento un poquito inferior a los Llama dos de tamaño equivalente.

Llama dos, Estamos hablando hace cuántos meses.

Claro, va, está a punto de salir el llama tres. Es decir, si el nivel es, soy un poquito que llama, soy un poquito peor que llama dos, eso nos sitúa que en los rankings y los benchmarks habituales, pues el modelo con el que va a partir el gobierno no está en el top diez, Mati. No está en el top veinte. No está en el top treinta y no está en el top cuarenta. Todo eso sin contar los que están por salir.

Aquí hay una salvedad, estoy contando que que IBM no va a sacar Granite cuatro pasado mañana y se van a basar en Granite cuatro. Es otro otra opción, que a lo mejor no lo sabemos, como nos lo han dicho, yo me estoy ateniendo a la información pública en las páginas de IBM. El puesto que daría en los rankings es el puesto cuarenta y uno, pero que no no caigamos en el desánimo porque en la propia en el propio memorándum oficial lo que dice que, atención, establecer a la administración general del estado a través del Ministerio de Transformación Digital y de la fundación y de la función pública como líder mundial en inteligencia artificial. ¿Y sabes? Yo he unido todas las cosas, maki, he llegado a una conclusión.

Yo creo que el gobierno va a apostar por el espíritu de Fernando Alonso. ¿Qué es lo que pasa con Fernando Alonso? Fernando Alonso tiene una una una clasificatoria, este, mierda, una vez, ¿no? ¿No? Va a salir el dieciocho, por ejemplo, las condiciones son nefastas, son imposibles, Tiene unos neumáticos que le compró a unos gitanos mercadillo Welling, una cosa terrible.

¿Y qué hace España? Decir, bueno, la treinta y tres, va a caer, vamos a ganar, da igual que salga el dieciocho, no importa. Ese es el espíritu de Fernando Alonso.

Me parece atractivo, me parece

Y claro, nosotros empezamos el cuarenta y uno, estamos ahí detrás de llama dos, estamos con un modelo tal, hay declaraciones que que que preocupan como que que que se va a entrenar con las sesiones del congreso, es decir, con con los discursos de Cuga Gamarra, Óscar Puente, ¿no? Con con ese nivel ahí, vamos a tenerlo, ¿no? Lo de Pablo Iglesias, Abascal, todo eso va a estar entrando a a la inteligencia artificial, y desde el puesto cuarenta y uno, vamos, atención, a remontar, va a ser va a ser una cosa epiquísima,

más bien. Tengo tengo varios pensamientos, pienso pensamientos. Lo primero, esto entiendo que va a estar disponible para todos los españoles, porque la habremos financiado todos los españoles, pero luego en las instituciones vendrá Microsoft y, de alguna manera, hará que paguemos de nuevo por su modelo de lenguaje, que estará en todos los ordenadores de todas las instituciones, entonces ahí va a haber duplicidades. Luego, ojalá permita Pedro Sánchez que en el dataset esté manual de resiliencia para que luego todos los españoles podamos conversar con el modelo de lenguaje sobre cómo gestionar una crisis, ¿no? Como fue la crisis de la de la pandemia.

Ya con eso partimos con ventaja respecto a otros gobiernos del mundo, con el el la autobiografía de Pedro Sánchez. Y y, pues nada, no sé cómo va a salir esto, la verdad, si ya salimos del puesto desde el puesto cuarenta hablando de llama dos hace no sé cuántos meses, pues

Te puedo contar una cosa más. Hay una razón, es decir, aquella audiencia puede decir, bueno, ¿y por qué hacen todo esto? ¿Por qué no cogen un modelo más competitivo? ¿Por qué IBM? Bueno, hay una hay una hay un elemento que nos ayudará a entender este tipo de lecciones, porque no es que la gente que está ahí tomando decisiones sea tonta o sea corrupta, sino que hay un argumento que, además, lo ejemplificaba el ministro a escribir al al al explicar este esta apuesta, que es la Ley de inteligencia artificial europea.

Esta ley establece la obligación de transparencia respecto a los dataset de entrenamiento de los modelos de inteligencia artificial, ya sabemos que quedan meses, años de la de la aplicación, pero tiene sentido de que si España o, bueno, en este caso, pues los diputados socialistas han votado a favor de una ley que exige transparencia, no escogieran un modelo que te oculta con qué dataset se ha entrenado. ¿Qué tienen de bueno los modelos de IBM y los estos granitos? Pues que son transparentes, te dicen qué dataset han utilizado y de qué se han y de qué se han nutrido. Y eso también lo he estado mirando. Claro, en los datos de entrenamiento aparecen un montón de cosas como, pues paper científico de la página de Arbix, aparece, pues Github, aparece Wikipedia, aparece Hacker News, atención, porque el foro este de de, bueno, de de gente muy ligada al mundo del emprendimiento tecnológico esta forma parte del entrenamiento, yo creo que va a ser una una buena mezcla de entretener tecnológicos y cucaragamarra, yo creo que ahí saldrán cosas innovadoras.

Y otra cosa que utilizan es, y muy interesante, Open WebTex, que es una versión Open Source que intentaban ayudar el dataset de OpenAI. Esto tiene una historia. OpenEI, cuando lanza GPT dos, es cuando empieza ya a ser menos open y empieza a ocultarte, a no compartir qué data set utilizó para entrenar su modelo. El objetivo de OpenAI, y el motivo por el que ni Meta, ni Apple, ni Google, ni ninguno, ni Anthropic, te dicen el data set exactamente que han utilizado es doble. Por un lado, no quieren demanda de propiedad intelectual o, por lo menos, tener que batallar con un millón de de gente en los juzgados, y dos, el secreto industrial, no queremos que tú puedas imitar o replicar nuestros nuestro modelo.

Granite de IBM no es así, Granite de IBM te dice, hemos usado OpenWeb text, que en esa historia que te estaba contando de que en en el momento que sale GPT dos, pues OpenAI explica un poco su sus fuentes y cómo lo han hecho. Pues, unos estudiantes universitarios de la Universidad de Texas en Austin, Golascan y Cohen, pues intentaron replicar GPT dos por fuera con con un modelo más abierto, y para eso crearon este OpenWebTex, que es realmente, pues la misma metodología que hizo OpenAI para GPT dos, pues ellos lo lo lo utilizaron. ¿En qué consistía, sobre todo? ¿En qué consistía? Pues, sobre todo lo que hicieron fue irse a Reddit, scrapearlo, es decir, programar un software que leía y almacenaba lo que encontraba en Reddit, pero que hacía lo siguiente, cuando un tema tenía muchos votos favorables, es decir, que la comunidad consideraba que era un tema interesante, relevante, que les gustaba, que les parecía bien, veía qué enlaces había en ese tema y asumía este contenido es bueno, porque la comunidad de ready está apostando a favor.

Así que el modelo de inteligencia artificial de estado español, de España, se basará en lo que los usuarios de Reddit consiguieron que era interesante, y se metió en este dataset de OpenWebTex. Y por muy transparente que seas, ahí el noventa y nueve con noventa y nueve por ciento del contenido tenía, bueno, el cien por ciento tiene derecho a tu auto, pero el el el el noventa y nueve cuarenta y nueve tendría copyright, no sería ni Creative Commons ni de Libre Acceso ni nada de nada. Es decir, cumple la transparencia, pero ojo, porque el modelo sigue estando entrenado con contenido que viene de lo que se ha encontrado en Internet este este Chrome.

Pues, aún así yo creo que estos modelos que intentan de alguna forma que el dataset sea, pues eso, no solo transparente sino que no tenga esos derechos de autor, ¿va a ser tanta la diferencia con con los modelos que directamente les da igual todo, o sea, hasta ahora el rumor de que OpenAI usó Whisper para transcribir millones de horas de YouTube y entrenar con eso sus sus modelos de lenguaje. Entonces, con eso no puedes competir, o sea, el conocimiento de la humanidad de YouTube contra los discursos de Cucacabarra, pues hay hay cierta distancia, ¿no?

Pues veremos, veremos. Mi mi expectativa, Mathi, es, bueno, hay una gente que que que está un poco bastante en contra de de que el estado tenga estas necesidades tecnológicas y y que le y hace una enmienda a la totalidad. Yo creo que tiene sentido que el estado se plantee meter inteligencia artificial en sus en sus ministerios, en su funcionamiento, de una manera muy prudente, eso sí, yo creo que la una precipitación aquí podría ser fatal, entonces, creo que el estado debe tener un un papel más de lo que los americanos llaman un spar Follower, ¿no? No tanto como un un innovador que que se arriesga tanto. Y claro, una vez que decides voy a entrar, todo todas las opciones son discutibles y criticables.

Ah, es que estás casado con Microsoft y OpenAI y todo es propietario y no tenemos nada. Bueno, pues pues tendríamos los perjuicios. O esta vía de, oye, voy a lo abierto y transparente, pero salgo del puesto cuarenta y pico. Tengo voy a tener un nivel bastante peor que que el estado del arte en inteligencia artificial y probablemente muchísimo peor si si lo miramos en otoño. Pues, claro, que está pagando un precio por esa transparencia que que que que exiges.

Bueno, yo creo que para mí habría un un escenario más virtuoso, que es el que a mí me habría gustado. Pues mira, lo hago con una tecnológica española, con una empresa mediana o pequeña no tanto, pero bueno, una empresa mediana especializada en inteligencia artificial que partiendo de un llama tres, por ejemplo, nos pudiera llevar a un nivel mucho más alto y mucho más competitivo. Ese sería el escenario que yo vería virtuoso, pero, de nuevo, si Meta no no te promete que va a ser transparente, es que no estarías cumpliendo la propia ley que has impulsado en busca.

Sí, a nivel personal, lo que más me entusiasma, lo que me comentaste ayer, de el caos que va a ser cuando se lance esto y tengamos a los periodistas de OK Diario intentando sacarle al modelo de lenguaje, retorcer de alguna forma para, no sé, hacer comparativas Hitler, Pedro Sánchez, cosas de eso.

Sí. Ah, ¿qué tal, qué te parece Koldo? Bueno, pues yo creo que a mí, habrá habrá titulares jugosos y muchos clics. De nuevo, el gobierno está revitalizando la la la economía española, porque ahí se moverán los flujos económicos. Te planteo, Matty, tenemos tiempo para una noticia más.

Venga. Entonces, te voy a te

voy a plantear tres opciones, vamos a ver. Sand Alma pide más perras, opción Sí, todavía más. La segunda, la guerra de talento más loca de la historia de la tecnología con Sergi Brin, Mark Zuckerberg y Eloncio Musk. Y, por último, Elon Musk tiene tiene dos papeletas. Elon se raja del del tele barato y no no monta el robotaxi del futuro.

¿Cuál te apetece?

Pues, yo creo que nos ventilamos las tres bastante rápido. Por ejemplo, por ejemplo, lo de lo de Johnny Ibbie y Sam Alman lo habíamos comentado, pero ahora se sabe que está en busca de mil millones de dólares de nuevo Sam Alman pidiendo perras para desarrollar con este mítico diseñador de de Apple el dispositivo de IA personal, que estas empresas como Humanein han intentado y que son un desastre, pues el de OpenAJI, ¿no? Y diseñado por Johnny Eyed, ¿no? El mejor diseñador, el más el que tiene más renombre que podemos encontrar, pues con eso plantean

una cosa te digo, atención. Meta nos ha invitado, voy a ir yo en esta ocasión, Matty, a su evento de inteligencia artificial en Europa. Y han prometido que habrá pruebas de las RayBan, estas con inteligencia artificial. Estoy deseandito, porque yo creo que es ahora mismo el estado del arte, la punta de lanza en integración de IA en en wareables, en en gadgets. Estoy deseando hablar con BigAfas, Mati, que es algo que nunca he logrado y y y está ahí.

El gadgets que más cerca estoy de compra impulsiva de irme a a comprar. Lo único que me separa de comprarlas es que tengo que graduarla, ¿no? Y es un desembolso adicional.

Ser y y Mark Zuckerberg te han llamado

No me han llamado todavía.

Alguna llamada.

Estoy mirando el móvil, no tengo llamadas perdidas.

No, bueno, pues están llamando, porque se están implicando personalmente en la contratación de los talentos de la IA. Es decir, tú estás tan tranquilo, ¿no? Programando tus inteligencias artificiales ahí, ah, llama a tres, ah, no sé qué, no sé cuánto, y de repente está, suena ahí el teléfono y es Sergi Brin o es Mark Zuckerberg, que que que hay como reclutadores de LinkedIn están peleándose por llevarte a Associa. Lo de

Sagay Brink es un poco como Goku, ¿no? Que lo hemos usado tanto como símil, pero Goku estaba en el cielo y y de repente necesitamos tu ayuda, Goku vuelve del cielo que tenemos que acabar con Freezer, ¿no? Pues lo mismo con Sergi

Brin, ¿dónde estaba este hombre

que de repente está tan implicado en el en cómo va a acabar el tema de la inteligencia artificial.

Pues y además una mala noticia para los que estamos buscando coche a pilas, es decir, lo que queremos es un coche eléctrico, porque, claro, Elon está subiendo el salario de los ingenieros de Tesla, porque, claro, es tan grande la guerra por el talento de inteligencia artificial que, bueno, otros están ahí pescando en en Tesla. Entonces, claro, Xiaomi te te te aprieta con el coche eléctrico barato, y luego, por otro lado, pues tú tienes que pagar mal, el ingeniero no puede hacer rebaja.

Claro, es que Elon se basa en la gente que trabaja conmigo es porque quiere cambiar el mundo, quiere colonizar Marte y todo esto, no, ahora necesito pagarles porque si no no voy a tener talento en inteligencia artificial.

Bueno, no sé si les había hablado todavía Nélon, creo que ese capítulo está está pendiente. Lo que sí promete Elon es que llega el robotaxi en en agosto, o en agosto del Bronx.

Y en en entre el ocho del ocho, el ocho de agosto anuncia el robotaxi, pero también entre rumores de que han cancelado el coche barato, que era el que yo estaba esperando para comprarme, si alguna vez me lo compro. Él no ha negado estos rumores. Ahora mismo no se sabe muy bien qué va a pasar, pero como presenten el coche barato y no tenga volante, yo no lo voy a comprar, yo creo que no está preparado.

Oye, varias veces en Twitter la la gente de de que sigue el podcast nos ha pasado los últimos vídeos del del FSD de Tesla. Jolín, tío, yo yo flipado, yo claro, creo, entiendo que es Estados Unidos y que allí le dejan hacer muchísimo más, muchísimo más de lo que he visto aquí en en España. Es una cosa de de romperte la cabeza, me parece que, bueno, poquito a poco, yo creo que se siguen así en en en veinte años, será verdad que se le puede llamar copiloto, pero pero es es un nivel tecnológico bastante sorprendente. De hecho, el que le lleva un poco de delantera en esto de los Robotarsis, que es Guaimo, Guaymo sí lo está haciendo muy bien. Aquí ya contamos también la crisis de Crush, de de otro competidor en en robotaxi autónomo, pero Waymo lo está haciendo muy bien, ya están saliendo a la a la Itopizza, están saliendo del del área metropolitana de San Francisco, y ahora están empezando a repartir fetitos de Uber Eats.

Bueno, pues si no llega vuestro pedido de Uber Eats es porque alguien le ha puesto un cono encima del coche y y ya no se mueve.

Claro, es decir, si alguien le pone un cono, a partir de ahora te te puede comerte tú el showarma a ti, ¿no? Lo interceptas, coge el showarma y y suena grande. A

ver, yo

eso en Málaga, en Málaga no le veo yo

esa opción,

no sé por qué.

Es que yo veo los vídeos también, los que tú dices, del FSD haciendo intersecciones súper complicadas en Estados Unidos y vale muy bien, pero ¿qué pasa en una rotonda en España cuando hay una furgoneta de seguro que que entra a toda velocidad y no te cede el paso, pues a ver cómo reacciona ahí el coche autónomo. Hay que probar todavía en entornos malaguitas y españoles.

Pues hablando de España, hay un caso, un especial nuestro local en el Puerta Grande o enfermería.

Puerto Cron de Buenfermería. Cuéntame, Antonio.

Bueno, te traigo lo que puede ser tu futuro.

Martín. Tú, voy a

estar bien. Atención, porque si tú quieres dirigir la futura agencia española de supervisión de la inteligencia artificial, ahí, con un ojo, mirando la inteligencia artificial, contemplándola, vigilándola bien, la convocatoria para mandar tu candidatura candidatura está abierta. Hasta el nueve de mayo puedes ofrecerte, puedes postularte a este puesto de trabajo porque, atención, un salario de ciento cincuenta y seis mil euros

Buen salario, buen salario.

Y además, situado sucede en la Beautiful City of A Corullas, que es una de mis ciudades favoritas de España, un sitio estupendísimo, que que, bueno, que yo es una mijita, Mati, eso, tendrás que acostumbrarte, pero yo te veo porque te voy a contar un poco lo lo que piden para para este puesto, a ver si tú, yo yo creo tienes en mi imagen, ¿no? Porque dicen, experiencia académica y técnica en la IA, claramente el mejor creador de GPTs en España eres eres tú, ¿no? Entonces, claro, si si si si tienes estudio de investigación, eso lo apunto. Yo creo que cuando te echaron de Jim Vodo, si hubieras hecho un paper, ahí tendría más opciones, pero, bueno, habilidades de gestión y liderazgo. Bueno, yo te he visto ahí en en el en el crossfit cuando se se trabaja en equipo, siempre el primero, el más el más animado ahí gestionando los los grupos.

Bueno, estás sacando los los colores.

Claro, comprensión legal y ética. Por ejemplo, tus tus tus comentarios sobre Carlos Latre de hoy, pues, denotan una posición ética. No dice hacia dónde, pero ética y posición tienes. Red de contacto y relaciones institucionales, vamos a ver. Tú tienes un podcast que es seguido en Twitter por siete dedos.

¿Quién va a competir contigo? Ah, es que soy académico, me conozco a Joffrey Hinton, que nos tomamos una vez unos cócteles en un evento. No, no, no, no, mirá, mirá la conexión real y comunicación y representación. Bueno, tienes el podcast de inteligencia artificial número uno en español de inteligencia artificial, Mati. Por lo tanto, yo viendo y valorando esta estos cinco aspectos que se valoran para el el puesto de director de la Agencia Española de Supervisión de Inteligencia Artificial, creo que tenemos candidatos.

Yo creo que fallao en algo que me imagino que la supervisión implica la atención y mi capacidad de atención en la de un chaval de doce años con un smartphone, Así que no sé si no sé si encajo del todo, pero lo voy a intentar, lo voy a intentar.

Vale, pues puerta puerta grande a a esta oferta de trabajo para para que Matías, pues, tenga un futuro laboral. Lo que tienes que preguntar primero es las dos cosas fundamental. Primero, si hay si hay ticket restaurant, porque de verdad puedes seguir haciendo al podcast, porque claro, en en representación de esta institución, qué mejor que que este podcast y comentando todas las novedades, ¿no? Yo le con eso yo creo que lo

Sí, además imagínate lo que te pagan en en movilidad en transporte desde Málaga a Coruña, ¿no? Es casi diagonalmente puesta en las ciudades, pues ahí tengo un extra también.

Sí, sí, sí, sí, para tener la mudanza, todo, todo, todo. Bueno, segundo caso para para nuestro puerta grande de Matti, ChatGPT se delata. Atención, porque aparecen los los estudios que que, atención, dicen, analizando lo que genera ChatGPT, dicen que tiende a de abusar de en el empleo de cierta palabra y empieza a notarse cuando cuando se usa. Porque, además, cada vez más los estudios científicos se están escribiendo con ChatGPT, y esto localizan porque ChatGPT tiende a sobreutilizar respecto al lenguaje habitual humano o de otros estudios ciertos términos, como profundizar mosaico, desencadenar, encomiable, es decir, ese ese abuso de de profundizar está llevando a que cada vez más se pueda identificar qué estudios científicos se están escribiendo con ChatGPT. Entonces, aquí tenemos una doble portagando de enfermería, es decir, los IAs que se delatan, y empezamos a pillarles los trucos, y los científicos que están escribiendo esos paper con ChatGPT

Yo creo que no hay nada más humano que que usar mucho una palabra cuando la aprende. Yo cuando aprendí lo que significa prolijo, empecé a usar la palabra prolijo a tope, ¿no? O yo qué sé, palabras así como más rimbombantes. Me parece muy humano que ChatGPT haga lo mismo, la verdad. Bueno, pues

es verdad que puede ser preocupante que se use en los paper científicos esto del chat GPT, porque ya sabéis que alucina, se equivoca, pero bueno, también es verdad que yo he leído algunos paper, bastantes paper, y y y si si si dan ganas de dan ganas de no leerlos más, porque es un mundo totalmente de de una de una lectura densa y horrorosa, ¿no? Y entonces no no apetece mucho. Pues bueno, pues a lo mejor con con los modelos grandes lenguajes se consigue que tengan otro otro tono, otro otro otro rolleté, así que, bueno, mientras que las partes nucleares del estudio estén revisadas y bien contrazadas, pues para mí es puerta grande, ¿por qué no? Los científicos que que que ahorren tiempo, que ahorren tiempo y se pueden ahí hacer sus cosillas. Otro otro tensión, otra tendencia, es que la inteligencia artificial, Mathi, puede empezar a quitar trabajo a la influencers para darle a trabajo a los informáticos y los diseñadores.

Todo esto viene porque se ha creado a la presentadora barra influencer Alba Renay, que, en principio, iba a presentar una sección del programa Supervivientes. Bueno, los creadores de Alba han tenido que tranquilizar al público diciendo que no se ha quitado el puesto de trabajo a nadie, ojo. Pero, claro, de de todo esto es lo que hubiera típicamente hecho una un influencer, pues se lo han dado a una influencer virtual generada con inteligencia artificial, a esta falsa modelo. Y ellos dicen, bueno, es que ha creado mucho empleo, pues, los los diseñadores, la gente de inteligencia artificial, es decir, aquí podemos ver el traspaso de, ¿chicas influencers pierden en los empleos y lo ganan los informáticos, Mati?

Bueno, es que a veces es difícil trabajar con las influencers, ¿no? Tienen, pues, cierto ego, ¿no? Y están acostumbrados a cierto caché y a cierto trato, y con una influencer virtual, pues te ahorras todo todos esos problemas. También te digo que esta presentadora de Supervivientes, Alba Renai, dio mucho que hablar porque se parece bastante a Lara Álvarez, que era la que presentaba Supervivientes antes de que naciera este concepto, y está muy lograda la el el deep fake este, no sé si es que es una modelo y encima le ponen otra cara, pero bastante bastante logrado.

Yo me estoy planteando que ahora que que Dulceida parece que ha que ha parado su podcast, que si la podemos traer de invitada a discutir de todos estos temas, Mati, yo creo que ahí podría ser un un buen episodio

Ese era el podcast que costó como quinientos mil euros, una cosa así. Si no se escucha alguien de pódimos, estamos abiertos a oferta.

Yo voy a decir, bueno, la invitamos solo si tú consigues el trabajo de director de la ida de España, de ciento cincuenta mil pagos, si no, si no, sino luego te tienes que hacer el loco cuando pase el ticket taxi, Mati, y decir, no,

joder, pues muchas pruebas gratuitas de pódium para pagar eso.

Una una una última cosa de Puerta Grande Enfermería, Mati, que que merece la pena sacar, porque hay que plantearse si los robots deben descansar los domingos. Un debate potente en Alemania, Mathi, en el que los políticos se están planteando si cambiar la normativa actual en la que se restringe la apertura de tiendas en en el último día de la semana, porque, a merced de de esa ley, un tribunal ha prohibido una cadena de supermercados totalmente automatizado o plural durante toda la semana. Si con empleados humanos no puedes abrir, pues con robotses, con robots, pues tampoco. Claro, esto en principio es como un derecho del trabajador, descansar los domingos para que todo el mundo, si descansa la vez, pues la la familia se se reúnen y y concilian y todas esas cosas. Pero, claro, ¿por qué tendrían que que que descansar los domingos los los robots?

Es ahí se se empieza el debate. No sé no es cierto cómo

Pues mira, en Marbella, mi familia es de Marbella, cuando salió, no sé si es una ley, que la si las ciudades crecen en verano un tanto por ciento, pueden los los comercios abrir los domingos. Cuando empezó a abrir el centro comercial La Cañada los domingos, hubo bastante debate sobre esto, porque a las a los compradores les venía bien y a los turistas también, pero a los trabajadores no. Yo me imagino que si los trabajadores les dicen, bueno, pues entonces metemos robots, entonces ya igual se lo piensan, venga, pues hago el turno del domingo, no no hay problema. Ahora, que sean robots y que no sean mil indios revisando las compras con cámaras, con cámaras desde allí.

Hombre, también están los robots camareros, no sé, aquí en el en Málaga lo tienes en el, bueno, no me voy a acordar, es es un bufete de

Ah, sí, él.

En el que viene, y creo que en la Butivamba también lo han metido ahí en la en mi hijas, en la en la butivamba es que no pega nada, no sé yo cómo la han metido, pero bueno, me la me lo dejó

Un plato de los montes traído por un robot es como un, es un concepto que no pega nada, si tienes razón.

Sí, sí, sí, sí. Mal, bueno, no sé, es que está músico de lomo, o sea, llévelo para allá, el robot que va a decir. Bueno, el el punto es que, claro, esto se podría extender si el desarrollo de la robótica sigue así a todo el mundo de la restauración. Pero pero, bueno, claro, es que es un es un dilema. También yo creo que habría que conseguir plantearlo que que que no sea en que, como se puede robotizar, pues acabamos precarizando todavía más lo este tipo de empleo, ¿no?

Yo creo que ahí hay un debate y una y una dificultad bastante retadora, pero, bueno, de todas maneras, las tiendas automatizadas, los robots camareros están a a años luz ahora mismo de la de la experiencia humana, así que por ahí yo creo que de la misma enfermería a esta robotización

Y y te voy a parar porque veo que vas a seguir sacando puerta grande de enfermería y ya nos hemos pasado de la hora, que sabes que es nuestro límite legal, aunque la gente quiera más y más y más, vamos a dejar, vamos a vamos a dejar algo para la semana que viene.

Sí, sí, ahora mismo tenemos dos episodios ahí por delante, Matías, yo creo que tenemos que rematar con otro episodio de tendencias y noticias que se nos han quedado aquí guardadas, que que es que hay temazos que que no hemos podido tratar, y pronto, esperemos que no mucho más allá de dos semanas, vamos a tener un episodio especial con una persona que además para mí es muy especial, al que admiro mucho, que soy un poco

un poco más. Soy soy yo el que viene retrasando este episodio y Antonio es grouppy de esta persona que va a venir, así que Antonio me me está cogiendo cierta tirria. Nos vamos con una canción, si Antonio no me manda la de Carta Maestación, os pondré otra para que veáis el nivel de Suno AI, aunque ya lo habréis visto porque todo el mundo está creando sus propias canciones. Nos vemos la semana que viene.

Episodios recientes

Programas relacionados