Entrevistamos a Rubén Colomer sobre el primer fondo de capital riesgo para startups de IA
Además:
- Meta contra OpenAI
- El cierre de Cruise
- Ilya Sutskever dice cosas
- Veo 2 vs. Sora
- Skyrim con LLM en local
Patrocinadores:
Don Ibérico vuelve a nuestras casas por Navidad y ahora tienes un 15% de descuento con el código MONOS en doniberico.net Ya sabéis, una empresa familiar que envía a domicilio un jamón de bellota 100% ibérico de primerísimo nivel desde Guijuelo. Envío rapidísimo. Si lo prefieres, cortado y envasado al vacío, a cuchillo o a máquina, con su hueso para el caldo y otros ibéricos.
Hemos enviado las felicitaciones navideñas de este año con nuestros LoRAs de freepik.es, imágenes hiperrealistas con nuestra cara que ahora se pueden convertir en vídeo directamente desde la suite de herramientas de IA de Freepik. Ni confirmamos ni desmentimos que nos hayamos puesto un poco de pelo y masa muscular de más...
Musk abre Grok a todos los usuarios: ¿Tiene sentido la IA en una red social? https://www.parentesis.media/musk-abre-grok-a-mas-usuarios-tiene-sentido-la-ia-en-una-red-social/
Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com
Publicado: 19 diciembre 2024
Transcripción
A todos, los monos estocásticos, episodio diecisiete de la tercera temporada. Antonio, ¿ha nacido en ti el espíritu navideño? ¿Cuántos de tus polvorones, antes queranos, has comido ya?
Pues hoy, antes de entrenar, he decidido recargar ahí el glucógeno de mis músculos, Matías, con un buen polvorón de pistacho. Ayuda al ejercicio bastante adecuado, en mi opinión, pero claro, yo ahora estoy un poco subidito, adiós. Tiene un momento de confianza y de seguridad muy altos, porque, ¿sabes qué pasa? A veces, a los visionarios, a los que llevan la contraria a los que nos oponemos al consenso de la masa y a lo que dice todo el mundo, nos tachan de locos, de de de equivocados, erróneos, de que nuestras posturas son una locura o una una banalidad,
pero Mira que con esto las tenías todas en contra, yo no habría puesto la mano en el fuego, que tenía razón con esto, no habrían votado por ti, y fíjate, fíjate.
Sí, pues, claro, decir, cuando se ha analizado seriamente la la la actitud de la chavalada, de las gen z en su uso de lo digital y del Internet, Mathi, se está viendo que los chavales pasan muchísimas horas conectados, pasan media vida ahí en conexión y pendientes de lo virtual, pero cada vez bajan más las plataformas sociales. ¿Sube Instagram? No. ¿Sube TikTok? Tampoco.
¿Twitter o Facebook? Eso es para para de millennials para arriba. Lo único que crece es WhatsApp. ¿Y quién es el que apostó por la microinfluencia en los estados de WhatsApp? ¿Quién pronosticó que era la mejor red social que existía?
¿Quién cada día ha estado ahí subiendo sus fotos y sus comidas esperando la visualización de Mi tía Pura y de Carlos Reformas dos mil veinte? Ahí he estado yo, Matías, ahí he estado yo.
Claro, además, la gente que está escuchando esto es que no puede acceder a ese contenido tuyo porque tú tienes que tener a esta gente en tu agenda de contactos para que vean el contenido que tú generas en WhatsApp status, que, bueno, ya se lo digo yo a la gente, casi todos son fotos por la playa
de
gente random pescando, tomando el sol, y de iris y de viejos caminando por la playa a la hora en la que Antonio sale a correr. Pero te tengo que decir, yo esto me lo venía oliendo por la gente más joven que tengo en en WhatsApp status, en los estados de WhatsApp. Por ejemplo, la hija de un amigo, trece años, cuando saltó esto de la polémica de DiDi y todo, WhatsApp estatus. Tengo la lista completa de DiDi, mensajes por privado y te la paso, ¿no? Claro, esto a mí hay una brecha generacional tan grande, o sea, esto ya son dos o tres generaciones por debajo de la mía.
Yo no me lo, no me lo esperaba, pero tú, Antonio, como gran estratega digital, no extraña que que te lo viera venir.
Bueno, es que esta cosa hay que arriesgar, yo me he especializado en un nicho, que es el paseo marítimo de la Playa de la Misericordia y, bueno, la las fotos a la tarde de cereal y al amanecer, es como mi nicho, ¿no? Ahí despliego mi influencia y quiero ser el número uno, pero de esa temática. Tú tienes que encontrar tu sitio en WhatsApp status, tienes que encontrar tu tu tus temáticas, tu obsesión, algo que realmente te apasione y te fascine a partes iguales, y que, bueno, ahí tus contactos y tus familiares, pues, podamos aplaudir y y disfrutar, Matías. Así que, bueno, como siempre, este podcast no solo ilustra y e informa sobre inteligencia artificial, sino que damos los mejores consejos para desarrollarse profesionalmente, Mati, eso es no parar. Esta noticia ha pasado un poco fuera del radar.
Cruise, Cruise, que era uno de los grandes candidatos en esta carrera por el robotaxi, es decir, por el coche autónomo, pero no en propiedad para el usuario, sino para vehículo privado de transporte puntual, pues se sale de la carrera, básicamente, porque General Motors y el resto de inversores se han cansado de calmar pasta. General Motors ha metido ahí ya nueve mil millones de dólares, que ahora con con, bueno, con el cierre de Cruise, pues han sido billones nueve mil perdidos, y esto significa que que, bueno, que la carrera por el robotaxi autónomo pierde uno de los grandes candidatos. De hecho, hablamos mucho de Cruise cuando fueron, entre comillas, pillados con una práctica que no era algo públicamente conocido, aquella práctica, ¿te acuerdas? Que dijimos que había salido que, básicamente, como el tres por ciento de las rutas de estos coches presuntamente autónomos estaban siendo guiadas en remoto por conductores humanos que no estaban dentro del coche, pero sí tenían el control del vehículo.
Difícil recuperarse de esa noticia tan viral. También te digo, mala inversión en este caso, también de Honda, que justo asaltó hace un día la noticia de que Honda y Nissan se van a fusionar y que a lo mejor meten también ahí a Mitsubishi. Está el tema de los coches y de la transición a los coches eléctricos bastante calentita, aunque yo tengo que decirte, Antonio, que saltó también el rumor de que el robotaxi de Tesla, a lo mejor sale una versión con volante. Entonces, yo ahora mismo me puedo dar por satisfecho con hacia dónde están yendo las cosas, porque lo de quitar el volante todavía no lo veo, todavía no me fío de meterme en la carretera Málaga Marbella por Ojén, en esa, la llamada carretera de la muerte, no me fío yo de dejar a una Ia hacer ese recorrido, le viene un taxi de frente, por el carril contrario, la verdad, no, no sé cómo reaccionaría la Ia. Habría que ver cómo han hecho lo del tranvía al entrenar el algo el algoritmo de el algoritmo de los coches en Tesla, ¿no?
¿A quién atropellamos? ¿A a esta señora que se va a jubilar mañana o a este grupo de niños que está en una excursión escolar?
Bueno, sí, es la la carrera final del del coche autónomo parece que se va clarificando según se se descabalga en competidores. Recordemos que el el primero que tiene una apuesta aquí muy decidida era Uber, pero Uber, básicamente, hace mucho tiempo que decidió dejar de perder dinero de forma masiva, intentar ser rentable y, bah, bajó el pistón aquí, ¿no? El el único que ha seguido apostando y palmando miles de millones al año es Google con Waymo y también Tesla, mientras ha podido mantenerlo también con con todo el negocio de la de la venta de vehículos a a propietarios finales, ¿no? El caso es que, tecnológicamente, parece que se abren dos caminos, el de Guaymo, basado en Lidar, que funciona, que tiene trescientos mil viajes al mes, que, bueno, no es la opción preferida todavía en en donde funciona, básicamente, en San Francisco y alguna otra ciudad estadounidense, pero que ya está un poco al nivel de Lyft, yo creo que además, porque tiene todo ese efecto de, oye, quiero probar lo que es subirme en un robo taxi autónomo, ¿no? Entonces, es la otra carrera, el otro actor que parece destacado en en esta competición, esta es la que tiene una aproximación tecnológica diferente, es decir, el basarse todo en el análisis de la imagen, el no usar el lidar, y que hasta ahora, digamos, en el corto plazo de los resultados inmediatos está por detrás en lo que ha podido ha podido conseguir Wymour, ¿sí?
Si analizamos cuántas carreras autónomas completamente ha hecho cada uno, pues, Wymour está claramente por por delante, pero que no sabemos si tecnológicamente a largo plazo con toda la todo el desarrollo de de deep learning alrededor de la de la de la imagen, pues, la apuesta tecnológica de Elon es mejor, y hay una gran duda detrás de todo esto, que qué pasa con los coches chinos. Tú has relatado muy bien lo que lo que está haciendo la industria japonesa, que es, vamos a fusionarnos porque el coche chino en eléctrico viene viene muy duro, muy competitivo, y y unamos fuerzas para intentar resistir. En en toda la parte del coche todo muy conectado, pues hay también esa sensación de que los chinos van a venir muy a un muy alto nivel, muy competitivos en precio. Pues, verá, la la la rentabilidad de todos estos proyectos a medio, largo plazo sigue sigue sin estar clara, sobre todo por por ese reto tecnológico. Aunque tengas resultado el noventa y nueve coma nueve por ciento de los momentos que pueda tener un coche, el Málaga Marbella por la Toby origen probablemente tenga un mínimo aspecto de tres segundos en el que no esté totalmente perfecto, y si no eres buen conductor siempre, es mejor no usarte nunca.
También te digo que yo mucha cuña con esto, pero yo es de las pocas cosas que tengo clarísimo, clarísimo que esto va a llegar un momento que todos los coches sean autónomos y que van a conducir los mismos flipados que ahora dicen que, no, no, yo prefiero la caja de cambios manual, porque la automática no es lo mismo, no sé, esos son los que van a hacerse un Málaga a Madrid. Los demás vamos a ir jugando al Fortnite. Es que además, me recuerda a una entrevista que le hice al CEO de una de estas dos, tres empresas que surgieron para materializar el concepto del hyperloop. ¿Te acuerdas de eso que propuso Elon Musk, SpaceX y tal? Y pues había como tres empresas grandes, le entrevisté al CEO de una de ellas y me dijo, es que nosotros vamos a vender los billetes del hyperloop por debajo de del coste, porque el verdadero negocio, o sea, después de desarrollar esta locura con tubos de vacíos y tal, el verdadero negocio es que la gente que va adentro esté consumiendo contenido, esté pidiendo bebidas y pidiendo comida, y esto a un coche se puede llevar en lo digital, ¿no?
Se puede llevar a ese treinta por ciento que se lleva Apple con el iPhone.
Absolutamente, pues si tú estás seguro y convencido de eso, hay algo que yo también tengo por por garantizado, Matty, y es que el invierno, la Navidad, el fin de año es el momento para el mejor jamón, Matías.
El mejor jamón, sin dudas, porque me los lleva pidiendo mi familia desde que empezó diciembre y, además, nos manda Trífero hace unos días un tuit, dice, mira, he usado el código monos, me han dado un descuento de treinta euros por este jamón don Cheado cien por cien ibérico, de Don Ibérico, señoras y señores, que me gusta a mí mi jamón.
Sí, Don Ibérico punto net, ya sabéis que tenéis el código monos con un quince por ciento de descuento y, claro, ya sabéis, aquí al final hay dos caminos en la vida, el camino a Matías con el jamón ya cortado, el pack de medio jamón, que, bueno, y otros embutidos que pueden venir acompañando, o el camino Antonio, también conocido como el otro del podcast, que en Don Ibérico, pues, escoge siempre el jamón entero. Entonces, bueno, hay opciones para todos. Entonces, post desgard toda la suscripción a inteligencia artificial para el año nuevo, porque, bueno, que no se no se puede pasar un un una noche vieja sin jamón bueno.
Sí. Siempre está la opción intermedia, que es pedir la cortada al cuchillo, también hay otra opción de Don Ibérico. Ton Ibérico punto net, código monos para el quince por ciento de descuento, pero yo, con ese jamóncito finito, cien por cien bello, tan en mis molletes por las mañanas con un poquito de aceite, no hay nada, nada que supere ese desayuno.
Y, Maty, algo que yo creo que era inesperado para acabar el año, y de hecho tengo tengo apuntado por ahí un un un titular para para el episodio, yo yo te lo voy a soltar, tú tú lo valoras, que era, si Xander Pitchai te adelanta en inteligencia artificial, tú te calla y lo asimiles.
Ha sido demencial. Creo que se la han devuelto porque OpenAI muchas veces ha hecho esto de eclipsar un anuncio de Google y, claro, lo tenía todo montado Sam Alman en OpenAI con su calendario de adviento a los doce días, un año que a nosotros nos había parecido un poquillo flojo por parte de OpenAI, no habían lanzado Sora, lo habían presentado a principio de año, tampoco habían hecho grandes actualizaciones. Bueno, pues resulta que esperan al final de año, lanzan una tralla de anuncios, empiezan a lanzar productos disponibles para gente de pago, algunos también para la gente que no paga, y viene Google y eclipsa todo con un modelo que sencillamente es mejor y que es lo que estaban esperando muchos desarrolladores y mucha gente que aprovecha estas herramientas y quiere tener la mejor de todas, ¿no?
No sé si no me acaba en el capítulo todo lo que ha presentado Google. La parte buena es que casi nada se puede probar, buena, entre comillas, porque nos ha quitado algo de trabajo, ahí se anda siempre mirando porque, bueno, esta, qué coño, es que es temporada de comidas de Navidad, no no no puede estar uno ahí tan tan intenso como en otras épocas del año, pero, bueno, vamos a intentar ir parte por parte porque, bueno, ha ha sido una semana loquísima de Google y podemos empezar hablando de que sacan nuevo modelo, es decir, tenemos Gemini dos punto cero y ofrece una ventaja muy clara respecto a la generación anterior. Expliqué, Gemini es, pues eso, el el GPT de Google, sí, el modelo de inteligencia artificial, el el el LLM con el que articulan su chatbot y un montón de herramientas que están metiendo en toda la suite de de Google y, bueno, venía de las versiones uno punto cinco, en la que el mejor modelo era el uno cinco Pro, que, bueno, tenía un nivel aceptable, pero flojeaba en muchos aspectos de de inteligencia conversacional, se le nota va por debajo de los de los líderes, ¿no?
De ChatGPT, de Cloud de Anthropic, bueno. El caso es que Gemini dos punto cero Flash es uno de los modelos más pequeños, no es tan grandísimo como el Pro, pero, claro, sube el nivel, es el doble de rápido y, además, cuesta muchísimo menos ejecutarlo, por lo tanto, han dado un paso adelante en varias dimensiones, mejor rendimiento, pero además más velocidad y menos coste. Es un modelo más comedido en su envergadura y, por tanto, en su coste energético y el coste de ejecución.
Sí, claro, porque una cosa que solemos obviar aquí es que muchas de las herramientas que usamos ni sabemos los modelos que tienen por debajo y la API es la que están accediendo. Entonces, muchos usuarios de herramientas de IA simplemente dicen, oye, qué rápido funciona esto, pero lo mejor es que por debajo han cambiado de la API de Open AI a la de Google, que ahora te ofrece el Jaminight dos punto cero Flash, que es más rápido y funciona bastante bien. Una de las cosas, yo creo que principales de este nuevo modelo, ya no hablaremos del otro, otra preview que han enseñado, puedes mirar incluso la cámara de tu teléfono y decirte lo que tienes a tu alrededor, y además empieza a incorporar ciertas características agénticas, ¿no? Cierta parte de agente de IA, ¿no?
Sí, sí, bueno, en la parte en la parte de agente de IA, Google también, entre comillas, ha anunciado mucho de futuro. Ahora ahora discutiremos varios de los enfoques que tiene, porque tiene un enfoque un poco complicado de de explicar. De hecho, bueno, tiene tiene un Google importante siempre con las marcas, los productos, los modelos, es demasiada información un poco complicado. Tú al final vas a Jamie Nine y empieza a ser como como ChatGPT. Entonces, tú puedes, el modelo por defecto es el del año pasado, el uno con cinco Pro, pero ya puedes elegir, yo que soy de pago, entre el dos punto cero Flash y luego uno que llaman el avanzado experimental dos punto cero.
Y este modelo se parece mucho a la línea O uno de OpenAI. ¿Por qué digo que se parece mucho? Porque justo lo que han explicado es que mejora el rendimiento en tareas complejas, como matemáticas, como programación y como razonamiento y seguimiento de las instrucciones. Claro, no no han dado paper, no hay documento técnico, no hay tarjeta, como hace OpenAI, de de este modelo, lo suficientemente profunda e interesante como para que podamos sacar muchas conclusiones. Pero es uno de esos modelos que han, no dicho, no dividía liberado, pero se han soltado en los sites y entornos en los que muchos usuarios lo lo pueden probar y lo pueden evaluar comparativamente con en ese tipo de arenas en los que lo prueban muchos usuarios y sin saber qué modelo es, pues juzgan cuál es mejor y, en esos entornos, digamos, has tenido resultados incluso mejores que los de OpenEye, ¿no?
Entonces, claro, tenemos que, si eres usuario de pago de Jiminai, incluso en Europa, Mati, atención, agárrate la silla, incluso en Europa, pues ya estás con unas opciones que, bueno, en mi uso muy casual de quince o veinte cosas que le he pedido, me parece que están a nivel GPT cuatro cero o mejor, y estoy realmente bastante bastante contento porque, además, es súper rápido y y, bueno, me me ha me ha parecido una una un avance de de Google que, de repente, tú puedes decir, Amazon el sábado dos mil veinticuatro y se han puesto, se han puesto a cabeza, Matías.
Yo lo que quiero es un cuadro de texto, hacer una consulta y que una intermediaria decida qué modelo consulta, porque no puede ser, y encima el naming de las cosas, o sea, los nombres que le ponen a estos modelos, porque el que estás hablando el el
Te te lo digo, mira, te lo voy a recitar entero, pero lo tengo abierto. Vale. Es dentro de Gemini, tú puedes ser de pago o no, si eres de pago eres Gemini Advanced. Pues dentro de Gemini Advanced está el dos punto cero Experimental Advanced, vista previa de Gemini X doce cero seis. Es decir, vamos a ver.
Eso Due, por ejemplo, el otro día estábamos en una discoteca charlando con gente y, claro, nosotros, ¿de qué queremos hablar ahí con las chicas? Pues Pues queremos hablar de inteligencia artificial. Entonces, los temas más trillados es los más contrastanalman, pues eso se los podemos contar directamente. Pero si tú quieres explicarle en ese minuto momento, imagínate, intentando impresionar a una extranjera, Matías, tú estás allí y dices, bueno, te voy a explicar el Gemini Avance dos punto cero Experimental Avance Vista Premium de Gemini X doce cero seis. Ahí no, no, la la perdió, la perdió, Matías.
Algo que tienen dentro de una utilidad, que es el AI Studio de Google, que se puede probar gratis, que está a nuestra disposición, es ese punto de la multimodalidad y que va a ser importantísimo en este final y principio de año. ¿Por qué digo que esta multimodalidad es un un paso adelante? Porque si es bien, es algo que empezamos a hablar con con la aplicación de ChatGPT y con GPT cuatro O, que era multimodural, digamos que la capacidad de procesar vídeo en tiempo real todavía no la teníamos y donde, sobre todo, donde la teníamos que tener, que es en el teléfono móvil. Es esa capacidad de que, a través de lo que capta la cámara del móvil, no solo en fotografía estático realizando una consulta, sino en tiempo real con lo que está viendo en vídeo ese teléfono, el la inteligencia artificial es capaz de procesarlo, trabajar semánticamente con esa información. Es el típico caso de uso de, estoy viendo algo delante mía y quiero que me hables de ello, me lo cuentes, me lo explique, hacerte preguntas.
Pues eso lo tiene Google, lo ha puesto en producción, no buscando llegar ahora mismo al usuario final de manera masiva, pero sí en el iStudio para que los desarrolladores puedan probarlo y y jugar con ello y empezar a pensar en integrarlo en aplicaciones. Esto está dentro de Gemini, desde dos punto cero, pero se prueba a través de iStudio. Victoriano Izquierdo lo ha probado y ha puesto en LinkedIn, por cierto, Victoriano Izquierdo ha probado esto durante su luna de miel, lo cual dice algo de lo importante que es este lanzamiento, y estaba en una playa de Tailandia grabando en vídeo en con iStudio punto Google punto com y le pregunta qué tengo delante cuando, bueno, de hecho, hay una mujer voluptuosa delante de Victoriano, no sé si eso se lo informaría a Google de de este tema, porque estoy viendo el vídeo del que lo tengo delante, pero la la review de Victoriano es que esto es buenísimo, lo acierta perfectamente qué playa de Tailandia es en la que está, y esto es la multimodalidad real en nuestro teléfono
Sí, esto me alegro de tenerlo por fin en una, con una interfaz así en tiempo real, porque yo esto lo uso mucho. Alguien sube una foto y yo en modo Stoker se la paso a HGPT y le pregunto, oye, ¿qué ciudad es esta o dónde está esta persona? Y suele, suele acertar, si ve algún paisaje o algún monumento más o menos reconocible, suele acertar. Y claro, Google lo incorpora directamente en tiempo real con este modelo, en el AI Studio este, que deja deslanzar suites de cosas y herramientas, y de ocultar estos modelos bajo capas y capas de webs que no conoce nadie. Google empieza a lanzarlo en, no sé, en un Gmail punto com directamente o una cosa así.
Sí, mucha lío.
También, bueno, también vi que entonces CSUV lo probó y una pregunta que nunca hay que hacerle a uno de estos modelos es, descríbeme, una de las primeras cosas que dijo, es una persona calva, no sé qué. Bueno, y esto me ha hecho mucha ilusión, una oyente que, a lo mejor, algunos la conocéis, porque tiene siete mil suscriptores en YouTube, que es Allie Blue Box, nos contó que las personas como ella, con problemas de visión o ciega, a esto le van a sacar un partido increíble. Mira, un ejemplo rápido.
¿Puedes hablarme en español?
Claro. En la mesa veo una laptop, un cargador, un teclado, audífonos, lo que parece ser un estuche para lentes, una revista y una pequeña figura de plástico.
Claro. Ahora las personas ciegas pueden preguntarle el móvil todo lo que hay a su alrededor, ¿no? Has perdido las llaves del coche. Pues te lo puede decir el móvil ahora.
Claro. Bueno, yo yo, joder, es que has puesto un ejemplo tan estupendo y fantástico de de, joder, cómo la la tecnología nos nos puede potenciar y ayudar, que el estúpido ejemplo que te iba a decir yo de, pues, echa a GPT ahora mismo, no me distingue el apuro del Salmorejo, así que no estoy contento. Bueno, no estoy contento. No, no, la inteligencia artificial no no está bien hecha, no está bien hecha. Quiero entrenada con datos españoles, tenía razón El ministro escriba, hay que hacer con con datos de aquí, ¿por qué?
Si no, le haces preguntas de ese tipo y la porra me la llamas almorejo. ¿Por qué? Porque él es súper, el sego, el sego en los datos de entrenamiento. Será una inteligencia artificial más cordobesa que malagueña, a ti.
Sí, de hecho, esto me da una idea. ¿Te acuerdas cuando Ilia, creo que luego lo comentaremos, cuando Ilia decía que solo hay un Internet? Los datos son el combustible fósil porque se acaban, pues, a lo mejor hay que dejar de entrenar las guías con Internet, porque ya no hay más, y empezar a preguntar a la gente de pueblo. Siempre dice, la gente de pueblo sabe mucho, la gente del campo, gente es muy culta, pero en su entorno, o sea, sabe mucho, hay muchas cosas que el resto no controlamos, pues deberíamos llevar las guías al campo a preguntar a la gente.
Llevar a la IAS al campo. Bueno, es una una una profecía aquí que que queda dicha, aquí se dijo primero, pero más cosas. Bueno, hay hay un apunte sobre esta multideidad en vídeo, mi mi mi apunte final es que esto me vuelve a llevar a las gafas, Mati, me lleva a pensar que el factor forma en el que esto sería perfecto ideal sería hablar con tus gafas y tus gafas grabando en vídeo, viendo lo que tú ves. Claro que esto nos mete en un cacao de privacidad, de no desconexión en ningún caso, de todavía más conectividad, que a lo mejor no es lo que queremos, pero que para este caso de uso sería brutal. Pero han dicho tú una cosa también muy importante, que es que Google tiene también clarísimo que dos mil veinticinco es la era de los agentes.
Entonces, ha soltado una registra de proyectos de investigación que tiene que, bueno, no no la vamos a contar entera porque es también un lío. Solo te voy a apuntar que tienen un agente navegador, es decir, recapitulemos, ¿los agentes que se diferencian con respecto a lo que tenemos ahora? Pues que harán dos cosas de manera diferente. Una es que delegaremos en ellos la ejecución, ¿sí? Se llegará a la transaccionalidad, y la otra es que serán capaces de hacer un plan paso a paso para acometer aquella tarea que le hemos encomendado.
Bueno, uno de los proyectos de de de Google, que se llama el proyecto Mariner, pues sería que el navegador es capaz de navegar por ti solo procesando toda la información que va teniendo por la pantalla y hasta completar la tarea, ¿no? Del tipo, bueno, si vas a estar preparando un viaje, pues búscame en los comparadores de precio, cuál es el mejor momento para viajar a Japón en el que, lo bueno, estén más baratos. Eso eso sería una área compleja que le podrías dar a un agente. Incluso, si llegas a confiar mucho, algo que yo no veo, claro, pues puedes decirle y cómprame si ve que el el el vuelo está por debajo de este umbral de precio que que tengo como máximo. Entonces, ahí podríamos estar, pues.
Igual que Anthropic presentó el agente que utilizaba el navegador, pues Google ha hecho algo similar.
Yo aquí es donde veo que Google tiene todas las de ganar, porque quién no usa los servicios de Google. Es muy difícil encontrar a alguien que no use Gmail, Google Docs, que no use Chrome, y Google puede, con estos agentes, potenciar muchos de sus servicios de una forma que que OpenAI no puede, no puede hacer. Además, Google tiene, por ejemplo, Google Flights, pues es debe de ser trivial para Google, con todo lo que ha desarrollado Google Flights, enganchar esto con con un agente de IAM. Mira, cómo hemos avanzado, que hace no mucho decíamos, por ahora nuestros modelos no son no son multimodales nativos, les puedo pedir que genere una imagen, pero eso no significa que la entienda. Y ahora, a este nuevo modelo de Geminite le das un círculo y le pides que termine el dibujo de un búho, y a partir del círculo, paso a paso, te va dibujando un búho perfecto.
Esto solo es posible con un modelo multimodal que entiende de forma nativa la imagen como una entrada aparte del texto, ¿no? Entonces, es es brutal que eso que decíamos va a llegar al futuro, ya lo demos por hecho, y ahora estamos hablando de están llegando ya los agentes, que es como el siguiente nivel, ¿no?
Sí. De hecho, en agentes van a, tienen, siguen aquel proyecto Astra, que fue la demo más espectacular de del año pasado de Google, era un proyecto en el que navegabas por vídeo con el móvil, te procesaba todo lo que tenía delante, te lo explicaba. En audio es tiempo real, es decir, la latencia es cero. Bueno, las, me parece que que se está llegando a la multiedad real ahora, a final de dos mil veinticuatro, aunque no acabamos de tenerla en el teléfono. ¿Por qué lo digo?
Porque, bueno, OpenAI ha metido el vídeo en el modo de voz avanzado, pero no no me quiero detener mucho ahí, es decir, va a tener eso ya disponible también en en la aplicación de ChatGPT, pero no para Europa. Entonces, bueno, vas a procesar el vídeo para el estadounidense, pero los otros europeos, de momento, como no vayamos a la I Studio de Google, no, no lo tenemos. Una última cosa de Google, porque es casi un tiroteo, no vamos a dejar algunas cosas de agentes que tienen también, la mejora del modelo de imagen que también lo lo han anunciado esta semana, bueno, por por no tendrá todo el episodio el amigo Pichay, pues tenemos el Sora de Google también anunciado esta semana, y los vídeos que les he visto, Matty, me parecen espectaculares y me da la impresión de que un puntito mejor que Sora. Me da la impresión.
Ya es lo que faltaba en este restrigamiento de Genitalia que Google le ha hecho a OpenAI en su semana grande o su par de semanas grande, que es lanzar, después de todo el bombo y platillo que le hemos dado a Sora, no sé qué, lanzar a las pocas semanas de que Sora esté disponible, veo dos, que es un nuevo modelo de vídeo y que, por los ejemplos que están saliendo, parece que mejora a Sora, ¿no? Lo único que sigue sin gustarme de Google es el el tema de los nombres, imagen para la el modelo imagen y veo para el modelo de vídeo, creo que podrían esforzarse un poco más.
Sí, podrían, podría. En fin, alguien que también se ha esforzado mucho esta semana es Matías S punto Sabia, porque ha hecho unas felicitaciones navideñas, imágenes que, bueno, han captado al mismo tiempo, no solo lo mejor del espíritu de la realidad, sino que también el espíritu de del podcast, mono estocástico. Matías, ¿cómo lo has hecho? Cuéntamelo.
Pues mira, me he ido a FreePick, a la suite de herramientas de IA de FreePick, donde tengo entrenados unos personajes con mi cara y con la cara de Antonio, y con los nuevos modelos que está incorporando FreePick, que son de Flux y de Mystic, pueden conseguir cosas que todo el mundo me pregunta, oye, ¿cómo has hecho esto? Yo quiero hacer lo mismo. Pues lo hacemos con FreePick, señores, y esto también se puede convertir en vídeo, y hemos visto algunos El burpe con salto es de mi leurista, Mat, Matti, bebe. Si no fuera por el box, estarían en suelo. La barra me levanto, me saco del duelo, cada rep, cada drop es mi medicina.
El sudor me limpia el alma, me la ilumina.
Bueno, FreePig nos acompaña y nos patrocina en este episodio. Esta herramienta, además, de Custom Imagen, pues, te permite hacerte a ti de rey mago de Papá Noel hasta unas felicitaciones súper personalizadas, aunque yo te voy a hacer dos enmiendas a mi imagen de los reyes magos, en el que yo hago de los tres reyes árabes. Uno es que, claro, has eludido el debate del blackface, ¿no? Que está ahí presente en la sociedad norteamericana, quizás no tanto en la española, Y luego que es verdad que le has dado el el le has dado el promp de que Antonio padezca un actor catalán de edad mediana y que hace cine independiente, lo cual me ha reducido un poco el sex appeal, ¿no? Y es verdad que he perdido un poco de de punch erótico, pero bueno, todo sea por el espíritu navideño, que hay
que priorizar otra. Es que yo soy consciente de que esta mañana te han echado menos años de los que tienes en el crossfit, te han echado cuarenta y pocos, ¿no? Y a ti eso te no humillecen.
Prácticamente me han echado cuarenta, yo he entendido eso.
Claro, prácticamente, prácticamente, redondeando.
Bueno, pues pasamos también a a alguien que nos ha traído un cuento de Navidad, que es Yesus Kebber, un amiguito del podcast, cofundador de OpenI, ya sabéis que es era el jefe científico y que ahora se encuentra desarrollando su propia compañía de de inteligencia artificial, y básicamente ha venido a recordarnos de que él también tiene una opinión fuerte respecto a lo que veníamos hablando en monos Estocásticos sobre si la inteligencia artificial del deep learning, basada en el modelo Transformers, con, entrenado con millones de datos de Internet, se está hablando con un muro y los rendimientos de hacer los modelos más grandes cada vez iban a ser menores. Y, básicamente, es lo que ha dicho Ilian Batias.
Yo, la verdad, no sé si es un genio, como todo el mundo dice, porque yo llegué a un punto que ya no entiendo nada de lo que esta gente investiga, o es que simplemente siento admiración por la gente que es capaz de resumir algo en una frase lapidaria, en una frase perfecta para un tweet, que es lo que estuve diciendo el otro día en esta charla de, hemos llegado a el peak data, ya no hay más datos, solo hay un Internet. El Internet es el combustible fósil de la IA generativa, porque resulta que estamos gastando este recurso y hay que acudir a otras cosas. O sea, esas frases son de género, la verdad.
Sí, bueno, pues Ilia tiene esa opinión fuerte. Fíjate que, además, lo hace con con mucha precisión, porque dice que ve que no va a dar mucho más rendimiento en algún momento, no dice que ya estemos ahí, pero que en algún momento me deja de darlo por la ausencia de nuevos datos o nuevo contenido insuficiente, es la frase de preentrenamiento, ¿vale? Esto significa que, de momento, esta es la misma línea que OpenAI y los modelos O uno, es decir, se conseguirán mejores condiciones y mejores rendimiento de los modelos de inteligencia artificial, no porque se entrene más tiempo, no porque se le suministren más contenidos, que a lo mejor no los hay, que es más la tesis que también ha venido predicando en los últimos dos años, sino que podríamos tener mejores IAs si les damos más tiempo para pensar, más tiempo de inferencia, y que en esa fase es donde podremos, a lo mejor, ver muchas mejoras. De todas maneras, creo que gran muchísimas voces del mundo de la inteligencia artificial están apuntando a que es necesario o la siguiente etapa de la IAU el siguiente nivel solo se desbloquea si hay cierta innovación científica dura, no solo si se meten más GPUs y más datos.
Sí, porque fíjate que esta idea de los razonadores y de que si realmente iban a poder seguir escalando en el nivel de comprensión y de y acercándose a la AGI, parece que OpenAI ha calmado un poco ese rumor de que habían chocado con un muro, con el O uno Pro, que yo, por supuesto, no estoy pagando los doscientos dólares al mes ni vivo fuera de la Unión Europea, así que no no lo estoy probando, pero la gente está bastante impresionada con lo que han conseguido. Que si no hubieran puesto GPT cinco, habría gente corriendo en círculos con con el O uno Pro. Y lo lo hacen, no porque sea más grande, sino porque puede tirarse más tiempo razonando y lo hace de forma más eficiente.
Bueno, a a mí una cosa de la presentación de Ilia en en el evento de Neuro IPS, que me llamó la atención, es un vídeo que merece la pena verlo entero, ¿vale? Y aparte de todo esto del pre entrenamiento bla bla bla, es que hay un momento en que se pone a hablar de que habrá especies de inteligencia artificial como que reflejen o que evolucionen o que se desarrollen como en el mundo biológico, ¿no? Entonces, tendremos Ia distintos animalitos de Ia que serán bastante diferentes entre sí. Entonces, bueno, los son como los, no sé, como los mamíferos, los los GPT serán los dinosaurios, entonces, es un poco una analogía en la que podemos podemos perdernos. OpenAI, yo creo, Matthew, que se le juntan, se le juntan los problemas.
Recapitulemos. Google te acaba de dar un un golpe, ¿no? Competitivo en producto. Vale, estáis ahí, ten content, tampoco es que te haya dejado súper atrás, pero ojo, ojo, cuidado con con Google. Eso por un lado.
Por otro, Ilia te dice que, oye, que esto de de preentrenar más, pues ya está alcanzando los límites, que eso de la AGI veremos, ¿no? De de repente ya tienes otra alarma ahí reforzada, y ahora todo el mundo legalmente le quiere pegar a OpenAI. Me está dando pena sanar, mango un poco, Mati.
Además, primera vez es mucho tiempo que Mark Zuckerberg y Elon Musk están de acuerdo por qué Meta ha pedido al gobierno que bloquee esta transición de Open AI a una empresa a full lucro y full vamos a rentabilizarla aquí, ¿no? Esto es algo que a Mark Zuckerberg no le no le hace gracia, o a mi meta no le hace gracia, porque de repente, ¿qué pasa si todas las startups de Estados Unidos empezaran como una ONG y cuando ven que hay negocio, cambia, cambia la sociedad anónima? Esto es particular.
Sí, es verdad. Yo creo que lo que más preocupa a Martha Kerber en la vida es que que, claro, que estas cosas estén bien hechas, ¿no? Es una preocupación que tendrá el muchacho. Y, bueno, pues pues ahí tenemos. Es decir, de repente, no es solo Elon Musk el que los tribunales te pide eso, sino que es Meta, le está pidiendo al gobierno, a una entidad gubernamental, que vamos a ver cómo maneja esto la administración Trump.
Y no solo eso, porque Google también está pidiendo a la FTC que un aspecto del acuerdo OpenEye y Microsoft sea prohibido, porque ¿qué qué qué aspecto es ese? Pues uno del que hemos hablado en el podcast. ¿Quién tiene la exclusiva de la distribución de los modelos de OpenEye? Microsoft. Tú puedes realmente contratarlos a OpenEye o puedes contratarlos a Microsoft a través de Azure, pero si lo contratas a través de OpenEye, bueno, también están alojados en Azure, porque, al final, todo acaba en la nube de Microsoft.
Pero Google dice, oye, esto está mal, esto está mal, porque es como si lechera asturiana solo se vendiera en Carrefour, ¿no? Y yo soy Mercadona y, oye, también quiero poder atraer a los ¿no? Y de acuerdo Carrefour central lechera asturiana, pues, hace que no sea competitivo el mercado, ¿no? Porque condicionas el de la distribución a partir de la exclusividad de uno de los productos distribuidos, pues, con la nube y los modelos de inteligencia artificial, pues, tendría que ser igual. Pues yo con Google Cloud quiero poder ofrecer los GPT, me es algo que también me interesa mucho.
Sí. Fíjate que que Elon Musk de mandar a a Open AI, pues bueno, tiene un caso legal, era era inversor y tal, pero ahora que Google y Meta estén presionando tanto para, bueno, cambiar cómo funciona OpenAI, me hace pensar que, ojo, le tienen al al final un poco de miedo, no confían tanto en que con sus propios desarrollos vayan a poder derribar, siendo ellos empresas mucho más grandes, ¿no? Y con mucho más músculos, no confían en que vayan a poder derribar a OpenAI, curioso, curioso nunca.
Bueno, OpenAI, ya por resumir, por no meternos aquí en este male magnum judicial y político, pues acaba de soltar en su blog, pues publicando, pues correos y mensajes del propio Elon Musk. De hecho, ¿sabes qué? Me gustaría poder pronunciar Elon Musk como lo hacía Nicolás Maduro. Elon Musk,
Elon Musk, Luz Musk.
Mira, tengo tengo que enseñarlo a ver si en alguna IA me me ayuda ahí a replicar el el, ¿no? Le aplicáramos a todo el capítulo el modo maduro. Entonces, cuando si dijéramos Elon Musk, pues lo lo pronunciara al estilo del caudillo venezolano. Bueno, el caso es que han publicado un montón de información en la que, básicamente, intentan reflejar que el proceso hacia la organización económico de lucro, el paso a ser una empresa pura y dura, era algo ya aceptado, incluso impulsado por el propio Elon. Y, bueno, de todo lo que han publicado de la información, hay una cosa que se que que, bueno, ya contamos el culebrón entero, esto son un una más, pero en aquel culebrón, y en estos correos nuevos que se han publicado, yo creo que se refleja una cosa muy clara, que esto fue, al final, una gran pelea de ajedrez entre dos grandes maestros de de la lucha política tecnológica, que eran Altmann y Elon, y que luego estaban por ahí Ilia y Greprovman, que estaban un poco perdidos, ¿no?
Que estaban, realmente eran como dos niños en el juego de dos adultos, Matías.
Totalmente, totalmente. Y además, hay gente quejándose de que hayan aireado todos estos emails y mensajes de texto. No, para nada, señora, yo quiero más, quiero más Sanseo, porque además nos deja ver muy bien cómo son por por dentro estas personas, ¿no? Porque Ilia y Greg eran la parte técnica, pero no tenían esa habilidad de tiburón para los negocios que tiene Sam Alman, y, de hecho, Ilia, en un email que es un ladrillo de texto, que no creo ni que Elon Masti, que San Alman se lo hayan leído entero, los describía así, en plan, Elon, realmente queremos trabajar contigo porque creemos que contigo tendremos éxito. Y a Sam, Sam, aunque Greg y yo seamos la parte técnica, tú a veces nos has sacado de problemas porque piensas como out of the box, ¿no?
Y entonces me ha me ha gustado mucho eso, ver cómo cómo funcionaba cada uno y por qué al final han acabado chocando. Y también me ha hecho mucha gracia una frase de Elon, ya cuando había decidido irse y y dejarlos a la deriva, que les dice, ¿me recordáis a Jeff Bezos con Blue Origin? Porque Blue Origin, competidora de SpaceX, se fundó un año antes que SpaceX y nunca ha llegado a órbita, ahora lo va a hacer ahora por primera vez, y dice, con el ego tan grande que tiene Jeff Bezos por competir contra SpaceX, y no ha conseguido nada, y OpenAI es lo mismo respecto a Google Deep Mind, ¿no? Al final no se ha cumplido, pero me hizo gracia porque, además, como confluyen mis mundos, ¿no? El espacio y la inteligencia artificial.
Y y tú y todo lo de Elon, que, bueno, que que la gente no lo sabe, pero tú eres, claro, el gran cronista, ¿no? Está Walthy y Jackson y tú, realmente.
Y el que nos sigue en Twitter es el otro, es de Bezos, fijo,
¿no? Sí, contradicciones, las contradicciones. Pero, Mati, toda esta gente ha sido capaz de ejecutar grandes proyectos, pero probablemente hay uno que se les ha escapado, uno en hacer la inteligencia artificial, uno en el que se refleja un hecho importante, que la IA no se hace sola, hay que hacerla, Mattias.
Sección patrocinada por Nvidia, porque me han mandado un ordenador con una RTX cuatro mil ochenta y decidiendo probar cositas muy interesantes, Antonio. Voy a dejar una serie de clips, porque seguro que conocéis esto.
Mira, una pregunta. ¿Tú te estás viendo en YouTube la serie de El Camino de Santiago de Ibai? ¿Qué te parece? A mí un mierdón.
Por las barbas de Geese Gramor, ¿también sigues a Ibai? Mira, te soy sincera, entregestionar el aserradero y vigilar que los imperiales no anden husmeando por aquí, apenas tengo tiempo para ver sus directos. Pero sí, me he estado viendo esa serie, es un verdadero coñazo, como dices tú.
Llevamos hablando de las posibilidades de la IA en videojuegos un montón de tiempo. Bueno, pues esto ya está aquí gracias a los modders, que es gente que yo no sé si es que tienen muchísimo tiempo libre o llegan del trabajo y se dedican exclusivamente a esto, pero hay unos mods escandalosos, escandalosos para un montón de juegos, y yo he probado uno en el Skyrim, mítico juego, el Skyrim de fantasía, hay gente que le ha echado miles de horas, y han convertido a los NPCs en personajes con los que puedes interactuar gracias a la IA. Y yo lo he aprovechado con mi nueva tarjeta gráfica de Nvidia para hacerlo gratis, porque mucha gente lo está usando, pues a través de la API de Open AI, etcétera. Entonces, ahí todos los meses te va llegando lo que gastas en tokens, que, ojito, como le echas muchas horas al Skyrim, pues se te puede la factura. Pero si lo haces en local, pues es gratis, directamente se ejecuta en la tarjeta gráfica, y os puedo asegurar que va muy bien.
Yo, el mod que he probado se llama Mantela, Manteya, ¿no? Y lo he probado en el Skyrim, pero también está para el followut, ¿vale? Y se ha creado ya una comunidad de modelos de lenguaje, o sea, sobre todo suele ser o el Mistral o el Llama, con un find tunic específico para jugar al Skyrim, que tú no puedes ni imaginar lo bien que funciona. Además, súper rápido. Yo lo que he hecho ha sido descargarme en el LM Studio, que es esta aplicación de la que tú has hablado en el
Sí, ha salido en esta sección.
Vale, pues aquí te vas a la opción de iniciar el servidor y le das a el mantel Skyrim basado en llama tres punto uno de ocho millones de parámetros, le das a cargar. Entonces, para para mí, para mí, esto es lo mejor que ha pasado en los videojuegos, pero en muchísimo tiempo. Esto, ojo, porque ya nadie va a jugar al mismo videojuego dos veces. O sea, todas las experiencias de un videojuego como el Skyrim además, que tiene, pues, un mundo abierto súper grande, van a ser diferentes, individuales para cada persona.
Sí, Ana, me quedo doblemente impresionado, Mattí, por por, bueno, por el por el punto de lo bien que funciona esto y porque, en realidad, es que somos visionarios los dos, Mattí, es que es qué suerte tienen los oyentes de podcast. Yo con WhatsApp status y tú con el mundo del futuro de los videojuegos, Los dos aquí abriendo abriendo horizontes y, bueno, pucha, gracias a Nvidia por seguir acompañándonos un capítulo más con la, y ya no se no se hace solap, hay que hacerla. Y te propongo una cosa, Mati, ¿qué te parece es que este episodio, a lo mejor, sea el último del año, sea un poco más especial y vemos entrada a un a un invitado a una entrevista que yo creo que además la audiencia de monos especialmente, lo puede valorar, porque es uno de los temas más interesantes que puede haber, son las startups, es la inversión de la inteligencia artificial y el mundo de de las perras, ¿no? Que siempre es fundamental el el monoestrocrático, ¿te parece?
Me parece, porque además seguramente que haya mucha gente en la que le interese, porque la persona que vamos a entrevistar tiene el primer fondo que va a invertir exclusivamente en startups de inteligencia artificial en España.
Pues hoy tenemos con nosotros a un invitado especial, a una persona que es, atención, culpable de que nuestro podcast se publique los jueves a las siete de la mañana.
Eso
el el máximo responsable de de ese motivo, de de que Matías tenga que madrugar los jueves a las seis para que esté todo listo, supervisado, con el máximo celo posible, y se trata nada más y nada menos que Ruben Colommer. Ruben Colommer, bueno, es que yo podría estar hablando bastante tiempo de de él, pero somos, bueno, nos conocimos en la en las en en la antigua etapa de del bloguerismo español, digamos, en
esa primera.
Sí, en el EVE de Sevilla, mítico evento maravilloso, organizado por nuestros buenos amigos de Sevilla, y yo lo leía en online punto com punto es. Ahí Rubén ya marcaba la diferencia de coger un dominio punto com punto es, ahí originalmente, y luego, pues, bueno, me me hace, de manera más cercana, más lejana, siempre he seguido su su trayectoria porque he estado siempre conectado con él, de de de emprendedor, de los contenidos, en la formación con Deme School, la aceleración es uno de los grandes agitadores de esa Valencia emprendedora, y ahora está en el mundo del capital riesgo y, además, todavía le queda un poco de tiempo para tener una newsletter de inteligencia artificial en inglés muy recomendable, porque en Ruben Colomer punto SAPstack punto com, pues nos cuenta semanalmente todas las noticias importantes, estudios y reflexiones interesantes que deberían estar en nuestra newsletter también, pero no lo están, cosas de la vida. Así que, Rubén, joven, qué qué gusto tenerte tenerte por aquí, por fin.
El gusto que me hayáis invitado y participar en un podcast que ya sabes tú, Antonio. A Matías no lo conocía, pero a ti ya sabes que que es un podcast que sigo cada jueves.
Pues nada, y y andando corriendo, nos has dicho antes, así que voy a tomar muy en serio lo de madrugar para la gente que nos escucha cuando hace running, porque yo, como no madruga, asumo que la gente tampoco madruga y no es así. Hay gente, gente como como Rubén, que a las cuatro y media ha dicho que se levanta el día de hoy.
Es que yo no lo
he dicho. Yo
a la hora que me levanto, me levanto, pero sí suele ser muy pronto, suele ser sobre las cinco normalmente.
Claro, Matías, desde que yo dije que Rafa Nadal era un referente y me parece mucho a él, la España que madruga nos escucha. ¿Te das cuenta de la correlación, de cómo encajan las cosas?
Pues sí, pues sí. Además, el otro día estuvimos mirando los datos demográficos de monos estocásticos y nos escucha bastante gente de cierta edad, ¿no? A partir de los cuarenta tenemos un nicho importante. Bueno, Ruben, la realidad es que te queríamos traer al podcast porque habéis anunciado algo muy potente, que es un fondo de capital riesgo especializado en, pues, startups de inteligencia artificial. Si no me equivoco ahora, lo que hablarás tú es el primero en España, por lo menos el primero aprobado por la CNMV, la Comisión Nacional de Mercavalores.
Y quería, antes que nada, nos expliques un poco al detalle del proyecto y en qué consiste y cuáles son las aspiraciones, ¿no?
Sí, a ver, básicamente, no no es mi primer, o sea, mi primera incursión en venture capital, antes lo comentaba Antonio, yo fui uno de los fundadores de plug and play aquí en España en el dos mil doce, creo recordar. Así que es verdad que luego decidí hacer otras cosas, emprender, dado varias varias empresas, y tuve en hará unos cuatro años, creo recordar, me metí en GoHub, CoHub es es un CDC, es un un venture capital de aguas de Valencia, donde ahí era el Investment Manager y ya se estaba invirtiendo en en inteligencia artificial, bueno, era un un venture capital de de Deep Tech, ¿no? Pero casi casi todo lo que se invertía eran eran empresas de inteligencia artificial. Pero sí que es verdad que que cuando salió en el veintidós, ¿no? Ya no sé, como esto pasa tan rápido, yo no me acuerdo ya cuando salió OpenAI, pero creo recordar que la parte de ILA generativa empezó a a despuntar en el veintidós.
Y en el veintitrés decidimos salir de hoja para montar el fondo. No es que fuera algo oportunístico de entrar en inteligencia artificial porque realmente fueron hype, sino porque realmente lo creíamos definitivamente, ¿no? Yo creo que la primera compañía que nosotros invertí de inteligencia artificial era una valenciana que era, bueno, que es todavía Blinkfire Analytics, que creo que Antonio la conoce también muy bien, que es la de Juan Luis, Juan Luis Ortelano. Hemos invertido en graphics también con plug and play, pero a partir de ahí empezamos a invertir en muchísimas empresas de inteligencia artificial. Sí que es verdad las empresas de inteligencia artificial que invertíamos no eran tan sexys como las que hay ahora, ¿no?
Por por temas de guía generativa y tal, donde invertíamos, pues, desde, o sea, en temas de computer vision, deep learning, machine learning. Pues, no sé, mantenimiento predictivo para entornos industriales. O sea, empresas que no no son tan sexys como las que son ahora. Pero al final Next tier lo que se enfoca es en en startups de inteligencia artificial en en en España, o sea, en Europa, Latinoamérica y Estados Unidos. Y el fondo es un fondo de cincuenta millones enfocado a invertir este tipo de empresas.
Qué bueno. Además, ha sido una suerte poder traerte antes de hablar del fondo, Rubén, especialmente porque seguramente ahora tendríamos cinco minutos de donde tijes y yo discutiendo si es next tier o next tier, pero ha sentado canon el padre de la criatura junto a Y
esto se se se que normalmente siempre discutís con con las mismas cosas.
Las mismas tonterías, con razón se va a estar hora y media, pobrecita, pobrecitos, esos más cuarenta runners que madrugan para escucharnos. Bueno, pues esto que has creado con junto a Patricia y Pastor, ¿no? Yo lo que he he leído de del del de la cobertura que había tenido en prensa, menciona, se menciona sobre todo como un, dentro de ahí, una suerte de especialización de un enfoque en el B to B, ¿no? En el en ese, bueno, el conjunto de startups que va más dirigido a a proveedores de servicios a empresas, y no tanto a consumidor final, ¿no? Aquí me me gustaría saber mucho tu tu visión y y esta tesis de inversión, cómo cómo la habéis llegado a ella.
¿Cómo pensáis o dónde pensáis que puede estar el Sweetpod, no? Ese ese punto perfecto de riesgo de inversión, rentabilidad, en la cadena de valor de la IEA, ¿no? Porque veníamos discutiendo en los últimos episodios especialmente, que es la infraestructura, parece que en esta etapa va a haber mucho negocio, ahí tenemos Nvidia y y otras, ¿no? La capa de lo del LLM parece que va a la concentración y un juego de de de una barrera de entrada brutal, y que a partir de ahí, a partir de todo lo que son productos que se crean sobre los LLM o o alrededor de ellos, es donde, probablemente, pues pueda estar la diversidad. Y y una y una cosa que también, si si estáis abiertos a empresas de servicios, porque parece
que es
es esta es una hipótesis que tengo y que y que creo que que, bueno, que que que se me ocurrió viendo cómo estaba subiendo IBM, que al final en los modelos se ha quedado atrás, pero como empresa de consultoría parece que va a haber mucho negocio también en esa especie de consultoría y servicio de requetetransformación gracias a la ILA. Bueno, no me enrollo. Rubén, ¿cómo cómo lo hayáis pensado y y
cómo lo veis? Muchas preguntas. Mira, te te te, primero te contesto en la parte de B2B, B2C. Sabes que en Plaganplay sí que invertíamos en muchas compañías de B2C, al final, donde nos nos hemos dado cuenta durante todos estos años, en plan and play, en GoHub y ahora en XTier, es que al final las empresas de B2C suelen tardar más, son más, más, menos eficientes en capital las empresas de B2B. Las B2B al final pueden escalar, creemos que un poco más rápido con contactos directamente a Corporates que pueden comprar así.
Comprar los servicios, me refiero, y empezar a escalar. Y es por eso, básicamente, porque entramos en B2B aparte, ya te digo que los últimos años todo lo que hemos hecho es B2B, tenemos, pues, bueno, mejores contactos en fondos de similares que nosotros, que nos podemos compartir del flow, como con Corporates, que al final acaban no adquiriendo la solución en sí, pero sí el servicio, ¿no? En cuanto a al tema de de de dónde está el negocio, que me preguntabas más por la parte de infraestructura, etcétera. Obviamente, yo creo que cada fondo tiene su tesis de inversión, tiene su su tamaño, tiene diferentes tipos de regiones y aunque a mí me pueda gustar muchísimo la y vea mucho potencial en la en la infraestructura, por ejemplo, ¿no? El tamaño de mi fondo no me va a permitir a priori entrar en empresas de creación de GPUs por coste o por duración, ¿no?
Al final para buscar una rentabilidad. Piensa Piensa que casi todos los fondos al final tienen una media de diez años. Un fondo relativamente pequeño, mediano, como nuestro, de cincuenta millones, si va a invertir en el año tres en una empresa de GPUs, es muy difícil que encuentre la rentabilidad antes del año diez, ¿no? Entonces, a mí a lo mejor no me supone una una buena inversión invertir en año tres, pero a lo mejor sí que puede ser que en año uno encontremos algo muy puntual que pueda crecer y salir en una serie, ¿no? Salir en una una ronda más más alta.
Pero yo creo que realmente donde nosotros vemos el negocio, para nosotros es en todo lo que tenga que ver con aplicaciones verticales a empresa, donde van a ir, pues, absolutamente a todos. Y ahí, no sé, poner muchos ejemplos, por ejemplo, en temas legales. Supongo que conocerás, por ejemplo, herramientas tipo Harvey, que tiene una una gran cantidad de datos legales, de jurisprudencia, de sentencias, de casos y tal. Y ahí los despachos de abogados acaban adquiriendo, acaban comprando este tipo de servicios porque con guía generativa, pues, son capaces de redactar demandas tremendamente rápidas o conclusiones o contratos o lo que sea, ¿no? O hay herramientas, por ejemplo, también que pueden ayudar a los despachos a predecir costes de coger un caso o coger otro, ¿no?
Con lo cual, pues, le sale muchísimo más rentable utilizar este tipo de herramientas. Y esto al final lo veo, o lo estamos viendo en absolutamente todo, ¿no? O sea, desde temas médicos, ¿no? Hay empresas que tienen una barbaridad de datos de datos genómicos, y a partir de esos datos, pues, bueno, generan mejores decisiones terapéuticas para pacientes o la creación de nuevos medicamentos, o incluso tratamientos personalizados para para diferentes tipos de pacientes.
Rubén, yo la gran pregunta que le haría a un fondo que se va a especializar en empresas de IEA es si tenéis alguna tesis sobre lo que va a ocurrir, porque llevamos en los últimos episodios más
estoplástico Sí, ya sé que estáis discutiendo siempre si llega la AFI o no llega.
Es que exactamente, igual que hay gente que dice, hay gente que dice la AFI llega en dos años o el año que viene. Luego hay empresas que van un poco más a su rollo y dicen, bueno, vamos a empezar por por los agentes que ya están aquí, empieza el año que viene, es el año de los agentes de IEA. Y luego, pues, esta gente que dice que se han chocado contra un muro y que ya escalando nos no pueden avanzar y que los modelos, bueno,
a partir de
Bueno, no, no, dicen que no pueden avanzar, pero ya sabes que es un poco por la cantidad de datos y por la, o sea, la forma de entrenamiento, ¿no? Pero si me hubieras preguntado el año pasado, yo te hubiera dicho precisamente por el tema del muro, que la Agi la teníamos bastante más cerca. Yo creo ahora, sinceramente, o sea, yo creo que va a llegar, pues seguramente igual tarde cinco años, ¿no? Pues para para el dos mil treinta. Pero claro, luego ves, por ejemplo, a no sé a a Darío, a Model de Antroby que dice que el de, bueno creo que fue el año pasado, que además creo que lo ponéis vosotros en en la newsletter de la semana pasada ¿no?
Donde decía que en dos años, que en el en el veinticinco o en el veintiséis la la íbamos a tener, pero viendo que Elon Musk dice que el año que viene, seguro que son cinco años más. Fíjate los robotaxis
o la
o la conducción autónoma y todo esto.
No sé. Elon trabaja en años perro, entonces ahí que siempre hay que multiplicar por siete. Pero es que yo creo que no te has mojado mucho en dónde quieres poner el dinero, dónde crees que va el, para dónde, hacia dónde va el tema, porque al final un mago nunca revela sus trucos, pero ¿cuál es el timeline que tenéis en la cabeza para los próximos años? Lagi a cinco años has dicho, por ejemplo, pero ¿algo más? Algo que que
Mira, a ver, pues, lo que decías antes, ¿no? Por ejemplo, los agentes inteligentes ya los estamos viendo, hay hay muchísimo de de agentes inteligentes, pero yo sigo pensando que donde está el el cambio son las aplicaciones sectoriales, donde lo que te comentaba antes, con con casos, por ejemplo, en temas legales o en temas de medicina o estamos viendo muchísimo en DevOps, ¿no? Para para para desarrolladores, para crear nuevas herramientas o, no sé, al final, ciberseguridad. En temas de agricultura también estamos viendo muchos verticales en temas de sostenibilidad, agricultura eficiente y personalizada. Estamos viendo en educación muchísimo.
Yo creo que al final, supongo, os pasa a vosotros igual, porque estáis viendo tantas cosas, ¿no? Que que que qué sector no va a ser tremendamente transformado y donde no va a haber una oportunidad. Es que yo lo veo absolutamente en todos, pero sí que es verdad que lo que te decía, ¿no? Educación, ciberseguridad, en agricultura, en fintech, en DevOps, en medicina. Son sectores que están saliendo una barbaridad de de solución.
Y y y Rubén, seguro que que que algún emprendedor, alguna emprendedora o gente que nos escucha y tiene conocidos que están ahí en esa tesitura de de montar algo alrededor de la guía, como con el excitante que está el tema ahora, ¿no? Con la con las ganas que dan de de hacer cosas, ¿qué qué qué tiene que tener una startup para para convencer? Para convenceros, ¿no? ¿Qué qué analizáis dentro de del marco que ya has dibujado? ¿No?
Que que está claro de de, bueno, de del del B to B y de la sectorización, ¿no? Bueno, ¿qué qué temas le le mirarías o qué qué qué requisitos o qué qué puede hacer una startup para para convencerte que que tu fondo, al menos, la la analizo?
Que tenga algo de guía, Porque lo que sí que nos suele pasar alguna vez es que venga alguien y que te diga, no, nosotros tenemos un agente inteligente, luego empiezas a rascar, que al final son automatizaciones que que hacen ciertas cosas, pero de forma automatizada, sin ser
Sí, muy muy muy de arriba a abajo, ¿no? Lo he programado con la lógica clásica, pero en cuanto automatizada ya.
Pero pero que tiene que tener algo más, ¿no? Al final, entonces, que tenga inteligencia artificial, obvio. Que que no sea, o sea, aunque no me pueden gustar los AI wrappers, por ejemplo, o sea, los los wrappers al final sabes lo que es, ¿no? El el la la las típicas servicios o productos que al final lo único que hacen es conectarse a una API, PNUA y devolverte cualquier cosa. No nos gusta que solo sea una Ioal wrapper, ¿no?
Al final, sí que nos gusta que que tenga una capa de datos, que tenga una capa de de sensibilidad, al final a un pequeño modelo, que lo que haga es tener una barrera de entrada para otros competidores. Porque si al final lo único que me haces es conectarme a una API de de OpenAI y me sacas cualquier cosa, puede venir otro mañana y hacer exactamente lo mismo, ¿no? Y es lo que también te pone ya el ejemplo, por ejemplo, de Harvey o el de la base de datos genómica. Oye, si yo tengo una gran cantidad de datos genómica para para tener una barrera de defensabilidad, pues oye, a mí me parece bastante más interesante. Y luego que, bueno, que tengan un equipo, pero esto en general, ya no solo por por empresas de AI, ¿no?
Si si tienes un equipo balanceado donde tienes un técnico, donde tienes uno de negocio, tienes uno de marketing, pues mejor que sean tres técnicos o tres de negocio. Que tenga un founder un founder técnico para nosotros es muy importante y más en temas de IEA, ¿no? Que tengas que no tengas que subcontratar temas de inteligencia artificial, algo que no tengas que subcontratar cualquier parte técnica que es core en este tipo de empresas, ¿no? Si tiene un producto y un servicio en un mercado demandante y que tiene y que está facturando, pues mucho mejor que que no lo tengan. Es decir, al final, nosotros no invertimos en ideas, invertimos ya en productos que estén en el mercado, que por lo menos estén algo validados y que estén facturando.
Para que te hagas una idea, nosotros el primer ticket que solemos poner en una startup es entre quinientos, setecientos mil euros. Y a partir de ahí podemos hacer follow on, o sea, acompañar a la startup hasta tres millones y funciona bien, ¿no? Pues, más o menos ahí es el el switch posts que nosotros vamos.
Qué bueno. Y y y una pregunta, por, como ves el panorama emprendedor, viendo que, bueno, también es tiene una vocación global, ¿estáis radicado en Valencia?
No, no, global del todo, pero lo que te decía sí que vamos a Europa, Latam y Estados Unidos, pero también porque son los mercados que hemos ido durante durante nuestra vida, ¿no? Al final, me encantaría ir a Asia o me encantaría ir a la India o me encantaría ir a a cualquier otra parte, pero es que no, ni tengo los conocimientos ni tengo los contactos ni. Ni, entonces, prefiero ir a los mercados que más conozco.
¿Y y qué te late? Es decir, ¿tú qué impresión tienes así en los primeros pasos del fondo? ¿Crees que habrá muchas startups españolas? ¿Nos ves como un país con con potencial en inteligencia artificial, al menos en la capa de de aplicaciones, aunque no vayamos a tener los modelos gigantes desarrollados en local? La Latinoamérica quizás un poco más, un poco menos, ¿cómo lo estás viendo?
Yo creo que hay innovación, hay en todos los sitios, ¿no? Sí que es verdad, bueno, nos podemos poner a discutir sobre la la regulación aquí en Europa y tal, pero ya sé que habéis tocado tanto que ya no me voy a meter en en este jardín, pero al final sí que es verdad que que empresas españolas, innovación aquí o en Latam hay muchísimo. O sea, el otro día estaba leyendo sobre, supongo, no sé si habéis hablado de ella, la de la de Inbrain, que es una compañía de Barcelona que es competidora cien por cien de Neuralink, que ha levantado más de cien millones y está en Barcelona, o sea, o Kivin, que es una una compañía también valenciana que ha levantado diecisiete millones para para utilizar imágenes radiológicas, para detección precoz de cierto tipo de enfermedades. O O o en Valencia, por ejemplo, el otro día se vendió, ¿cómo se llamaba esta? Arguilla, que es una una compañía que se vendió de NLP, creo que era, que se vendió a Harrison Face.
Quiero decir, yo creo que hay muchísimas startups en cualquier tipo de de región. En España, obviamente, hay muchas y en la OTAN también. Lo único que cambia con Estados Unidos, a ver, Estados Unidos sí que no nos vamos a comparar con ellos, pero tampoco nos podemos comparar con valoraciones, que decir, al final yo creo que aquí en Latam hay buenas oportunidades a unos a unas valoraciones menores que las que pueden haber en cualquier compañía que entren Y Combinator de de inteligencia.
Pues me quedo con ese buen sabor de boca de que aquí también hay espíritu emprendedor y la gente se está subiendo, pues, entre otras cosas, a la a la IEA. Y me gusta, Antonio, este formato de entrevista de veinte minutos. Tenemos que entrar al próximo gran CEO de la IEA español, esté donde esté, te embalses.
Bueno, Rubén, nos ha dado un montón un montón de pistas, está muy bien porque nos ha dado mucho mucho trabajo, además de tus madrugones, Mati, decías, me ves un espíritu de una energía desde ganas de trabajar, es un poco contra la línea editorial del podcast, es verdad, Pero, bueno, tiene tiene que haber de todo.
Pues nada, Rubén Colomer, que está detrás del fondo de capital riesgo Nexttier Venture contra con Patricia Pastora. Robert, muchísimas gracias por venir, de verdad que
estamos encantados. Muchas
gracias. Mil mil gracias a vosotros por invitarme, que ya sabéis que soy fan number one.
Qué bien. Bueno, Matty, es que con tantas noticias, hay dos que a mí me gustaría no dejar de contársela a la a la audiencia, que, bueno, tenemos legislación en España, esa la vamos a dejar para más adelante porque no es tu favorita, pero te puedo proponer, la inteligencia manzana va avanzando, pero se equivoca, atención, ese es un tema, y por qué Broadcom es la nueva, bueno, empresa de moda en el mundo del, bueno, en el mundo, no, en el mercado de valores relacionado con la inteligencia artificial.
Necesito que me cuentes lo de Broadcom, lo de Broadcom, porque que de repente Broadcom, sea la niña bonita de de las empresas de tecnología, no me ha frenado para nada. Pero tengo que decirte que por mucho que Apple haya metido novedades fuera de la Unión Europea todavía, que recordemos que llegan a abrirla a España, en el Apple Intelligence, en la inteligencia manzana con el iOS dieciocho punto dos, o sea, es que me parece de verdad demencial que hayan basado todo el marketing del iPhone nuevo en Apple Intelligence con lo limitado que es esto. Pero bueno, Chat GPT ya ha llegado, ya ha llegado.
Bueno, vamos a entrar en Apple. Tal cosa muy rápida, pues nada, tienen las nuevas funcionalidades. Mi impresión es que por es una lista larga, tienen una que creo que les puede tirar, que es el Genmoji, atención, el Genmoji, no, nadie lo esperaba, pero ahí Apple ha dado un golpe en la mesa. Sí, no podemos decir, Apple es la más avanzada en inteligencia artificial, no, no es verdad, tú la has diagnosticado muy bien, Matías, pero en GMogi, ¿quién le quién le pasa la pata por encima? Pero nadie.
Entonces, atención al GMogi porque la la GMT puede acabar enganchada ahí, no, la GMT no, lo lo después, ¿no? Los los ¿Cómo se le llama? Pues, es alfa alfa, ¿no? Vale, bueno, pero la chavala, por ejemplo, mi hija, yo creo que puede ser una buena candidata a usar el Gemoji. Sí.
Yo Le falta le falta la funcionalidad superpotente, Mati, que es el Siri rehecho por completo. El Siri tiene mejoritas y a veces llama ChatGPT, pero no, ¿y y tú cómo lo ves?
Mira, me encantaría probarlo, pero no voy a hacerlo porque tendría que cambiarme la cuenta a Apple Estados Unidos, y el otro día, haciendo una cosa que moralmente está mal, me abrió la cuenta de Apple, la India, y resulta que luego cuando fui a pagar, creo que fuera en el peluquero, fui a pagar el peluquero, como cambié mi cuenta de Apple, ya no tenía ninguna tarjeta de crédito en Apple Pay. El mal rato que yo pasé en el peluquero no te lo puedo ni cortar, así que no voy a probar Apple y Tellas, sino
Es que claro, tú eres peluquero. ¿No? Y viene un un tipo a que le cortes un unos pelillos ahí, un pocas cosas, ¿no? Contigo no tiene mucho trabajo, Matías, o sea, ser francos.
Sí, sí. Pero que luego Estás devolviendo lo de la la edad, etcétera, bueno, sí, sí.
No, no, bueno, pura casualidad. Tú ponte en la cara del pluquero que tú dices no, este tío que me me está contando que que la India, que su usuario y que el remofi. No sé, pero fíjate, alguien que está enfadado con con API Intelligence es la BBC. Porque, ¿qué le ha pasado a la BBC? Que no está feliz porque, claro, la la inteligencia manzana te resume, ¿no?
Las notificaciones. Entonces, tú puedes tener notificaciones de la información de la BBC y la BBC, pues, titula sus propias noticias, como hacer cualquier Al resumirla, una de ellas, Apple Intelligence,
no había visto, no había visto el resumen, qué bueno.
Empieza diciendo, Luigi Mangiore, el conocido ahora popular, asesino del directivo de la de la aseguradora de de de salud estadounidense, se ha disparado a sí mismo. Claro, esto no ha ocurrido, porque el hombre ya está detenido y está bajo custodia, pero, claro, cuando Apple Intelligence lo resume, hay un matiz importante, sigue apareciendo arriba PVC news. Entonces, de cara al usuario, parece que el error, el error factual que introduce esta este resumen es culpa de la BBC. Entonces, claro, la propia empresa de comunicación británica dice, oye, esto no puede pasar, si tú te equivocas resumiendo, asume tú las culpas que ponga ahí. Apple Intelligence, inteligencia manzana, Team Coop, lo que sea, pero que no ponga que la BBC ha dicho esto porque no es.
Sí, claro, es que esto nos reíamos mucho, el caso de un usuario que su madre le mandó un WhatsApp, he ido de paseo, estoy muerta y el resumen era, tu madre ha muerto o alguien ha matado a tu madre, no me acuerdo bien. Ya, claro, esto es una cosa que le llegue a un usuario random y otra es que todos los lectores de la BBC reciban, pues, una notificación parecida resumida por Apple de que Luigi Van Giare se ha pegado en tiro. Sí, claro. Con tantos admiradores que tiene Luigi Van Giare, pues
Claro.
Seguramente
Imagínate, Apple Intelligence resumiendo el caso de Rafael ha revuelto, ¿no? Broncano mata a Rafael. Claro. En vez de recibo, eso solo lo puedo decir en Twitter por por inflamar la cosa, pero no no puede no puede hacerlo Apple, ¿no? Bueno, hay una cosa ya muy rápida antes de pasar a la otra última sección.
Hoy el capítulo es un poco más largo, porque hay que cubrir dos semanas, amigas y amigos, porque Broadcom tiene un consejero delegado, que puede ser un personaje importante de este podcast. Tan Hawk es Malasio, ¿no? Y es el consejero delegado de de Broadcom. Fíjate, para mí es como si mezclaras a Jensen Juan con José Luis Ávalos. Tú buscas la imagen de Dan Hawk, y si tú dices, yo cruzo con una IA, ¿no?
A Jensen Juan de Nvidia, con José Luis Ávalos, el exministro español, pues te sale prácticamente hot tang o tanghawk, que no, cierto, al cien por cien como es correcto. Bueno, el caso que que Tan la ha liado un poco, bueno, la ha liado un poco, bueno, él dijo algo así como que Broadcom tiene una enorme oportunidad en inteligencia artificial de pegarle un bocado al mercado de los de los chips, al mercado que hará lidera Nvidia y que ha hecho que Nvidia sea esa gran empresa capitalizada entrando en el top mundial y con crecimiento en los últimos años de de una manera extraordinaria. Entonces, dice que en en esta hoja de ruta que él ve para Broadcom hay un mercado potencial de sesenta mil o noventa mil millones de dólares solo en el año dos mil veintisiete, y que Broad Kong está posicionada para hacerse con la parte principal de ese mercado. Entonces, claro, mira, un tío que se parece, que es de Malasia, ¿no? Eso es para empezar, se parece a John San Juan, pero más mayorcito y con un aire de experto, ¿no?
Y que dice, en dos mil veintisiete mal se tiene que dar para no pescar noventa mil millones de dólares más. Pues, claro, el mercado ha de reconado y en en en tromba más veinticuatro por ciento en un día Broadcount. ¿Cuánto hay de base para lo que nos ha contado el amigo Tang o el amigo Hawk? Bueno, el amigo Hawk Tang, pues pues tiene una pequeña base. Esta pequeña base consiste en que Broadcount trabaja con todas aquellas empresas que quieren diseñar sus propios chips de IA y separarse de Nvidia como proveedor principal.
Entonces, ¿qué empresas son esas? Pues Google, que esto lo empezó hace muchísimos años, pero también gente como Meta o como Pythons, ¿no? Como la la empresa que hace TikTok, que realmente tienen mucho interés económico en tener un diseño propio fabricado por Praccom en última instancia, pero diseñado por ellos, controlado por ellos, y en el que gran parte de la factura que tiene Aremos de entrenar y ejecutar modelo inteligencia artificial se la ahorre. Entonces, bueno, esta esta opción, BroadCom, pues es real y está en el mercado, pero ahí tienen que darse dos circunstancias que son bastante hipotéticas. Una, que lleguen a rendimientos similares a los de Nvidia, y Nvidia es mucha Nvidia, tiene muchos años por delante, ojo y cuidado, y dos, que lo hagan en unos términos económicos y que BradfCon sea el el proveedor final que gane esos contratos, que también está por ver, porque tú eres metal y puedes decidir, voy con BradfCon, pero voy con TSBC o podéis con quince.
Entonces, ojito con BradfCon, porque en los próximos años puede ser una empresa importante, sobre todo porque también tienen acuerdo con otro actor importante del que acabamos de hablar, que es Apple. Apple tiene mucho interés en aquello que decía, ¿te acuerdas cuando lo explicamos la inteligencia manzana? ¿La IA va a ser el local o en una nube superprivada secreta controlada por nosotros? Pues en esa nube secreta controlada por nosotros, un proveedor principal de Apple va a ser ProTub.
Qué maravilla la jugada de este señor, el José Luis Ávalos mezclado con Jean San Juan, porque me recuerda un poco, bueno, primero que hay muchas empresas que usan este esta métrica de potencialmente podemos acceder a noventa mil millones de dólares, ¿no? Porque eso en un informe queda superbién, pero bueno, ese es el tamaño de la tarta, luego va a ver qué porción de la tarta te queda, ¿no? Y soltarlo así, es que además me lo imagino como como quién no quiere la cosa así, bueno, has quedado con esto de la IA, claro, se nos vienen encima noventa mil millones de dólares. Yo me lo imagino así contándolo y me parece una jugada maestra, como cuando lo del, creo que fue el de McDonald's que tiró los envoltorios de las hamburguesas en en todas las papeleras para que la gente pensara que estaba vendiendo mucho, o como los de Hawker que segmentaron solo para Cristiano Ronaldo, Susan. Me parece una jugada de marketing bastante buena por parte de Protcom.
Ay, pues, de genios y de figuras. El interés artificial tenemos que hablar en nuestra última sección del capítulo, Mati, que no es otra que puerta grande o
enfermería.
Los artistas visuales, plástico, pero también los musicales, en general, suelen tener una actitud recelosa cuando menos, hostil en ocasiones con respecto a la inteligencia artificial, pero hay uno que puede ser el gran abanderado del uso de la guía, Una persona con un bagaje, con un historial, claro, indiscutible, una figura mundial, maki, intergeneracional, amada por mayores y niños, que no es otra que Chayanne, Matías. Chayanne puede ser la cabecera, la referencia del mundo pro inteligencia artificial. ¿Y cómo lo ha empezado? Porque si bien hay gente que está enfadada y preocupada por la generación de imágenes con Ia usando la imagen de famosos, Chayanne no es así. Chayanne quiere ver el mundo arder, pero, si arde, que sea con una foto suya.
Ha llegado a Twitter, ese mundo ahora salpicado de memes y imágenes creadas con Grove, que pueden generar cualquier cualquier famoso en cualquier sitio, en casi cualquier situación, y ha dicho, venga, por favor, si habéis hecho generadas imágenes generadas con ella, enseñádmelas porque las quiero ver. Eso es eso es valor, Matías.
Para mí esto es puerta grande, pero ipsofacto, puerta grande inmediata. Chayanne, que es más listo, es como el CEO de Broadcom, dice, no, no, por favor, mandad de vuestras mejores creaciones. Si tenemos aquí a Chayanne Naruto, tenemos a Chayanne como un caballero de de la orden, de no sé qué, tenemos a Chayanne en Crepúsculo, Chayanne con Snoopy, me encanta, me encanta, me encanta.
Sí, sí, sí, genio de la comunicación internauta, el cantante Chayanne, y además yo te iba a decir, es que si alguien que tiene que ser torero no le damos puerta grande, pues ya tú me dirás, ¿no? Es que es que esa sección nació para Chayanne en algún día, ¿no?
Sí, estoy viendo a ver cuál descargo para la miniatura de YouTube, porque hay muchas que me gustan. Chayanne besándose con Shrek, pero bueno, alguna elegiría. Que, por cierto, una cosa que no hemos comentado es que Groc ahora está abierto a todos los usuarios de Twitter de x, muy inteligente por parte de x, por parte de Elon Musk, porque, claro, está en su momento, Groc está en su momento, como Chayanne bien sabe, y la limitación que va a tener la gente que no paga por el X premium es un límite de diez interacciones cada dos horas, que yo creo que está bastante bien, en realidad. Así que si no habéis probado Brock, que sepáis que lo tenéis gratis, lo he leído en paréntesis media, señoras y señores, paréntesis media, que es nuestro medio favorito para estar al día de todo lo que se publica en relación con la inteligencia artificial, los tenéis en redes sociales también, paréntesis media, en x, por ejemplo. Antonio, siguiente, puerta de autoenfermería.
Vamos a pasar a otra persona, nos deja un poco duda sobre si es un pionero del inteligencia artificial o o no, que es nada más y nada menos que el dueño chino propietario del español, el señor Shen Jiang Shen. Es mejor, Jiang Shen tiene que afrontar una situación dura. El español no pasa por su mejor momento, está ahí luchando por salir de las posiciones de descenso de la primera división española, pero es que, además, fue eliminado por el Barbastro, equipo de segunda red, en la Copa del Rey. Barbastro, además, parece que va bastante mal, pero se impuso a un primera al español. Y, claro, el día de la junta directiva del club, él tenía que dar un mensaje un poco a los accionistas, ¿no?
Y claro, él no pisa Barcelona desde hace años, ¿no? Es un tío que tiene ocupado, tiene sus cosillas en China, ¿no? A lo mejor, fíjate, a lo mejor tiene perros y dice, viaja a Barcelona, no puedo dejar aquí el perrillo mucho bien suelto. Entonces, lo grabó en vídeo. ¿Qué es lo que ha pasado con el mensaje en vídeo del amigo Chang Shen?
Pues que, básicamente, por lo que sea, a la hora de reproducirlo, y dado que no pestallea No No mueves,
mijo, muy oscuro.
En ningún segundo del vídeo, por lo que sea, algunos periodistas y oficinas del español estaban sospechando que ni siquiera se ha grabado, ni siquiera se ha puesto en la cámara para hablar con los accionistas del club y que se ha hecho todo con con la IIA, probablemente por uno de los empleados del amigo del amigo Chen. Entonces, bueno, queda la duda de, o está generado Coria o el amigo Chen Jianseng tiene la capacidad de hablar sin pestañear durante muchísimos segundos. Sí. Tú que
piensas, las las dos cosas serían impresionantes, porque no pestañear ni mover el cuello que va a acabar con una contractura durante, bueno, un minutillo, me parece admirable. Pero si realmente este hombre, el dueño hace el español, ni siquiera se ha tomado la molestia de grabar el vídeo y le han hecho un deep face. Yo lo yo lo veo bien, me parece eficiente. También te digo que me he perdido varios episodios del fútbol español, porque yo me había quedado cuando los dueños eran eran árabes o o de algún país de Oriente Medio, y ahora resulta que todos son son China.
Ay, pues bueno, sí, tú le das puerta grande. A mí es que me gustaba mucho la la época de los de los presidentes carismáticos, ¿no? Lo lopera del nido, Jesús Gil, Raúl Mendoza, ¿no? Aquella época me parecía como como una una época muy auténtica de del del poder en la fútbol español, y ahora es otra cosa, ¿no? Está como muy profesionalizado, y esto puede llevarlo el amigo Cheng a a a al a su máximo expresión gracias a la ILA, pues nada, Puerta Grande, esperemos que no se nos enfaden los fans del Real Club Deportivo Español, pero vamos con, a lo mejor, una rectificación de este podcast, Matty.
¿Por qué? Porque Eric Smith, el extío de Google, apareció en el portal grande de enfermería, de hecho, aparece muy a menudo. Y claro, por dar un poco de contexto a la audiencia, Eric Smith sostiene dos cosas a la vez, ¿no? Es una persona que dice, hay que impulsar la industria armamentística con inteligencia artificial para que Occidente siga dominando el mundo y pueda ser más competitivo, más eficiente en la guerra, que las potencias que amenazan el modelo democrático liberal de de Estados Unidos y y sus aliados. Entonces, él está durante el día ahí ocupado, impulsando la inteligencia artificial para las armas y la guerra, pero de repente otros días se despertó y salió en el puerta grande porque, básicamente, le preocupaba que las novias de inteligencia artificial pudieran ser un problema para los hombres jóvenes, ¿no?
Es como eso, ¿no? Un día hace, vamos a hacer armas con ella y al recién delante dice, bueno, esto de de que los chagas les salgan una paja con la ella es un problema, ¿no? Entonces, ese es Eric Smith, ¿no? Claro, yo estaba como minimizando ese problema, ¿no? Como quitándole importancia, Matías, hasta que me topé con un hilo de Reddit, cuyo autor no sé por qué lo ha borrado, porque era un testimonio que propiciaba un debate interesante.
El debate, y aquí, bueno, le permito, la audiencia me tenemos que hablar las cosas con claridad, se titulaba acabo de masturbarme con porno de inteligencia artificial, esto es el futuro, chavales. Este es this is the future baby.
Le da un toque más gracioso que por debajo ponga, lo sentimos, esta publicación ha sido eliminada por las personas que las publico originales veces.
Claro. Me
da un toque de comedia final.
Sí, es que, claro, yo el texto me lo había copiado antes de que el usuario lo borrara, y entonces él dijo lo siguiente, y aquí es donde entra la cosa perturbadora, Matías. Hay una mujer, hoy creado una mujer con cuatro culos, cuatro, enfatiza el el el usuario de Reddit, y me ha dado una nueva perspectiva sobre la belleza femenina. El comentario más dotado, what the help, bro? Claro, es verdad que Edith Meet podría tener razón si la si los hombres empiezan a a cuestionar con la IA cualquier canon de belleza asimilable real, por ejemplo, este usuario que que se ha quedado atrapado en la mujer con cuatro culos, imagino que serían con cuatro cachetes, no no estoy seguro que sean cuatro culos realmente, Matty. Pues, esto puede ser muy problemático para para la juventud y también por aspectos como, por ejemplo, el reto demográfico que que tenemos en en en occidente y en todo el mundo, Matías.
Yo
veo que, por un lado, puede ser bueno hablando, poniéndome el sombrero feminista, ¿verdad? Puede ser bueno para que haya menos trabajo sexual de mujeres en el porno y puede ser malo para los estándares de belleza, porque quién tiene cuatro culos, es muy difícil de encontrar a alguien. Entonces, si se pone de moda tener cuatro culos, pues pasamos de Sidney Sweeney a una modelo de IA con cuatro traseros. Es una cosa que no es deseable para las mujeres.
Absolutamente, Matthew, pues con el Mattia más feminista no podemos dar puerta grande a a a esta tendencia de de de multiplicar la parte trasera de los organismos de cualquier género, ¿no? No no no no no nos circunscribamos, no no no no seamos sectarios, tenemos que abrir un poco ahí el el espectro, Matías, y y yo creo que con con esta posición ética monos estocásticos, podemos dar el el capítulo por por terminado.
Buen capítulo, se acaba larguito, pero muchas noticias que contar y con esa entrevista que espero que os haya encantado. La semana que viene,
chao, wamix.