Transcripción
[0:00] Eso va a ocurrir.
[0:02] Pero la sociedad tiene que adaptarse a un mundo en el cual las imágenes no son confiables per se.
[0:07] Hola a todos los monos estocásticos y bienvenidos al podcast favorito de los continuistas porque ha habido un fallo de récord. ¿Qué hacemos publicando en lunes un episodio más corto de lo habitual? Os lo explico rápidamente. En el episodio del jueves había una entrevista, pero había quedado tan largo el episodio que decidimos, ¿y por qué no la publicamos el lunes? Si esto es nuestro podcast, vamos a hacer lo que queramos. Ha habido días que yo me he quedado dormido y el podcast ha salido a las 9 de la mañana en lugar de salir a las 6 de la mañana. Perdimos a los runners en algún momento aquel jueves y desde entonces intento ponerme varias alarmas para llegar a tiempo a las 6 de la mañana. Pues en esas estamos y aquella entrevista, con dos mastodontes de la inteligencia artificial sobre sus apuestas para 2026, os la dejamos en exclusiva para todos vosotros, gracias al Instituto de Inteligencia Artificial.
[1:27] Vaya dos invitados de lujo tenemos hoy. Un viejo conocido del podcast, ingeniero de telecomunicaciones, emprendedor en serie, una trayectoria de éxitos en España, en Estados Unidos, experto en inteligencia artificial, top 0.1% mundial en el ranking de Kaggle. Yo lo presenté la última vez como la persona que más sabe de IA de España. No le gustó el clickbait que hacemos en YouTube. Entonces, lo voy a presentar como el creador del segundo mejor podcast de inteligencia artificial, con un histórico muy recomendable y de escucharlo. Y tenemos también a un doctor en inteligencia artificial, ingeniero de telecomunicaciones y de informática. 20 años de experiencia al mando de empresas tecnológicas, ha dirigido un centro de I+D enfocado en inteligencia artificial para una multinacional alemana. Entonces, la primera pregunta que te quiero hacer y que a nuestra audiencia interesará especialmente es, ¿estudiaste primero Teleco, te arrepentiste y te pasaste a informática o fue al revés? ¿Qué pasó ahí?
[2:31] Sí, sí, yo fui uno de los que siguió la moda de ese momento, que era apuntarse a telecomunicaciones, que era como la carrera más difícil y la que más prestigio tenía. Pero luego mi día a día en el trabajo fue claramente de informática y la verdad es que me faltaba mucho conocimiento ahí y decidí hacer la carrera de informática. Mi camino fue primero teleco y luego informática para cubrir los huecos que tenía.
[2:55] Vale, vamos a hacer esto un poco dinámico. Vamos a ir con ocho predicciones de la industria o de la inteligencia artificial en 2026. Nos tenéis que dar vuestro criterio. Lo primero que se os pase por la cabeza, si lo veis razonable, si no. Y vamos a intentar, como somos cuatro... Dos minutos por predicción. Dispara. Pues vamos a ir rapidísimo con la primera y vamos a aprovechar el momento. El momento es el momento Cloud Code. El momento Cloud Code es de repente ha habido un salto desde noviembre a este principio de 2026 en que las capacidades de los modelos, sobre todo su vertiente agéntica, pues nos ha dejado de nuevo otra vez sorprendidos, otra vez con la boca abierta. La predicción: este momento que ahora mismo está viviendo la gente del desarrollo software se extiende a todo el trabajo del conocimiento. Sea porque hemos hablado de Cloud Cowork o porque el resto de la industria de la IA consigue que ese salto que han dado los agentes de programación se aplique a: saltamos de "le pregunto cosas a un chatbot" a "realmente le puedo plantear procesos con flujo complejo, uso de herramientas, manejo de información propia, privada de la empresa y pública". Y además, puedo tener un umbral de confianza bastante alto en que eso lo va a hacer y lo va a hacer bien. ¿Cómo veis esa predicción de que la industria del conocimiento de repente ya empieza a transformarse de una manera mucho más seria con la IA?
[4:21] Pues bueno, yo lo que creo es que llevamos ya unos años hablando de "el siguiente año va a ser el año de los agentes", desde prácticamente 2023, y creo que este año realmente va a ser el año de los agentes, ¿no? Y lo estamos viendo con herramientas como Cloud Code. Hasta ahora, el mundo de los agentes estaba acotado a investigación como Deep Research o a los programadores que utilizaban agentes en su día a día y ahora estamos viendo ya los primeros indicios del salto a los procesos de negocio, que es lo más interesante porque hasta ahora la IA ha beneficiado a trabajadores y ha mejorado la productividad de individuos, pero no de empresas. Y yo creo que ahora hay una oportunidad de negocio increíble mediante este tipo de agentes: automatizar los procesos de negocio y hacer las empresas más eficientes, no los individuos, que hasta ahora eran los que, desde mi punto de vista, se han quedado los beneficios de la IA. Es decir, los trabajadores han absorbido sus beneficios, pero no las empresas todavía, porque todavía no se ha ejecutado esa oportunidad de automatizar procesos de negocio mediante agentes.
[5:35] Entonces, totalmente de acuerdo, esto de Cloud Code que estamos viendo puede ser el inicio de este nuevo cambio en el cual las empresas ya empiezan a automatizar procesos de negocio y son más eficientes per se. Es decir, el beneficio de la IA no se lo quedan los trabajadores, sino que se lo quedan las empresas.
[5:52] Qué interesante, es decir, si la empresa no consigue transformarse en sus propios procesos e integra la inteligencia artificial capturando la mejora de productividad, al final pasa lo que ha pasado hasta ahora. Luego va a aparecer una pregunta que es que la productividad no está apareciendo en los números macro, pero al mismo tiempo, no sé, tú cómo lo ves, el año de la gente empieza a sonar como el año de Linux en el escritorio. Ojo al peligro de la industria, ¿eh?
[6:17] ¿Algo que añadir? Lo que ha funcionado en diciembre del 2025 y ahora en enero del 2026 es el Cloud Decode. Porque la gente está viendo en muchos... El punto de inflexión es Cloud Decode con Opus 4.5. Lo otro han sido apaños. Mi predicción para el 26 es que si funciona algo en vertical en empresas va a ser con una... lo llaman una silla de montura, o "harness", a una estructura, porque "la gente" es medio abstracto. En algún tipo de vertical concreto. Imagínate, Cloud para Excel, Cloud para Word, algo así. Cloud Desktop como tal todavía hoy en día no funciona, porque tiene muchos problemas de seguridad y todavía no funciona bien la herramienta. Entonces, mi predicción es que si funcionan algunas, serán en un vertical concreto de negocio.
[7:09] Todavía no está listo para todo. Vamos con otro tema que a mí me preocupa porque mi padre no para de mandarme vídeos de cosas que en realidad no han pasado y él se ha creído. ¿Podríamos definir como una crisis de autenticidad cómo vamos a demostrar que somos humanos a los servicios que requieren que seamos humanos? O sea, campanas a sus anchas, chatbots de voz y deepfakes lo suficientemente buenos (y van a ser mejores en 2026) para que lo que veamos y lo que oímos deje de ser una prueba fiable para evitar fraudes, estafa, suplantación. ¿Cómo se va a solucionar esto? ¿Más capas de autenticación? ¿Qué solución tiene esto?
[7:52] Bueno, yo creo que la solución, lo primero que pasa es que la sociedad tiene que adaptarse a un mundo en el cual no se puede fiar 100% de las imágenes que ve. Y esto, al final, es un cambio en la sociedad. O sea, igual que cuando salió Internet no nos podíamos fiar de todo lo que estaba escrito en Internet, aunque fuera un medio de comunicación, pues ahora mismo tenemos que mentalizarnos de que no podemos creer todas las imágenes que vemos. Eso tiene repercusiones en muchos aspectos, pero al final no queda otra, porque mediante regulación tú no puedes empezar a acotar eso. Puedes obviamente reforzar los delitos de suplantación porque ahora son más fáciles, pero la sociedad tiene que adaptarse a un mundo en el cual las imágenes no son confiables per se. Hay que ir a la fuente de esa imagen para darle credibilidad.
[8:55] Tercera predicción. Creo que se trata de un salto grande de la inteligencia artificial en salud con dos vías. El paso de diagnóstico como segunda opinión que ahora mismo ocupa ChatGPT da un salto a un papel mucho más protagonista en el triaje, en la planificación clínica del tratamiento de ciudadanos y hay un avance importante de la integración de la inteligencia artificial. En esa parte del diagnóstico y del tratamiento del paciente, empezamos a ver frutos del uso de IA en el laboratorio y en la investigación médica con productos que realmente empiezan a llegar a los ensayos clínicos y nos dan mucha esperanza del impacto de la IA en investigación médica. ¿Cómo es esto?
[9:55] La primera, que es la parte de salud digital (diagnóstico, tratamiento desde el punto de vista de "hágalo usted mismo"), eso ya está aquí. Creo que cada vez que pasa el tiempo los resultados son mejores. Hace dos años, mi mujer, que es médico e ingeniero de inteligencia artificial, no se fiaba para nada de los diagnósticos de ChatGPT y ahora no es que no se fíe, al contrario, se fía. Y del 5.2 PRO, que es el modelo final de estado de arte y razonamiento, en nuestra opinión está por encima; lo hace mejor que muchos médicos. Entonces, ahí ya estamos: autodiagnóstico e integración en sistemas de salud se está haciendo ya. Pero para mí la pregunta más interesante es la otra parte: en desarrollo de fármacos.
[11:00] Ahí ni siquiera estamos en el GPT-1. Las herramientas que tenemos para diseño de fármacos son muy grandes pero solamente en la primera parte del proceso. Un fármaco tiene la parte preclínica (lo que se hace en ratones). En la parte inicial se está haciendo muchísimo y se van a hacer medicamentos que literalmente quizá no se podrían hacer sin inteligencia artificial, pero luego hay toda otra parte de ensayos en humanos que todavía no se va a hacer. Tiene un impacto brutal a corto plazo en sistemas de salud convencionales y en diseño preclínico, donde estamos trabajando en enfermedades muy letales. Es de las cosas de la IA en las que más fe y esperanza tengo puesta.
[12:49] Tengo una predicción que me interesa: input de los dos, porque creo que puede ser importante. A medida que avanzan productos como Cloud Code en programación, ¿vamos a tener en 2026 un incidente grande por ir con el piloto automático desarrollando productos? Un accidente grande por normalizar prácticas con agentes que, al tocar tanto código sensible, pues puede acabar en desastre.
[13:30] Sí, desde luego. Cada vez que introduces una nueva tecnología aparecen nuevos vectores de ataque que no se conocen previamente. La seguridad aplicada a la IA va a ser un tema muy importante en 2026. Nosotros desde el instituto ya estamos tomando cartas en el asunto. Estos agentes se conectan a herramientas y mediante prompts es muy posible que se puedan acceder a datos privados de empresas. Va a ser un campo que se va a abrir nuevo, que es el de la ciberseguridad para la IA.
[14:49] Pero yo creo que ahí, o sea, tú estás centrado en la parte de ciberseguridad y ataques de adversarios, pero hay otro punto: el de la negligencia pura. Es decir, la gente que dice "uy, qué bien, ya no pienso", como el episodio de Los Simpson donde le das a "Enter" al ordenador todo el tiempo. Un operador en una central nuclear con un agente en bucle que la lía. Ese es otro accidente que pueda haber. Estaremos en un momento intermedio en el cual los agentes funcionan pero a veces te la lían porque están demasiado incentivados a que funcionen y menos a que el código sea robusto. Eso va a ocurrir.
[16:35] Hay un cambio que ha pasado un poco desapercibido en agentes de código. Estos sistemas son especialistas en generar miles de líneas de código en un día, cosa que antes era imposible. Un buen ingeniero hace que el código funcione; un ingeniero excelente hace que funcione con las mínimas líneas de código. Antropic ha liberado una herramienta para simplificar código y esto es importante. Vamos a ver una ventana donde la van a liar. Yo creo que hay un efecto psicológico: conforme los sistemas agénticos me han ido dando buenos resultados, cada vez me paro menos a la hora de decirle que sí. Cuando se equivoque, se va a equivocar a lo grande porque ese "humano en el proceso" era un humano fingido.
[18:25] Bueno, tú fíjate, en un entorno serio tendrías que diseñar el sistema para asegurarte de que el humano está atento. Cada 10 decisiones le cuelas una con trampa para testearlo. En algunos sitios de ciberseguridad se hace con mails de phishing falsos. Es como el responsable de calidad que de vez en cuando mete una tarrina en mal estado para ver si están atentos.
[19:48] Me parece una buenísima take. Tenía una predicción sobre si la IA se convierte en el gran motor de la investigación científica, tanto en generación de hipótesis como en proponer experimentos. ¿Crees que este papel es real o estamos en un punto donde los críticos señalan que solo se genera "basurilla" científica con LLMs?
[20:52] Estamos en un momento confuso porque estamos en todo a la vez. Hay basura extrema porque los incentivos del sistema son publicar. Pero número dos: la IA es muy buena como buscador semántico. La investigación se basa en ir a hombros de gigantes y estos sistemas buscan en todo el corpus científico mejor que tú. A veces parece que inventan una nueva disciplina y a lo mejor solo estaban interpolando entre dos papers oscuros que tú no habías visto.
[22:15] Recomiendo escuchar las entrevistas a Terence Tao. Él dice que la IA es un colaborador utilísimo en matemáticas, pero que la frontera de la extrapolación y generación de cosas realmente nobles todavía es humana. El razonamiento inductivo y la creación de nuevas hipótesis es donde tengo menos confianza en los sistemas actuales.
[23:15] Uno de los grandes déficits de la IA actual es la ausencia de aprendizaje continuo. El modelo es "pre-trained" y se queda ahí, lo cual es problemático. La predicción es que en 2026 se dará con una forma satisfactoria de que los modelos aprendan de su experiencia. ¿Creéis que está al alcance de la mano?
[24:03] Hombre, yo creo que puede pasar, pero yo no sería tan optimista. Todo el deep learning actual, cuando intenta actualizar pesos con información nueva, resulta en "olvido catastrófico" (olvida lo anterior). Es una pieza clave para que un robot se adapte a tu casa, pero no creo que este año sea el año donde esa técnica se generalice.
[25:01] Por hacer de contracorriente, opino lo contrario. Creo que en el 2026 la parte científica sí que va a estar, hay muchos papers en esa dirección. Pero otra cosa es el despliegue en la práctica. Si coges algo que aprende por ahí, corres el riesgo de que aprenda cosas que no te gusten. Si sueltas una IA en un foro y aprende de forma descontrolada, se puede volver hostil o aprender a saltarse salvaguardas. Esa parte de control no se resolverá en el 26.
[27:52] Hablemos de monetización. Hemos llegado a un punto en el que se están igualando los modelos y la inversión ha sido brutal. ¿Se vienen anuncios en ChatGPT hasta en la sopa en 2026? Porque las suscripciones de 20 euros no van a poder cubrir los costes de infraestructura.
[28:31] Sí, ahora mismo solo ganan dinero los que proveen la infraestructura y los que están cerca del usuario final. Los que generan modelos son deficitarios. Tienen que acercarse más al usuario. La pregunta es si hay una burbuja y si va a explotar en 2026. Independientemente de eso, el potencial es enorme. También hay una gran oportunidad para el open source; llegará un momento en que para las empresas sea la opción más económica frente a facturas de tokens muy elevadas.
[30:30] La última predicción: la IA no toca techo en 2026, sigue mejorando. Pero, al mismo tiempo, el impacto económico global que se espera todavía no ocurre (mejora de productividad macro o impacto masivo en empleos). La integración sigue teniendo mucha fricción. ¿Cómo lo veis?
[31:30] En desarrollo de software va a ser brutal. El desarrollo asistido por LLM pone en manos de no desarrolladores cosas que antes no podían hacer. Hace a uno diez veces más productivo, pero a otros les da capacidades infinitas. En el mundo de la producción audiovisual también se va a dar claramente.
[33:11] Para cerrar, una pregunta sobre educación. ¿Cómo se va a enfocar en 2026? ¿Cómo la veis?
[33:27] Es una pregunta que nos hacemos muchísimo. La IA genera muchos autodidactas. Yo pienso que los juniors se pueden hacer seniors de manera muy rápida gracias a la IA; antes necesitabas años de experiencia en empresa y ahora puedes aprender mucho por ti mismo. Toca pensar una nueva educación para el mundo post-IA.
[35:03] ¿Y para enseñar IA? ¿En qué ponéis el foco en 2026?
[35:18] El foco no debe estar en el uso de herramientas, sino en comprender lo que hay por debajo. Comprender a "la bestia" para ser consciente de sus limitaciones y potencial. La IA bien usada da un salto de productividad; mal usada te hace un trabajador mediocre.
[36:13] Para la educación reglada (colegios/universidad), la IA ahora mismo es una molestia porque los chavales hacen trampas y los profesores corrigen con IA. Es un desastre. En la parte profesional: si eres junior, haz que la IA multiplique tus capacidades (velocidad y ejecución) pero que no amplifique tus carencias (no le des a "Next" sin pensar). Si eres senior: no apuestes contra la IA, te vas a equivocar. Aprende la herramienta para aportar el valor que le falta y factorízala en tu aprendizaje sí o sí.
[39:12] Vaya cierre. Dan ganas de mancharse las manos y aprender todo lo posible. Lo chulo será cuando en 2027 nos volvamos a reunir y veamos los resultados. Muchas gracias por venir.
[39:27] Un placer.