¿El más decepcionante regreso de temporada? Puede ser. Pero estamos de vuelta, y repasamos el curso en inteligencia artificial:
1. Cuánto se nos ha ido de la mano el hype con la inteligencia artificial
2. Nvidia es la gran ganadora de la temporada de verano
3. ChatGPT-4 sigue siendo el mejor pero para muchos es difícil seguir justificando seguir pagando
4. LA IA sigue siendo la leche en investigación
5. Los pasitos del coche autónomo nos dan una pista del futuro robótica e IA
6. A qué profesiones (y cómo) afectará la IA: el coaching o la consultoría
Además, hemos matado una sección e inventado otra
Más en monosestocasticos.com
Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com
Transcripción
Bienvenidos a la segunda temporada de Monos Estocásticos. Bueno, habíamos prometido muchas cosas. Qué decepcionante regreso de temporada, Matías. Esto hay que reconocerlo. Somos como el Real Madrid sin Mbappé, como Ramón García sin la vaquilla, Matías. Este regreso de Monos Estocásticos con cero novedades, exactamente. Además te la has jugado con lo de Mbappé porque por lo visto hay novedades hoy
mientras estamos grabando, así que no sé si cuando se publique este episodio estará o no Mbappé en el Madrid. La cuestión es que, bueno, un poco anticlimático porque en el último episodio habíamos prometido como que va a haber muchos cambios y por ahora el único cambio que estoy viendo en cámara es que tengo menos pelo. Sí, sí, Matías hoy está arriesgando con su corte de pelo, eso es verdad.
Pero al margen de esta gran novedad, creo que poca cosa. Bueno, estamos trabajando en ello también. Somos un podcast que las novedades las dosificamos. No queremos agobiar ahí, atosigar con un aluvión de cambios el primer día.
Estamos un poco vuelta al cole y además el episodio es de vuelta al cole, Mati, porque es de las asignaturas de la inteligencia artificial 2023-2024. Sí, vamos a hablar un poco de cómo va a ir el curso, este nuevo curso del podcast y menos mal que al final no salió lo del LK99. Uff, yo lo estuve temiendo, Matías, porque dije, como esto salga, nos va a eclisar la inteligencia artificial. Claro, ¿a quién no le va a molar un superconductor a temperatura ambiente? Eso a todo el mundo le mola.
Entonces, hubiera sido un gran competidor. Así que, bueno, no le vamos a quitar la encía, menos mal. No ha podido usurpar el hype de la IA. Al final no era ni superconductor, no sé, era como un imán. Claro, es que tendríamos que aprender de todo eso. Pero vamos a lo que nos compete a unos más que a otros, que es la inteligencia artificial y estas asignaturas que vamos a tener en el curso que entra y los temas de los que vamos a hablar principalmente.
Y este primer tema engancha con algo que ya se venía rumiando en los últimos episodios del podcast y es, ¿se nos ha ido de las manos el hype de la inteligencia artificial? Es que ahora mismo la opinión pública este verano ha pivotado entre esos dos extremos. Entre los que dicen, oye, pongamos el freno que se nos ha ido, se nos ha ido de las manos esto de la inteligencia artificial, el hype es excesivo.
Y, bueno, otros indicios, otros datos, otras opiniones que quieren profundizar, quieren abrazar el hype y a lo mejor decir hasta que nos hemos quedado cortos. Tenemos, bueno, la prensa seria Anglosajona, Wall Street Journal, Financial Times, ya están dando ese aviso. Los grandes críticos de esta generación de inteligencia artificial, por ejemplo, un Gary Marcus, también está todo el día con ese soniquete de,
oye, es que ya el chat GPT lo usa menos gente, es que los chavales se van de vacaciones en verano y no lo usa nadie, van a ir metiendo el dedito. Sin embargo, hay otros datos y otros números que invitan al optimismo. Entonces, tenemos de los dos, Matías, ¿por cuál empezamos? Pues mira, por ejemplo, el Wall Street Journal compara esto de la guía con la burbuja.com. Luego el artículo habla mucho de NVIDIA y de los resultados de NVIDIA,
de los ingresos de NVIDIA, de los que hablaremos más adelante en el episodio. Pero bueno, no sé, ¿tú lo ves como una burbuja.com? ¿Estamos repitiendo los mismos errores? Bueno, yo creo que no, sobre todo la burbuja.com. Bueno, es que si hay a la vez muchísimas voces cépticas, no puede haber burbuja. Es una contraposición en términos, la burbuja es una predisposición sociológica de estado de entusiasmo, se nublan las razones
y se piensa que algo que realmente no es muy productivo va a conseguir estar creciendo de una manera casi indefinida. Entonces, bueno, yo a burbuja y equiparación con la.com de momento no la veo, pero es verdad que tienen un argumento bueno, que es la burbuja.com tenía preñada como una promesa de que iba a conseguir esa nueva economía basada en Internet, basada en digital y que estas empresas tendrían unas rentabilidades muy por encima
de las empresas clásicas, digamos, pre Internet o pre tecnológicas. Bueno, pre tecnológicas no es correcto porque muchas de las tecnologías incluidas las del motor, etcétera, pero bueno, pre Internet. Bueno, el caso es que está por ver que las empresas, tanto las nuevas como las de los emprendimientos, las startups, como las maduras que utilicen inteligencia artificial y lo adopten, consiguen esos aumentos de productividad y rentabilidad
que se les espera a la IA. Entonces eso todavía no ha pasado. Ahora, como repasaremos, Nvidia está ganando pasta, OpenAI está ganando pasta, pero oye, las empresas que están adoptando la IA están mejorando su resultado. Esa es la gran pregunta, ese es el gran debate.
Entonces para eso es verdad que no tenemos respuesta. No, claro, es que mientras la prensa da esto como burbuja hype, etcétera, etcétera, el dinero que se está viendo es una locura. Hace poco se comentaba mucho un puesto, una exposición que abrió Netflix en la que ofrecía un salario de 900.000 dólares en un puesto de inteligencia artificial.
O sea, el dinero de las empresas, esto de la burbuja, no sé si lo ven porque se están dejando, se están sacando el bolsillo. Lo mismo, su primera tarea era detectar las cuentas compartidas que quedan, Matías. Entonces para Netflix puede ser rentable esto de darle casi el millón de dólares al pollo este. El informe de LinkedIn que ha abierto, la gente que nos está viendo en YouTube lo puede ver, pues habla de que al menos los trabajadores
tienen ese olfato de que aquí se pueden mejorar las condiciones económicas y de que aquí merece la pena formarse y estudiar porque han añadido hasta 15 veces más, hay 15 veces más en junio de este año que en enero temas relacionados con IA, del tipo chat GPT, ingeniero de PROMS y así similar. Este lo vimos en Twitter, todo el mundo que tenía algo, hashtag, crypto, hashtag, metaverso en la bio, se lo cambió por
PROMS en chat GPT. El reciclado es profesional, es que siempre hay que estar aprendiendo, Matías, nunca se sabe. Es como el tío este que salía en los informativos, que siempre era experto en algo diferente, a visual en Twitter. Sí, creo que en la pandemia hubo alguno de estos. Pero bueno, el caso es que está por ver que la gran pasta, digamos, disciplinas menos duras tecnológicamente, por ejemplo, ingeniero de PROMS, utilizar chat GPT.
Bueno, pues ahí yo creo que va a haber muchísima gente y probablemente no tanto dinero. Sin embargo, en las posiciones de ciencia más dura, sobre todo en la parte de los matemáticos y también ingenieros que puedan, digamos, estar en las tripas de estos modelos, probablemente no haya tanta cantidad de trabajo como tampoco va a haber tanta oferta disponible. Y ahí puede haber algo más de dinero. Pero bueno, el caso es que empieza a haber números también
de que los chavales se están volviendo a estudiar más informática. En Reino Unido apuntan a un 10% más este curso que el pasado. Es un dato potente de que los chavales están, digamos, gracias a la IA entusiasmándose o interesándose más por la informática. Y bueno, es que claro, todos estos números son pro-hype. Oye, que vamos para adelante. Pero luego hay otros números que son un poco anti-hype.
Hay un estudio de Pew, que es una agencia estadounidense que hace estudios con encuestas muy potentes, muy grandes. Y hay una cosa curiosa, Matías, porque lo veíamos esta mañana, lo compartimos en Twitter, que solo el 18% de los adultos estadounidenses ha usado chat GPT. Solo el 5% prevé que los chavos sean muy útiles para su trabajo y casi todos piensan que va a cambiar más el trabajo de otros que el suyo.
Entonces, son unas expectativas curiosas. Mucho optimismo. Yo creo que mi empresa está a punto de reemplazarme por una IA. Ya te contaré más. Hablaremos, Matías. Pero sería un gran error. Matías Zavia es irreplaceable. Así que, bueno, el tiempo dirá. ¿Tú qué piensas? ¿Tu trabajo es o no es de los que es fácilmente reemplazable por un chat GPT? Nunca me lo he planteado realmente en serio. Por chat GPT, como está ahora, seguro que no soy reemplazable.
Claro, por los chat GPT que están por venir, los nuevos modelos que pueda haber en el futuro, pues no lo sé. Porque al igual que hay mucho anti-hype, oye, que chat GPT se usa menos, que las cosas no están llegando a producción, que esto sirve para hacer los trabajos del instituto y poco más, que siempre hay errores y alucinaciones. Todo ese mensaje de que hay que desinflar la burbuja, mientras tanto, el CEO de Antrophic,
que es la empresa que ha hecho ese modelo del que tanto hemos hablado, que es Cloud, le entrevistaron y dice, oye, que en dos o tres años, la inteligencia artificial podría tener la inteligencia o el nivel de un humano generalmente bien educado. Este es el señor, se lo podemos ver en el vídeo. Y en dos o tres años, es decir, ahora mismo tenemos los dos extremos justo delante de nuestra, Mati, los que ya están flipados.
Vamos a una inteligencia a nivel humano y los que están diciendo, este es un chat bastante estúpido que ni siquiera me sirve para el soporte al cliente en mi web. Bueno, esto soluciona el problema de la natalidad. Si la guían en un par de años y además tan lista como nosotros, solo faltarán los robots para suplir a gran parte de la fuerza laboral y ya está listo. Que sea un mundo de robots trabajando y hablando entre ellos.
Bueno, pues estos son los puntos a favor y en contra de si hay o no hay hype. La primera es signatura, la segunda es, Mati. Pues envidia, porque lo adelantamos al principio del episodio. Todo el mundo está hablando de envidia. Creo que aquí está la acción de envidia. Año a año ha subido un 243% en el momento en el que estoy revisando esto. Y esto, bueno, incluso más reciente, desde principios de año,
desde mayo se ha pegado otro subidón, enero, etc. O sea que nada, todo tiene que ver con la IA y porque al final es envidia la que está teniendo el monopolio del hardware sobre el que se entrenan estos modelos de inteligencia artificial. Sí, lo discutimos en uno de los episodios anteriores. Es la fiebre del oro de la IA y lo que hacen las palas son envidia. Según distintas fuentes, distintos estudios,
tienen entre el 80 y el 95% del mercado de GPUs para entrenar inteligencia artificial. Y ahora mismo hay una fiebre absoluta, absurda y loca por conseguir los chips de envidia. Hay una fiebre china de compra de GPUs antes de que en esa guerra comercial que mantienen con Estados Unidos se les prohíba la compra. De hecho, también hay una gran aceleración en la industria de semiconductores por parte de China
y un intento y una preocupación muy grande de poder tener GPUs que compitan al nivel de envidia. Pero bueno, hasta dónde sabemos. Están muy lejos. Entonces, bueno, compras de grandes empresas, Paytas, Alibaba, Baidu, han encargado hasta 5.000 millones de chips envidia. Emiratos Árabes, Arabia Saudí, un montón de países, el gobierno británico, están gastándose muchísimo dinero también en comprar GPUs de envidia.
Y hasta empresas desconocidas o poco conocidas, por ejemplo, Cerebras, que era una compañía que diseña GPUs también, pero que yo no tenía para nada en el radar, empiezan a cerrar superacuerdos porque envidia está muy difícil de conseguir una GPU de estas. Todo esto en general era el chip H100, el que lo petaba, pero luego han presentado el GH200, que es tres veces con más capacidad de memoria que la memoria en la IA.
Es muy importante, ¿no? La tasa de transferencia también. Y pues eso, es la única empresa que está consiguiendo llegar a estos niveles de rendimiento más allá de las que fabrican sus propios chips de IA, de los que hablaremos más adelante. Por un lado, es lógico, si existe esta fiebre por llegar antes al entrenamiento, a los modelos, a la tecnología, pues es lógico que la empresa que tenga los mejores chips
esté creciendo de esta manera. Sí, aquí la competencia envidia lo discutimos un poco en el episodio que le dedicamos. Por un lado, está esta corriente china que necesita la independencia tecnológica para no verse fuera por un posible veto futuro. Y por otro lado, viendo estos económicos, pues tanto Google como Amazon ya tienen sus chips. Meta y Microsoft tienen anuncios, pero en principio son más dependientes de Nvidia todavía.
Y esa es un poco la carrera en este sector, pero da la impresión, aparte de lo que pueden hacer Intel o similares, o AMD, es que tienen ahora mismo años de ventaja y que aunque está por ver qué posición en la cadena de valor de la inteligencia artificial es la mejor para hacer negocios, al menos estos meses, al menos en esta época en que todo el mundo está sufriendo ese FOMO, ese miedo de quedarse fuera,
estados, compañías, nadie quiere ser la que no pueda entrenar un modelo de inteligencia artificial los próximos meses, años, es una posición para Nvidia fabulosa, la mejor posición en el sector tecnológico ahora mismo. También es una razón para tener muy en cuenta y echar el ojo a la competencia y a empresas que tienen mucho enfoque en el desarrollo de hardware para entrenamiento de grandes modelos como por ejemplo Cerebras,
que ha firmado un contrato de 100 millones de dólares con G42, que es un conglomerado tecnológico de Abu Dhabi. O sea, los petrodólares también están en esto, igual que en China, en los petrodólares también hay mucha inversión en hardware para entrenar modelos de inteligencia artificial. GPUs, Cristianos Ronaldos, están un poco a tope. Bueno, tercera asignatura. ¿Tú has encontrado en IA algo mejor,
Mati, que GPT-4? No, la realidad es que, fíjate, justo qué casualidad, había cancelado la suscripción, llevo ya varios meses pagando los 20 dólares al mes, y había cancelado la suscripción porque, claro, ahora hay tantas opciones disponibles, aparte de Bing, está BARD, que ya la tenemos disponible en español, etc. Que digo, igual no vale la pena, pero siempre acabo volviendo, y ya lo estoy pagando de nuevo,
acabo volviendo a ChatGPT, a GPT-4, a pesar de las fricciones, que tienes que activar los plugins para poder leer documentos, para poder consultar la Wikipedia, etc. A pesar de todas esas fricciones, me sigue dando los mejores resultados, y te diría una cosa, te diría que uso ya más ChatGPT que Google, salvo para buscar webs concretas, etc. Pero para consultas, preguntas, etc., te diría que ya estoy usando más ChatGPT.
Sí, yo estoy un poco en tu barco, Mati, no he encontrado algo mejor. Es verdad que yo, por ejemplo, hago un uso muy intensivo de resúmenes de páginas, de artículos. Prefiero que la IA me haga un resumen si el artículo es largo, si además es en inglés, etc., o es un paper. Y ahí Bing suele comportarse bien, porque además lo tienes en la barra lateral del navegador Edge, y está guay. Pero ChatGPT me parece el mejor
sobre un caso de uso que he hecho bastante intensivo este verano, que es leer un ensayo con el ChatGPT al lado. Entonces, cuando lees ensayo con la IA al que puede hacer preguntas y le puede hacer consultas, a mí me ha parecido chulísimo, porque de repente estoy leyendo ahora a Anil Seth, que tiene un libro intentando explicar la conciencia humana y las investigaciones científicas alrededor de entender qué es
y cómo medirla, etc., y cómo intentar estudiarla. Pero de repente está haciendo una cita, yo me acuerdo de algo que había leído, se lo consulto a ChatGPT, oye, este es otro autor que decía de esto. Entonces, es como la lectura de ensayo es una lectura de ensayo con estereoído. Es como si el ensayo lo estuviera leyendo pero a la vez alguien listísimo me estuviera completando un poco la experiencia. Entonces, yo estaba ahí
al punto de quitarme el ChatGPT, el de pago, pero realmente entre que he hecho este uso y que he encontrado un plugin que era el de el de WebPilot, que lee muy bien las webs de fuera. Entonces, con ese estoy también muy contento. Y bueno, ahí seguimos. Entonces, han pasado los meses y nadie le ha pasado la pierna por encima a OpenAI. Pero, bueno, los críticos dicen mucho que la gente se ha cansado, que se le ve aquella crítica que hubo
de que había bajado el nivel, de que cuanto más lo usas más te das cuenta de sus debilidades. Bueno, ya veis, por ejemplo, este es el amigo Gary Marcus, que se ve un poco charripicar de todo lo malo, de todo lo negativo que se puede decir de la guía. Siempre está enfadado este Gary Marcus. Sí, sí, sí, como siempre está ahí apretando los puñitos. Gary, relájate, hombre, que es en agosto. Vete, no sé, al muñecar, tómate algo, no sé.
Bueno, en fin, yo creo que también es verdad que la mayoría de la gente suele hablar de la experiencia con ChatGPT 3.5, que es verdad que está un par de peldaños y aquí, para ver si este reinado sigue, el de nuestro querido y amado GPT 4, tenemos que hablar de Gemini. Matías. Sí, y podría llegar pronto, ¿no? Eso confirma, bueno, o eso afirma The Information. Sí, The Information, que suele ser muy fiable,
habla de otoño. Además, hay algo que parece bastante confirmado, que es el regreso de Sergey Brin, uno de los fundadores de Google, que, bueno, ha vuelto, no sabemos de qué estaba haciendo este hombre, yo creo que estaría ahí, pues, jugando al Skyrim, ¿no? O al golf o algo, ¿no? Claro, yo me lo imaginaba en un yate en Ibiza o en las Bahamas o por ahí, pero se ve que el tema le ha interesado y ha vuelto al puente de mando.
No sé con qué sentido, porque no se fiará de Suntar Pichai para liderar este nuevo esfuerzo de Google o, bueno, a los accionistas ven algo más interesante en la personalidad de Sergey Brin. Puede ser, hombre. Yo creo que la confianza en Pichai, Pichai al principio, cuando se ha hecho GPD, se le pone bastante en cuestión. Yo creo que ha pasado un poco la primera tormenta de críticas de ver tambalearse el mundo
o la era de dominación de Google de la experiencia digital, pero mi impresión es que lo de Brin tendrá que ver con que por fin se ha interesado por algo, porque ¿para qué se va a quedar? Si Google va con el automático puesto, pero ahora que vienen tiempos agitados, pues, a lo mejor, ve un espacio más para él. Y, bueno, tampoco encima de la creación de un producto está directamente involucrado ahí en el día a día
y es una posición en la que Brin, pues, bueno, ¿quién sabe? A lo mejor puede aportar sus dotes de liderazgo y técnicas. ¿Quién sabe? Bueno, el caso es que lo que se está filtrando de Gemini es que en términos de preentrenamiento va a multiplicar por cinco o hasta por veinta la exigencia de computación a la hora de ser entrenado y, bueno, es el único candidato que se ve este año con posibilidades de competir
con ChagPT y, mientras, OpenAI da una serie de pasos un poco curiosos, Mati. Un poco, unos pasos que a mí me tienen un poco desconcertado en algunos temas. Sí, me ha costado incluso ponerme al día o seguir en tiempo real todo lo que estaban presentando porque en este verano se han presentado bastantes cosas y todas orientadas a extender ChagPT en sí y GPT-4 y sus APIs a, por ejemplo, a un entorno empresarial o a la moderación de contenido
que me hizo mucha gracia que esto lo tuiteaste tú compartiendo estas pestañas. Porque, claro, hoy en día ¿qué pasaría si moderas ChagPT-4? Que probablemente darían todos los comentarios todos los comentarios ocultos. Porque, al final, ChagPT sigue siendo un poco NetFlanders. Claro, el punto es que mi impresión con OpenAI es que no saben si van a jugar la carta de plataforma. Es decir, yo tengo el modelo, te pongo un API
y hay gente que hace aplicaciones y servicios por encima si soy una empresa proveedora de los B2B o hago yo directamente el B2B y, además, mi relación con Microsoft, ¿en qué queda? Porque es un superinversor con mucha fuerza y mucho poder teóricamente el 49% de la propiedad de OpenAI pero, a la vez, es el que en Azure tiene mis modelos los comercializa para empresas y, a la vez, yo saco lo que han sacado estas últimas semanas
el fine tuning que es decirle a una empresa entrena GPT 3.5 entrenalo con los datos de tu empresa por ejemplo, con datos de soporte de preguntas y respuestas para que lo aprendas y así puedes usar nuestro bot para esas tareas de soporte. Con este fine tuning se suben a la empresa a la que directamente las empresas lo contraten de acceso ilimitado a GPT 4 sin límites por llamada la ventana contextual ampliada analítica de datos más avanzada
lo puedes personalizar mucho más bueno, es decir, de repente le están diciendo a las empresas para usar chat GPT GPT 4 directo y para tus servicios empresariales no tienes que pasar por Microsoft sino que puedes ir directamente con nosotros lo cual es un poco confuso el posicionamiento y la estrategia de todo esto. A ver, por un lado el fine tuning con tus propios datos o sea, yo no lo puedo hacer pero para una empresa
tiene que ser muy interesante por otro lado esto es muy caro y además está todo centralizado en OpenAI cuando hay empresas que a lo mejor les convendría entrenar sus propios modelos a partir de llama y luego está la fiabilidad de OpenAI que siempre ha estado en entredicho porque entrenan con nuestro historial vuelven a reentrenar y afinar los modelos pero claro, para empresas dicen que no que no lo van a usar para entrenar sus modelos
entonces, por un lado resulta muy interesante y por otro lado, ojo que esto por un lado es mucho más caro y luego OpenAI, el mejor socio para muchas empresas grandes Claro, en términos de seguridad y privacidad pues a todos CTOs se les tiene una alarma voy a meter toda la info de mi empresa ahí en los servidores de OpenAI ¿para qué? ¿para qué va a pasar? Bueno, es un dilema desde que empezó el cloud computing
está la escuela de los todo lo hago yo y todo lo tengo en casa que yo creo que tiende un poco a ser una posición minoritaria bueno, utilizo cloud que al final utilizo los ordenadores de otro y uso APIs y servicios de terceros con mucha alegría bueno, el caso es que la gran alternativa yo creo que la la ha construido Meta con Llama porque lo que te permite si eres un CTO muy ceroso de tu seguridad, de los datos de tu empresa
te permite perdón por la palabra, hospedar bueno, hostear el modelo en tus propios servidores reentrenarlo y tener el control del reentreno directamente y no depender de una API el tema es que a veces construir tú solo aunque la API sea muy cara puede ser más caro y puede tener un coste mayor tanto de startup como de mantenimiento que el uso de la API y a lo mejor con Llama no llegas al nivel de calidad de servicio
que si te da GPT-4 bueno, es un dilema técnico para los dos serpientes de verano muy interesantes, Mati una, hubo un rumor un pseudoanálisis que decía que oye, OpenAI al ritmo que va gastándose creo que eran 700.000 dólares al día que cuesta mantener echar GPT va a quebrar en unos meses porque se van a gastar toda la pasta que le dieron Microsoft menos que canta un gallo a la vez, The Information el medio que volvemos a citar
que estaban ahí y tenían ganas de mentir lo otro y han filtrado un poquito que lo que esperan ingresar en 2000 bueno, en el año que entra es 1000 millones de dólares el famoso billion americano bueno, pues está claro que ingresando 2.7 millones de dólares al día esos 700.000 dólares operativos diarios que gastan no son un problema si las cuentas que da The Information es que probablemente se han puesto en pre-keeping
es decir, si OpenAI pasa de ser una startup en pérdida que necesita inversión y tal a que probablemente pase a un modo en el que ya empieza a dar beneficios y pueda reinvertirlos en la propia empresa o no, o repartirlos pero bueno, el punto es que a mí me encuadra más lo que dice The Information que va a entrar en pre-keeping los 1000 millones el año que viene porque encaja con lo de NVIDIA encaja con los números de NVIDIA
que es una empresa cotizada son datos bastante más transparentes que los de la empresa no cotizada como OpenAI y que apuntan que hay una fiebre enorme por montar productos, servicios de inteligencia artificial muy raro sería que en este entorno con el mejor modelo con la API más avanzada más madura y con la mejor marca reconocida por todo el sector estuviera pasando problemas económicos hay algo no encaja hay algo que no tendría sentido
entonces probablemente a OpenAI ya empieza a irle muy muy bien Bueno, pues nos veremos a Sam Alman en la cola del INEM porque por ahora parece que todo marcha bajo su liderazgo Siguiente asignatura un repaso a lo que va a ser el curso que entra en inteligencia artificial y un tema del que hablamos quizá de forma salpicada pero siempre es una constante en monos estocásticos es la ciencia y la investigación porque la inteligencia artificial
como diríamos Gary Barker no es solamente un chat con el que hablar y contarle nuestras penas sino que puede hacer mucho más por ejemplo Google ha presentado los resultados de una iniciativa que me pareció muy chula de hecho lo publiqué en Gizmodo y es una IA que ayuda a mitigar o hacer desaparecer las estelas de los aviones que es un tema que en internet causa muchos debates estúpidos pero resulta y la verdad es que esto
yo no lo sabía que las estelas de los aviones a partir de la conspiración de Nero Fumigan y tal realmente tienen un impacto en el calentamiento global por el efecto invernadero por cómo absorben el calor, etc. entonces el 35% del impacto de la aviación la causan las estelas de los aviones y Google ha cruzado mediante una inteligencia artificial predicciones del tiempo, etc. y por dónde van los aviones para detectar dónde se van a formar
estas estelas a avisar a los pilotos que cambien la elevación, la altitud a la que van y eviten formar esas estelas por donde pasan hicieron una prueba con American Airlines y resulta que de estos 70 vuelos del ensayo, de la prueba pudieron reducir un 54% las estelas así que no sé qué van a hacer a partir de ahora los conspiranoicos Yo creo que deberían tomar nota de un ejemplo de por dónde pueden ir los tiros
de hecho para este episodio tenemos anotado aquí como 5 o 6 casos súper interesantes te propongo una cosa, Mati vamos a ponerlos en la newsletter y ahí podemos desarrollarlos y ponerlos con el enlace pero lo que ha sido este verano es la noticia de usos muy muy interesantes en ciencia y medicina de inteligencia artificial en el cribado mamográfico que ayuda y apoya muchísimo y mejora los resultados del trabajo
de los carbiólogos implantes que devuelven sensibilidad y movimiento a paralíticos una empresa que se llama Recursion que utilizando el estudio de DeepMind del estudio de las proteínas que la capacidad que han conseguido para predecir interacciones químicas va a dar lugar a una aceleración en la producción de nuevos fármacos y hay un proyecto en el que sí a lo mejor podemos esperarnos que es el proyecto de Eric Smith
Eric Smith fue el antiguo CEO de Google que estaba con Sergi Larry y era como el adulto en esa habitación Eric Smith ha creado una organización científica sin ánimo de lucro lo que era OpenAI antes curioso que va a estar centrada solo en resolver grandes retos científicos usando la inteligencia artificial que dice Smith va a la inteligencia artificial transformar la forma en que haremos la ciencia, Matías
Esto es un poco lo que quería hacer con XI lo de resolver preguntas difíciles de resolver desafíos veremos quién acaba resolviendo más desafíos y preguntas científicas porque Eric Smith me parece más enfocado con este nuevo proyecto que Elon Musk Bueno, la gente engaña a más se les ve venir no me voy a creer nada de lo que me digan a Elon lo conocemos pero a veces los seres de la vida tienen mal lucro luego empiezan a pasar los tickets del taxi
y ya empieza a hacerse la bola tú tené cuidado Sí, sí, como los gubiales que tenían dietas y no sé qué más cobrando 700.000 euros Venga, pues continuemos Bueno, hay un caso que creo que puede ser paradigmático en el mundo del futuro de la robótica en términos de impacto desarrollo, aceptación, debate de esas variables que tanto nos interesan que es el caso de los robotaxis en California porque los reguladores
le han dado el visto bueno a Waymo y a Cruise para ampliar los servicios de robotaxis en San Francisco aunque ahí hay un poco tensión porque mientras los reguladores parecen ver bien que estos robotaxis no tienen nadie al volante nadie humano al volante tanto la ciudad el ayuntamiento como algunos grupos activistas están algo en contra o discuten que esto sea la medida correcta y acertada Pues mira esta noticia no me sorprende
porque yo sé que en San Francisco cada dos por tres hay noticias de gente harta con los robotaxis que huyen de la policía o que se quedan parados o que hacen cosas raras pero me decepciona Antonio que no hayas metido aunque sea como anécdota un reportaje que salió hace unos días de que la gente Ojo, ojo, ojo está en el Puerta Grande o Enfermería Mati Está ahí, está ahí Tenemos que dejar a la gente con ganas de nada
Amigas y amigos estocásticos Bueno, el punto es que fijaros cuantísimos años llevamos con los coches autónomos En el episodio de Cristina Urdiales el que dedicamos a la robótica el episodio que recomendamos mucho porque por fin viene una persona que sabe de lo que habla de este podcast Cristina nos venía a decir un poco que la parte técnica ya la había bastante más resuelta y lo que había menos resuelto
en estos cacharros Bueno, ahí hay un poco de debate porque los críticos dicen que el mundo real es tan complejo hay tantas casuísticas que se pueden dar no predecibles y que no han pasado por los datases de los entrenamientos de estos coches que siempre va a haber un margen de error y de problemas que un humano a lo mejor resolvería bien pero un robot no tanto y que por lo tanto es un problema tan técnico que hayamos tardado décadas
desde que empiezan los proyectos de coches sin conductor de coches que se conducen solos a que los veamos en producción y en entornos muy controlados entonces, aunque el pseudo-antrófico nos hable de agi los despliegues de sistemas en el mundo real son lentos tienen resistencia social y son realmente complicados que se lo digan de nuevo a Elon Musk que lleva intentando convencernos de que sus coches tienen full self-driving
y conducción autónoma total y a los que no convence todavía es a los reguladores que lo tienen todavía ahí en el punto de mira por tantos accidentes En Europa éramos más lentos En fin, ¿qué más asignaturas tenemos que repasar en el episodio de hoy? Bueno, la asignatura de inteligencia artificial y el empleo vamos a hablar muchísimo de ella en esta temporada y bueno, hay una cosa que podemos contactar es decir, no todo el mundo
ha perdido su trabajo por la IA casi nadie ha perdido su trabajo por la IA por lo tanto, ese pánico inicial de repente este avance va a provocar una catarsis de desempleo que las sociedades no podremos asumir no, no está pasando no se cómo lo hará, si esto implicará mejoras o empeoramiento de los salarios, de las condiciones va a seguir ahí de este verano he anotado dos casos que es como McKinsey ha creado un chatbot interno
al que llama Lilly con toda la base de conocimientos de la empresa que son 100.000 páginas de documentos ponía en la fuente de VentureBeat donde lo hemos leído dice McKinsey que esto servirá para dar apoyo a sus consultores en los proyectos que le encarguen de investigación, de casos relevantes parecidos que puedan estudiar y que bueno, al final McKinsey dice que esto va a ser reducción de horas de consultor
por lo tanto ya tenemos la IA consultora Matías y una de las profesiones en las que se podía empezar a anotar no se trata casi nunca de que te despidan y pongan un robot eso no es lo que sucede casi nunca en el impacto en el empleo lo que sucede muchas veces es aumento de productividad y en vez de ver un mercado de no sé 50.000 consultoras en España pues en 3 años hay un mercado de 35.000 consultoras en España
que son más productivos pero que atienden a la demanda y en este caso horas de investigación que se pueden ahorrar pues hacen que sea más eficiente esa profesión Yo creo que muchos consultores le sientes un poco el ego diciendo esto Antonio pero tienes razón y de hecho hay mucha documentación en muchos tipos de trabajo por ejemplo en mi trabajo se usa la guía de estilo creo que es la de Associated Press y en esas preguntas te lo agradezco muchísimo
entonces todas esas empresas que tienen tanta documentación y que tienen una base de conocimiento tan grande poder procesar esto con una inteligencia artificial parece el paso lógico y evidentemente un impulso a la productividad que no tiene ningún tipo de duda Pues Mati la otra noticia que te traía no sé si te va a resultar tan útil porque hay una rumoreada nueva inteligencia artificial de Google en la que
la empresa pretende mejorar la capacidad de la IA para responder a preguntas íntimas sobre retos de la vida de las personas para hacer eso posible DeepMind, el brazo de inteligencia artificial de Google reunió a 100 expertos doctorados de distintos campos para evaluar las respuestas entonces gente de la salud mental la psicología, etc en lo que podemos hacer el primer chatbot de coaching vital podía traer Google
lo cual bueno, yo siempre he sido un poco anticoaching voy a ser muy sincero lo que pasa es que en los últimos años me he hecho menos agresivo en mi postura de enemigo del coaching tengo una buena amiga que se ha hecho coacher eso me ha ayudado a reconsiderar la posición y ahora entiendo que gente que dedica tiempo a estudiar y pensar en la vida y mirar la tuya desde fuera te puede aportar cosas ahora estoy un poco más abierto
pero lo de la IA coacher es algo que me genera incertidumbre en estos momentos te puedes ahorrar mucho dinero no quiero ni pensar lo que me ha gastado el psicólogo y el psiquiatra si Google me ahorra ese dinero mejor ahora el tema coaching Antonio, yo voy a ser más agresivo que tú hay algunos vendehumos por ahí que por favor no os dejéis engañar señores no os dejéis engañar mejor usar la IA de DeepMind
y si contratas a un coacher que sea cinturón negro por lo menos ¿vale? bueno, te propongo una cosa Mati, vamos por la mitad del guión no soy muy optimista en la duración de este episodio una posibilidad que tenemos es poner las demás asignaturas para el siguiente capítulo y dedicar algo de tiempo a una de las cosas que no va a cambiar en este podcast que es la sección Puerta Grande o Enfermería me parece muy bien Antonio
aunque te digo la verdad se me había olvidado leer tu lista de Puerta Grande o Enfermería así que te voy a ceder en este caso Mati no va a cambiar mucho el flujo de nuestra conversación porque siempre te lo leo yo y tú le pones nota entonces no hace falta haberlo estudiado mucho y de hecho creo que los casos que te voy a presentar no van a requerir demasiado análisis y reflexión que a bocajarro yo creo que lo puede despechar
y empezamos por Nueva Zelanda en Nueva Zelanda también hacen cosas con la IA este supermercado decidió aplicar la IA para sugerirte recetas recetas de aprovechamiento tú le dices lo que te queda poco en la nevera para antes de tirarlo lo único que tienes y el bot te recomienda una comida, una receta nueva que tú podrías hacer con estos alimentos ¿qué ha pasado? ha habido una ligera polémica porque los planes de comida
si no tienes alguna sugerencia algo es trafalaria como recetas de gas cloro y patatas asadas repelentes de mosquitos claro la mezcla de gas cloro frío para que los clientes puedan disfrutar de su refrescante fragancia claro no mencionando que la inhalación de gas cloro puede causar daños pulmonares e incluso ser mortal porque ya no había tan torpe ya pack and safe safe milk bot bueno el caso es que el supermercado
ante todo eso se ha montado ahí un buen lío dice que va a seguir afinando el bot para asegurarse de que es seguro y útil y no acaba recomendando una receta mortal entonces ¿tú ves esto aplicado en los supermercados de España? ¿cómo lo ves? yo nada, yo le doy una enfermedad porque además yo estoy recorriendo el camino contrario yo siempre he sido de evitar gente el cajero ¿no? ir a la caja esta automática
en el McDonald's ir siempre a la pantalla y estoy recorriendo el camino contrario o me estoy haciendo viejo puede ser y ahora me gusta ir a la pescadería del Mercadona en lugar de coger el pescado envasado ¿no? hablar con una persona no sé si me estoy haciendo viejo o llevo ya demasiado tiempo grabando este podcast y no sé el instinto de supervivencia se me ha activado tienes que compensar tu tiempo con chat GPT
con interactuar con humanos te entiendo así que si algún supermercado español quiere ofrecer recetas mortales a sus clientes tendrá que hacerlo a través de humanos que directamente te den las instrucciones para morir directamente persona a persona uno a uno y no a través de un bot que yo creo que además en un sentido industrial tampoco es práctico porque si matas a tus clientes al final no hay negocio tarde o temprano se acaba
la base de clientes bueno te voy a traer otro tema porque lo has mencionado antes algo pasa con los robotaxis de San Francisco que están abriendo la puerta y no sospechábamos hasta hace poco los habitantes de San Francisco practican sexo en los robotaxis te cito para algunos es una grata invitación a probar los límites de los vehículos autónomos Megan, una mujer de unos 20 años dio su primer paseo en robotaxis
en una reciente excursión nocturna también en la primera vez que practicaba sexo en un vehículo sin conductor no vamos a dar las fechas y tal por la intimidad pero si podemos decir que su cómplice es un hombre de unos 30 años llamado Alex y según sus estimaciones Alex ha practicado al menos 6 actos sexuales en los robotaxis desde sesiones improvisadas de besuqueo una cosa así más light hasta actividades completas
sin límites según Alex claro, él dice es que no hay nadie que te diga no puedes hacer eso y claro, si nadie te dice que no puedes fornicar en un robotaxis entonces, claro como te sientes muy cómodo explica este suso dicho y estás con alguien como una pareja es mejor que estar con alguien esta soledad, este momento de sentirte cómodo puede escalar a otras actividades así que ahí tenemos el sexo en los robotaxis
el Alex este no sé si es que tiene un kink o una fantasía de hacerlo o realmente ha conseguido algo que suscita el interés de las mujeres o la curiosidad de las mujeres y por ahí hay algo que estudiar otro comentario es estos coches evidentemente tienen cámaras o sea que hay alguien revisando esas imágenes y el tercer comentario es esto me recuerda mucho a la teoría de 4chan del carrito del supermercado de como nadie te va a regañar
¿cómo actúas? ¿dejas el supermercado a su sitio o lo dejas al lado de la plaza en la que aparcaste? pues como nadie te va a regañar ¿qué haces? ¿haces guarrerías en el robotaxi o te comportas como una persona normal y vas a hacer tu destino? Mati, a partir de ahora cuando vea que alguien no guarda su carrito en el supermercado y lo deja por ahí fuera en el carrefour está claro de aquí a colamos en Málaga
yo creo que puede ser una solución atención económica porque si un viaje de tiempo medio para que te dé tiempo en un robotaxi es más barato que una habitación de hotel tú piensas en la juventud que no tiene sitio que no tiene un lugar ahí con intimidad a considerar yo nunca pasé por esa época porque directamente cuando cumplí 18 me mudé con la cara de mi mujer pero es verdad que hay mucha gente que lo comenta
yo vivía en casa de mis padres y ella en la casa de sus padres el coche, el garaje no lo había pensado y por eso le voy a dar puerta grande vamos a creo que como la sección basado haciendo la ciencia de Amati se acababa pareciendo mucho a puerta grande de enfermería hemos discutido y hemos pensado que alguna posibilidad era plantear nuevas secciones y que la audiencia responda si les interesan y si les parecen bien
entonces van dos intentos de secciones parecidos a puerta grande de enfermería pero no son puerta grande de enfermería porque no hay un proyecto real es una sección totalmente improvisada totalmente en tiempo real es Pregunta a un mono es una sección en la que los dilemas de inteligencia artificial que se le presenten a nuestra audiencia y a nuestra comunidad de oyentes se la podemos resolver nosotros en el podcast
generosa y desinteresadamente ahora mismo tenemos cero preguntas pero me he encontrado con un dilema ético que puede servir de ejemplo para esta situación para que nosotros lo resolvamos en el podcast atención, es un dilema ético compartido en Reddit que dice así mi jefe me ha dado un mes de trabajo que consiste en resumir las funcionalidades de programas y complementos hice la primera parte, un quinto, por mí mismo
como de costumbre hago todo y solo por diversión utilicé chatGPT para la siguiente parte lo hizo más o menos sin problema ahora me pregunto ¿por qué estoy gastando horas? como la primera parte me tomó 4 horas pero con chatGPT he tardado 20 minutos ¿qué le digo a mi jefe? es decir, el muchacho o la muchacha que comparte este dilema ético dice que claro al final ¿qué hago? finjo que he trabajado 30 horas
y se los cobro pero o le digo he usado chatGPT y que lo he terminado pronto a partir de ahí mi jefe podría decir pues ya no te necesito más oye ese es el dilema ético que tiene el usuario 15dj1 en Reddit y creo que merece que le demos un consejo una respuesta para acabar de resolver este es el tipo de iluminados que va a hacer que acabe el trabajo remoto porque estas preocupaciones los empresarios van a impedir que sigamos
trabajando desde nuestras casas que es un derecho que los ganamos en la pandemia y que cada vez está más en peligro entonces vamos a estar todos callados y también hay que facturar las horas de entrenamiento de chatGPT hay muchas consideraciones y aquí hay un gris legal que no sé tenemos que estudiarlo mejor claro, entiendo que tu postura es éticamente a lo mejor debería ser sincero y honesto no he trabajado 30 horas
no te la puedo facturar pero por amor de ayudar al colectivo por un sentido comunitario de que todo el mundo puede engañar a los empresarios entonces debería decirle que sí que ha trabajado 30 horas aunque haya estado con chatGPT un ratillo ese es el consejo contestaríamos a el oyente que nos mande una pregunta de este estilo para el siguiente episodio que por cierto esto lo estás ofreciendo gratis pero en otros podcasts
como el clickfanger esto de las preguntas lo cobran a 3 euros al mes a 3 euros al mes creo que lo han subido a 5 es que no valemos para hacer negocio fíjate que este consejo tuyo le podría hacer ganar al usuario de Reddit bastante dinero es un consejo muy bueno bueno ese es un intento de sección no sabemos si va a cuajar si va a enganchar con nuestra audiencia pero ahí la lanzamos podéis mandarnos preguntas por redes
por el correo electrónico de la lista de correo por donde queráis y la última sección todavía no tiene nombre pero la seguimos cuando hablamos tú querías llamarla como el iluminado yo quería llamarla algo así como en toda generación nace un genio que siempre es incomprendido por todo el pueblo la tría menos insultante así que vamos a llamarlo el genio incomprendido sí yo creo que en el internet bueno el caso es que tenemos
a un señor empresario fundador de Yastell conocido por su nombre que es Martín Marsaski no sé si es muy amigo tuyo pero compartió una reflexión en Facebook compartió en inglés él es argentino tiene muchas cosas en común contigo porque le preocupa la inteligencia artificial tiene esa argentinidad y de fondo se vino a España tenemos una finca en Menorca sí sí sí entre los dos tenéis una finca en Menorca
vale este es el razonamiento de Martín dice ahora mismo la gente con altas capacidades intelectuales se sitúa en la cima de la sociedad pero a medida que los GPT-5 o 6 trivialicen la inteligencia veremos surgir un conjunto diferente de valores de liderazgo liderado por aquellos que los grandes modelos de lenguaje no pueden producir la belleza y las habilidades físicas resultó que la robótica es más difícil
que la IA estas conversacionales que lo que nos hace animales es más difícil de automatizar que lo que nos hace humanos y en los animales nosotros lo que será más buscado bienvenidos al mundo de Barbie donde los guapos y físicamente más capaces se alzan y los frikis caen pensemos en modelos deportistas que ascienden a la sociedad y aquellos a los que ahora admiramos y por otro lado pensemos en aquellos que admiramos
por su brillante inteligencia pues serán los que defiendan esto no es el mundo que muchos de nosotros queremos ahí Martín no se ve tan fuerte pero es el mundo al que nos conduce la IA abundante inteligencia y escaso físico entonces atención al mundo el mundo que nos anticipa Martín es un mundo de Barbie sillados y en el que no sé si estamos preparados porque en el Crofting no damos tanto nivel Matías podemos quedarnos fuera
¿cómo lo ves? yo creo que es el orden natural de las cosas yo creo que los guapos y los fuertes siempre han mandado excepto a partir de 70, 80 con los frikis y los IBM y los Microsoft etc pues ahí cambió un poco cambiaron un poco las tornas pero el orden natural de las cosas es que siempre han mandado los fuertes y los guapos entonces creo que su punto tiene Martín porque él ve venir el regreso del orden natural
de las cosas pero bueno alguien tendrá que ayudar también esos modelos grandes de lenguaje por ahora siguen siendo los frikis yo aquí creo que claro de alguna manera yo siempre había respetado el espacio que quedaba para los guapos y los fuertes ninguno de ellos venía al mundo de la estrategia de medios y la estrategia digital entonces yo que ellos tuvieron su espacio de supremacía me parecía bien porque no se metían en lo mío
pero claro si ahora lo mío se queda reducido a cero yo creo que va a haber mucho resentimiento no sé si la sociedad antes que por el desempleo masivo o el poder de las megacorporaciones se va a ver abocada al colapso por el enfado con los fuertes y los guapos sería un apocalipsis bastante inquietante y curioso cuando menos es un buen argumento para una novela de ciencia ficción deberíamos plantearnos escribirla aunque sea
a medias conchas GPT final apoteósico pobre Martín Varsavskis que se perdió la época de la IA porque los teleoperadores de Jazztel ahora podrían ser IA entonces máxima rentabilidad y se lo perdió claro son los tiempos para Jesús Vázquez y no para Martín Varsavskis ahí se van a cambiar los términos en fin Matis ha sido un estupendo regreso de temporada hemos contado la mitad de las asignaturas de la IA para este curso
y creo que lo vamos a tener muy divertidos pocos cambios de momento en el podcast pero cositas, se vienen cositas una de las asignaturas es un poquito más breve si nos vemos la semana que viene en el episodio 2 porque este ha sido el primer episodio de la segunda temporada de Monos Estocásticos un abrazo a todos Subtítulos por la comunidad de Amara.org Subtítulos por la comunidad de Amara.org