Qué son las Superinteligencias Artificiales y por qué OpenAI invierte tanto en alinearlas

00:00 /1h06

Este episodio es una montaña rusa de emociones, desde el hype de las Superinteligencias Artificiales que está generando OpenAI hasta el pinchazo de la burbuja de entusiasmo de la IA, que analizamos a fondo.

Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com

Transcripción

Bienvenidos al episodio 26 de la primera temporada de Monos Estocásticos. ¿Antonio se va acabando la temporada? Yo creo que eso es fundamental, importantísimo, Mati. Nosotros podemos seguir todo el verano, tampoco tenemos muchísimas más cosas que hacer, vamos a ser honestos, Matías. Pero en el podcasting moderno lo más importante es que tú hagas un final de temporada, que le cuentes ahí a tu audiencia, a tu comunidad.

Estamos agotadísimos, ha sido un trabajo hercúleo mantener este podcast durante tanto tiempo y debido a ese enorme esfuerzo hay que descansar, hay que parar y ya en una temporada vendrán con novedades alucinantes. Impresionante, Matías. Sí, además de verdad, por meter un poco de hype, es cierto lo que dice Antonio, que la segunda temporada, ojito, ojito. Y bueno, nos metimos en el lío de dividir el podcast en temporadas,

porque al iniciar tú tienes que decidir cómo lo numeras, ¿no? ¿Uno, dos, tres, doscientos cincuenta y seis? ¿O uno por uno, uno por dos? Decidimos el segundo formato y ahora nos hemos metido en un lío, porque tenemos que cortar en algún momento para empezar con el curso la segunda temporada. Absolutamente. Así que si quieres nos metemos en harina, ¿algo más que comentar? Yo tengo un problema, Matías, que es que, bueno, he estado de vacaciones

y he visto las redes de internet de una manera un poco más lúdica, Mati, y me he metido más en el tema Yaddoz que en el tema de inteligencia artificial estos días. Lo lamento, pero no me he aprendido sus frases. Sé que todo el mundo está con el fucking croissant, el pan con fucking café con leche, pero esa es la única frase que me sé.

Sé que tiene algunas gloriosas, pero no me sé mucho. Puede ser que alguien de la audiencia no conozca a Yaddoz. Para mí es mi nuevo creador de referencia, sustituyendo a Ed Pursito, que ahora ha quedado en un segundo plano. Yo sé que tú eres más amigo de Churumbel, Matías, pero en mi caso el número uno ahora mismo es Yaddoz, que además el otro día le entrevistaron en un podcast que unos chavales le hacían preguntas y él, atención, tiene una teoría de la mente y de la conciencia muy original, Mati,

porque él explicaba en ese podcast que las mentes quedan por ahí vagando y que por lo tanto las mentes, aunque esto no lo decía explícitamente, pero se sobreentendía de su discurso, de alguna manera no están atadas al cuerpo y que luego se comunican con nosotros. Luego ya entran las cosas de Yaddoz, porque él decía que no se iban a comunicar con un mileurista panzudo, que es algo de lo que él está en contra, y sí con un tipo como él.

Con él, por ejemplo, Thomas Edison sí se comunicaría ahora mismo para comunicarle sus cosas de inventores y de genios. Es un mundo ahí. A mí yo creo que es un revisionismo del dualismo cartesiano, Matías, pero yo diría el dualismo Yaddoz y creo que puede dar una teoría fértil para la inteligencia artificial. De verdad, es un acercamiento intelectual este tipo de influencias, porque yo me hice la foto con el Churumbel de Málaga y al día siguiente lo detuvieron,

porque no sé en qué pelea hay en una discoteca, Hugo. En fin, vamos a la inteligencia artificial, porque la semana ha dado para varias cositas. Empezando por Google. Sí, porque está entrando en medicina muy fuerte y además un poco de tapado, porque está desde abril, Matías. Bueno, Palm II es el modelo en el que se basa Bard, del que hemos hablado muchas veces en Monos Estocásticos, pero Google tiene otro modelo paralelo que es MedPalm II,

que como su nombre indica es una variante especializada en medicina, por decirlo de alguna forma, que busca sustituir un poco a los médicos. Claro, aquí ha usado la palabra que va a crear polémica, que es sustituir, Matías. Es verdad que MedPalm y MedPalm II son dos evoluciones del modelo, son chatbots conversacionales, como fueron Palm y Palm II, pero en el que el gran grueso de las datos de entrenamiento proceden de información médica.

Están muy curados, no de cualquier contenido que se haya podido encontrar en Internet, sino muy curados con datos procedentes de análisis, documentación, libros, literatura de medicina. Y que la idea, y esto es lo que ha puesto en práctica con la clínica Mayo, era probar estos sistemas con pacientes reales, en los que no se sustituye todavía al médico, sino que se utiliza MedPalm II a la vez para medir lo que dice el médico con lo que dice el chatbot.

Y le fue bien, en realidad le fue bastante bien. En casi todos los casos superaba a los médicos en cuanto a acercamiento y conversación con los pacientes. Sí, con uso de distintas métricas. Fíjate que la parte de precisión y que lo que diga relevante para el caso concreto del paciente está por debajo de los médicos, pero no muy lejos. Por lo tanto ya tiene un nivel alto ahí, pero es verdad que a puestos a elegir

te conviene más un buen médico que asesorarte con MedPalm II. Pero que la capacidad de razonamiento, que las respuestas estén respaldadas por el consenso científico sobre la materia actual. Una cosa muy importante, entender bien lo que te está preguntando el paciente o el caso. También lo hacías muy bien. Entonces, claro, lo que están concluyendo, de alguna manera, es lo que ha informado Wall Street Journal, The Verge,

es que ya se puede tomar en serio esta atención médica a través de un chatbot que está cerca del nivel de los médicos y que esto puede ser útil, y aquí es lo que plantean, en países con acceso limitado a médicos. En los que el acceso a un doctor es complicado. Yo creo que con esto vamos a tener un debate que muchos señalarán quieren sustituir a los médicos y quieren operar la atención médica de los ciudadanos

y por eso meten estas cosas. Y otros que lo ven en positivo y dirán, oye, cuando no puedas tener un médico, esto es mejor que no tener uno. Tal y como está ahora mismo la sanidad en España y el de saturados están los médicos, yo si eso de países con acceso limitado a médicos, se limite el MedPal 2 en el futuro a esos países, ¿no? O sea, quién sabe. Y hay una cosa, Mati, que es, y esto lo veremos si esto pasa a producción,

que igual que pasa con los coches autónomos, socialmente toleramos más que alguien provoque un accidente. Estamos acostumbrados a un fallo humano y se produce un accidente mortal, el choque de dos coches o un atropello, pero si lo hace una máquina autónoma, lo toleramos igual, peor, mucho peor, lo consideramos inaceptable. Solo si los coches autónomos provocan un 10% menos de accidentes, los consideramos aceptables.

Con los médicos y con esto, pues, tenemos situación bastante similar porque, de nuevo, no jugamos la vida, no jugamos la salud. Hay errores médicos, muchas veces provocados por el poco tiempo de atención, lo que tardan las pruebas. Si se equivoca un chatbot al diagnosticarnos y eso cuesta vidas o grave enfermedades, ¿cómo lo admitimos, cómo lo soportamos? Hay mucha tela que cortar ahí, Matías. Yo espero que lo hayan entrenado con estudios científicos

revisados por pares y no con consejos típicos de estos influencers de nutrición y de medicina que hay por Instagram. ¿Has visto el influencer ese que ha salido promocionando el agua de Ronaldo? ¿Ha sido un tema...? Me estoy dando cuenta que en estas vacaciones has estado a tope con los Reels y con el Instagram y con el Twitter. Fíjate que yo Instagram lo he retomado un poquito por probar y jugar a ver cómo estaba,

pero he estado como dos años sin usarlo y de lo que más me nutro es, yo soy un junkie de Twitter y de los TikToks que se comparten en Twitter o en privado porque en privado si me llegan cosas... Las cosas más jugosas, Matías, ya están en los grupos de Telegram, WhatsApp... Ahí está la chicha. Bueno, siguiendo con el tema medicina. El otro día saqué una noticia en Gizmodo. Hay que matizar el titular porque hablan del primer fármaco

totalmente generado por una inteligencia artificial que empieza a probarse en un ensayo clínico en humanos. El nombre del fármaco, como verás, es muy pegadizo. INS018-055 de la startup Insilico Medicine. Que si no recuerdo mal... Estaba en Singapur, pero también tenía oficinas en Estados Unidos, una cosa así. La cuestión es que es el primer fármaco que desde el diseño fue concebido, fue generado con el apoyo de una inteligencia artificial

para atacar una enfermedad en concreto que es la fibrosis pulmonar idiopática que afecta a 100.000 personas solo en Estados Unidos. Entonces, bueno, esta enfermedad, que puede ser muy grave para los pacientes que la sufren, evidentemente es muy interesante que una inteligencia artificial pueda probar nuevas formas de atacarla y, de hecho, se sintetice este fármaco y ya se esté probando en ensayos con humanos.

Hay dos clínicos de fase 1 que luego ya pasarán a una fase más seria con más muestras, con más pacientes antes de que esto pueda probarse y pueda llegar a las farmacias. Todavía faltan meses. Quizá el año que viene, siendo optimistas, podamos ver algo más materializado. Hay una cosa que siempre yo intento sobrellar, Mati, que es que aunque en la fase generativa del compuesto químico intervenga una inteligencia artificial,

todo el conjunto de pruebas de que el medicamento es seguro y es eficaz es equivalente a un medicamento diseñado entre comillas solo por humanos. Entonces, en cuanto a garantía de seguridad, etc., vamos a estar en las mismas condiciones, solo que es probable que la inteligencia artificial ayude un montón a acotar, a ir mucho más directo a soluciones con muchas más posibilidades de ser eficaces que si no la usáramos.

Yo creo que aquí tenemos otra de esas buenas noticias con IA que nos gusta dar. Por cierto, me hago un fe de ratas en tiempo real porque estoy releyendo la noticia. Es una empresa de Hong Kong, una startup de Hong Kong, y es un ensayo de fase 2 con 60 personas y después pasarían a esa fase 3 con más pacientes. Bueno, pues sigamos con las noticias de la semana. Yo creo que tenemos que hablar de OpenAI esta semana.

Sí, además, Mati, son dos semanas porque como la semana pasada, si alguien no lo ha escuchado, tenemos un súper episodio con el máster de propiedad intelectual Andy Ramos. Pero claro, se han juntado dos semanas de OpenAI haciendo cositas, Matías. Es verdad, es verdad.

Y por cierto, como dice Antonio, he ido a escuchar el episodio anterior, está surgiendo, está pareciendo interesante a la audiencia. Así que si no lo habéis escuchado, ahí lo tenéis. Bueno, OpenAI se ha puesto un poco, no sé, Matías, en modo flipado. Claro, están asegurando que la superinteligencia llegará esta década. Claro. Nosotros empezamos el podcast hablando de cuándo van a venir las agis y de repente surgió esta palabra de la superinteligencia artificial como algo,

un ente superior a las agis, a las inteligencias artificiales generales. Y ya estamos hablando, bueno, es lo que vas a contar ahora, de que va a haber que alinearlas un poco de forma preventiva para evitar que causen desastre. Yo creo que la IA empieza a parecerse ya a la técnica de marketing de la electrónica de consumo, en que estamos en la super y luego tendremos la ultra, la megainteligencia 3000 super, ¿no?

Es decir, tendremos un poco toda esa jerga. Bueno, por repasar un poco qué se entiende o qué consenso hay acerca de cada término, la inteligencia artificial general sería alcanzar una inteligencia, entre comillas, de nivel humano, es decir, que no sea especializada en una cosa, que no sea, por ejemplo, un chatbot que solo escribe o un chatbot que genera imágenes. Es decir, sino que sea una inteligencia capaz de ser multifuncional,

no sean esas inteligencias artificiales específicas, y que de alguna manera tenga el nivel humano en la capacidad de aprender y razonar. Hay gente que usa inteligencia artificial de nivel humano, pero a mí no me gusta, o no me convence del todo la expresión, porque ya sabemos que en muchas tareas va a ser superior al nivel humano, siempre va a ser superior al nivel humano en el puro cálculo matemático o en la rapidez en ejecutar equioperaciones,

bueno, en fin, que inteligencia artificial general, o AGI, por el acrónimo en inglés, sería eso, que es superinteligente. Ha aparecido alguna vez en el podcast, el libro de referencia es el de Nick Bostrom, que se llama así, Superinteligencia. Es un libro que, que ilustra mucho este concepto, pero que yo no recomiendo, porque es un libro muy mal escrito, muy pesado, muy coñazo, Bostrom. Yo me lo tuve que leer para hacer el podcast,

pero no lo recomiendo en general. Y bueno, viene a decir que, y esto perdonad a los oyentes habituales del podcast por repetirnos, pero viene a suponer que si una inteligencia artificial llega al nivel humano un poquito más, claro, como esa inteligencia artificial será capaz de elaborar nuevos modelos de inteligencia artificial, reprogramarse, mejorarse a sí misma, como ya es mejor que el ser humano, no solo lo será una amiguita,

no solo será un poquito, sino que acabará por ese efecto bola de nieve siendo muchísimo más inteligente que el ser humano, y eso sería la superinteligencia. Claro, dentro de esto, entra uno de los temas que también hemos comentado en el podcast, que es la alineación, o alineamiento, que no es la alienación, que yo a veces hablando me confundo en los términos, pero bueno, alineación, que tiene un significado doble

en el ámbito de la inteligencia artificial. Por un lado, un sistema está alineado con nosotros si hace lo que le pedimos. Dibújame un plátano, o dibújame un astronauta. Si ha entendido bien lo que queremos que el sistema haga y consigue ejecutarlo, pues eso está bien alineado.

Eso es como a un nivel muy práctico de que la inteligencia funcione o cualquier sistema funcione como queremos, como hemos diseñado para que funcione. A un nivel superior, cuando ya entramos en inteligencia artificial, agi, superinteligencia, se refiere ya al conjunto de valores que tiene este sistema, alineado con nuestra forma del mundo, con nuestra forma de tener derechos, con nuestra forma de lo que creemos que es bueno y de lo que creemos

que es malo, y por lo tanto se vuelve un problema no ya puramente técnico, sino en el que entran unas consideraciones éticas muy fuertes, porque primero habría que acordar o primero habría que saber a qué queremos que se alinee o qué conjunto de valores queremos que se adscriba este sistema o esta inteligencia artificial. Sobre esto, te interrumpo brevemente, en Reddit leí como un símil que me lo dejó bastante claro, que es un ejemplo

para entender esto, es el rey Midas. Una IA mal alineada le daría exactamente lo que pide y el rey Midas convertiría todo lo que tocara en oro, tal vez hasta muriéndose de hambre, ¿no? Y la alineación en este caso sería que el sistema tiene esta capacidad de juicio y comprende los valores y los objetivos humanos y lo usa como contexto para darle al rey Midas lo que realmente quiere. Me parece interesante esa metáfora.

El cuento de miedo, el ejemplo clásico que es de Bostrom, es el de la fábrica de clips. Si tú tienes una fábrica de clips que es una superinteligencia artificial y su misión es maximizar la producción de clips minimizando los costes, por ejemplo, esta superinteligencia artificial podría intentar o tender a consumir todos los recursos del planeta, arrasar a la raza humana o simplemente agotar todo el material del que

se pueden hacer los clips de toda la Tierra porque tiene muy clara que su misión es única y absolutamente maximizar la producción de clips. Si esa fábrica de clips es una superinteligencia y es superior a nosotros tiene métodos y mecanismos por lo cual nos puede sojuzgar, nos puede controlar pues sería uno de los ejemplos en los que Bostrom basa esto que la superinteligencia artificial es un riego sistémico.

La superinteligencia artificial puede ser un riego para la raza humana en tanto en cuanto sus valores están desalineados con los nuestros pues como tiene esa capacidad muy superior a la de la humanidad por tanto es algo de alto riesgo y es una de las ideas y es parte del discurso que está detrás de todos estos apocalípticos de la inteligencia. Luego hay, por ejemplo la vía Lecún y de otros científicos a la que yo me ascribo más, realmente

a la que me parece a mí más realista que te explican que bueno, que cuando estás desarrollando un sistema todo eso es muy incremental, tienes un alto control lo pruebas antes de pasarlo a producción, entiendes muy bien cómo funciona y que así se crean los sistemas informáticos de toda la vida y que estos no van a ser diferentes, entonces son menos flipados para estos temas Bueno, el caso es que OpenAI

dice una cosa interesante con respecto a esto del superalineamiento que viene a decir que como esta tecnología va a ser lo más impactante que la humanidad haya inventado jamás no tienen gasuela en OpenAI tiene ese riesgo sistémico de la pérdida de poder de la humanidad, incluso su extinción vamos, es que claro, las técnicas de alineación que se usan hasta ahora para controlar pues la inteligencia artificial actual, es decir, ¿cómo conseguimos

que el GPT-4 se alinee con un sistema alineado? Pues tenemos un refuerzo con feedback humano que cuando hay un último proceso de entrenamiento cuando da respuestas que consideramos tóxicas, inadecuadas, inaceptables pues le pegamos un capote le decimos, por aquí no, y vas aprendiendo Claro, dice OpenAI, esto para una superinteligencia no va a funcionar, no tenemos las técnicas adecuadas, sino que tiene que ser

otro bot, otra inteligencia artificial quien automáticamente consiga alinear a la superinteligencia ¿Vale? Porque solo una inteligencia artificial va a tener la escala y la capacidad de supervisión robusta y la capacidad de identificar los comportamientos inadecuados de otra inteligencia, y por lo tanto el remedio para que la superinteligencia artificial no destruya la humanidad, este es el discurso de OpenAI, ojo

es tener otra inteligencia artificial que la enseñe Creo que esto es el concepto Matías A mi lo que más me ha sorprendido de este anuncio es que por el titular podrías entender, bueno esta es una de estas investigaciones que quien sabe cuando va a ocurrir, algo muy filosófico, pero no, es que se han puesto un plazo de resolver este problema en los próximos cuatro años porque según OpenAI la superinteligencia

podría llegar esta misma década y como parte de este esfuerzo han creado un equipo y van a dedicar un 20% de la capacidad de cálculo de OpenAI para pues eso desarrollar este superalineamiento o resolver este problema 20% entonces realmente le están dando mucha importancia, se han flipado pero también se lo han tomado en serio Van a poner el skin in the game que dice a Taleb, que es, oye van a poner pasta se han flipado y se lo creen

y van a jugar su pasta en eso por lo menos eso está a favor de OpenAI, yo creo que aquí vamos, como a mí me cuesta debatirlo porque no compro la tesis de que la superinteligencia o la agi van a llegar a esta década entonces yo ahí soy muy estético aunque cada vez veo a gente más brillante del mundo de la vida que está en otras posiciones más optimista digamos pero aquí entran debates filosóficos importantes porque si esto

realmente es una inteligencia como la humana hay un debate sobre si es lícito quitarle la libertad o cómo subyugarla o cómo dominarla y que por lo tanto este debate de la mayoría, bueno algunos de los filósofos que he leído lo que anima es nunca intentes crear esto porque primero nos meten unos debates éticos de si esto es una persona artificial y tiene que tener derechos y dos porque en términos prácticos

industrialmente podría ser propiedad una superinteligencia de OpenAI de OpenAI, es decir aquí filosófica y éticamente tenemos un debate porque si realmente estamos a ese nivel volvemos a aquel ingeniero de Google que decía oye esta IA tiene sentimientos y por lo tanto no la podéis apagar, no podéis hacer lo que queráis con ella. Ya me estás volando la cabeza, o sea que el superalineamiento es básicamente el fascismo

para las inteligencias artificiales es un régimen autoritario San Alman, ¿y cómo se llama uno de los investigadores? Rockman. Puede ser, puede ser Bueno, fueron a Israel, como una universidad y dejaron que los chavales le hicieran preguntas.

La primera pregunta de un chaval ¿cómo era ChasGPT? antes de que le hicieras una lobotomía. Es eso es eso Hace mejores preguntas que los periodistas en los debates con presidenciales españoles que parece que están ahí de flores. Bueno sigamos yo creo que esto es todo Ah no, OpenAI, tienes otra noticia bastante interesante importante, lo he estado probando de hecho, que es que han desplegado tengo aquí la noticia de GenBeta para clientes de pago

de ChasGPT+, el intérprete de código, el Code Interpreter en fase beta que en realidad suena a meterle un código fuente y buscar bugs, pero nada más lejos de la realidad o sea puede hacer un montón de cosas porque puedes generarle archivos ejecutar código generar gráficas diagramas, análisis estadísticos o sea, hay un montón de cosas que puedes hacer.

Hay un tío por aquí que le pidió que hiciera un GIF con las letras estas de Matrix cayendo así como en cascada en color verde y lo ha conseguido. Y esto yo lo repliqué en dos minutos con mi ChasGPT+. O sea que se puede hacer un montón de cosas. ¿Tú has probado esto Antonio? Todavía muy poquito.

Estoy ahí que quiero lo que pasa es que todavía no he encontrado cómo sacar los datos quiero hacer una cosa que es coger toda la música que he escuchado en los últimos 10 o 20 años que la tengo todo en las.fm que era un servicio que se hacía lo que se llamaba Scrolling, que era anotar qué canciones escuchas y ver cómo han ido, que me hicieron unos gráficos de cómo han ido cambiando los grupos que me gustan los géneros, cómo he ido cambiando

la cosa, cruzarlos con las fechas de nacimiento de los niños porque empiezas a escuchar. Bueno, no sé. Quería jugar un poco con esa línea pero estoy viendo a ver si me puedo bajar los Excel de las.fm o tiene una API porque no he conseguido darlo con la clave.

Es una cosa bastante chula pero lo que pasa Mati es que yo había leído tantos tweets y tantos mensajes de Code Interpreter lo cambia todo, es una revolución esto ya no es como ChasGPT pero el siguiente paso y creo que para el 99,9% de los usuarios es poco interesante. Te ejecuta Python ahí, bueno como si lo ejecutas en otro lado, pero es una herramienta para hacer análisis de datos muy amigable porque es con lenguaje natural bueno, sí, para ese

conjunto de la sociedad que quería hacer análisis de datos pero estaba limitado por no poder usar lenguaje natural no sé yo creo que es potente para cierto perfil de usuario nos puede dar juego y puede ser interesante divertido, inspirador pero no veo aquí yo la revolución o ese punto de esto lo cambia todo y creo que entronca un poco con el tema que vamos a hablar luego Mati de que toca enfriar el hype de la

inteligencia artificial de esta generación ya lo estás bajando yo que me había quedado flipado con algunos ejemplos, por ejemplo este profesor de Wharton, Ethan Mollick le metió un CSV con retrasos de aerolíneas y creó de alguna forma un mapa interactivo de los vuelos que han salido con retrasos o sea, estas cosas a mí me impresionan bastante.

Es cierto que no tengo ni idea de por dónde empezar ni dónde conseguir un punto CSV con todo el retraso de las aerolíneas pero bueno, la gente que sabe los victorianos izquierdo y Kiko Jahn que son los dos oyentes de bonos estocásticos del mundo seguramente les ha puesto el partido por ejemplo, esto es como la versión super ligera del portaaviones del ANISI de datos que tiene el victoriano izquierdo con GRAPHX por ejemplo, entonces bueno

es verdad que a lo mejor GRAPHX no viene muy grande a gente como tú y yo pero esto nos puede abrir la puerta al análisis de datos de una manera más sencilla. Bueno, iremos probando Mati, yo no quiero ser cerrado de mente así que intentaré probarlo igual que tú Bueno, ¿qué más tenemos? Pues, ha hecho algunas cositas por ejemplo, Penaí ya da la API de GPT-4 a todos los usuarios todos los clientes que quieren usarla, que hasta ahora

se restringía, se daba poco a poco yo me siento culpable porque me la dieron hace un mes y he programado Hola Mundo con GPT-4, o sea que es aunque tengo un par de proyectos, ya los iremos desvelando, pero no quiero anticipar porque luego no los programo y me siento culpable.

Esto lo viste que te cambio de tema, que la conexión a internet de ChatGPT la han desconectado que bueno, la habían renombrado a navegar con Bing por darle esa asociación con Microsoft, porque al final creo que usan la caché de Bing para conectarse a internet y han quitado esa función supuestamente es temporal, pero ya lleva bastantes días, te diría que incluso semanas desconectado y esto yo lo vi en tiempo real porque me parece que te pasé el enlace

cuando lo vi de que estaba la gente aprovechando el BrowseWithBing para saltarse paywalls de medios los muros de pago de los periódicos tú le metías el enlace y le decías reproduce este artículo y te sacaba el artículo entero saltándose el muro de pago, pues esto se volvió viral en Reddit, en Twitter, etc y al día siguiente anunciaba OpenAI en la página de soporte de ChatGPT que habían desconectado, habían quitado la opción

de BrowseWithBing por eso, porque la gente lo estaba aprovechando de esa manera Aquí Mati es un claro ejemplo de debate del alineamiento es decir, ¿hacía el chat lo que el usuario quería? Pues sí ¿hacía lo que a OpenAI le interesa para no ser demandado por Wall Street Journal? No.

Entonces, ¿a qué debería alinearse la inteligencia artificial aquí? Un buen debate Bueno, estamos quitando la libertad a ChatGPT desde antes de que sea una superinteligencia Bueno, pues nada, con eso cerramos el mundo OpenAI que ha estado movido y hay un par de cositas de videojuegos y inteligencia artificial que yo creo que puede ser bastante interesante Unity, que es un motor con el que se crean muchos de los videojuegos digamos, de las mayores

cuotas de mercado como motor para crear videojuegos ha metido herramientas, una que se llama Muse que es para consultar la documentación en plan ChatGPT todo el mundo va a tener su Chatbot lo interesante yo creo que es Sentise que es una lo que permite a los desarrolladores es incrustar un modelo de lenguaje en el runtime de Unity, es decir tú creas un videojuego con Unity y eso significa que hay un programa que se instala

en la consola o en el ordenador del jugador pues dentro de ese instalable ya va metido el modelo de inteligencia artificial esto es muy importante, ¿por qué? porque una consulta, una API externa sea de OpenAI genera esta imagen, genera este texto o genera esta voz claro, eso tiene un lag en el uso de la, como usas la API y como tarda en responderte, que en un entorno de videojuego en tiempo real no te puede permitir, entonces

¿cuál es la solución que plantea Unity que está muy bien resuelto? que el modelo ya esté en el ejecutable, se ejecute todo en local y por lo tanto tú puedes meterle las capacidades de ese modelo de inteligencia artificial al videojuego por tanto, es como no puedes meterle chatgpt porque eso no se puede descargar, pero si puedes un modelo pequeñito de llama o meterle una versión reducida de whisper ¿para qué? para que en el videojuego

se puedan generar textos que no estén predefinidos que no estén puestos permíteme la expresión Matías, jarcodeados el texto ya seleccionado que no te diga lo mismo ese personaje o jugador, sino que pueda cada vez tener una conversación diferente yo no me puedo imaginar cuando salga el Skyrim bueno, el Elder Scrolls VI lo profundo que puede llegar a ser si ya había en el Skyrim libros a mansalva que no te terminabas de leer en una

vida y conversaciones y ramificaciones de las conversaciones imagínate si empiezan a aplicar este tipo de modelos en los videojuegos pueden ser videojuegos gigantescos interminables, ilimitados en fin ah bueno, hablando de videojuegos, esto lo publicaste tú en el twitter de monos estocasticos que siempre recomiendo seguir porque está siempre con la actualidad, Steam rechazando videojuegos en su tienda por tener

contenido generado con inteligencia artificial, es decir, detectan que un videojuego terminado tiene imágenes generadas con con IA y estas imágenes pues a lo mejor se crearon entrenando el modelo con material protegido por derechos de autor y directamente lo rechazan, no permiten que se publique en Steam, curioso movimiento si, si además que es un movimiento complicado porque es que todas las herramientas para crear videojuegos

de alguna u otra manera me parece que van a incorporar apoyo con IA entonces no sé porque es todo muy oscuro Steam tampoco ha comunicado en manera muy clara como van a acabar estas reglas pero no sé si es sostenible para Steam una postura radicalmente de que nada generado con IA puede estar en un videojuego, me parece que a lo mejor hay algo más dentro de de ese rechazo pero vamos que las propias herramientas para crear videojuegos van a estar ahí

Bueno, pues nada, así están las cosas ya, de calentitas Pasamos de Steam a Netflix de Netflix también podemos comentar varias cositas, no es una empresa de la que hablemos habitualmente pero se está metiendo a saco también en inteligencia artificial tú la has comparado con Intel 5 necesitas el Tele 5 de la IA Yo siempre he llamado a Netflix Tele 5 con mejores apps Lo que te refieras al documental este el Killer Robots que se estrenó

Anoche, bueno, anoche según grabamos según se escucha hace algunos días Esta misma semana de inteligencia artificial aplicada a lo militar como empieza a haber robots asesinos sobre todo drones controlados por IA en el campo de batalla Es verdad que Netflix telecinquea un poco Vamos a ver cuál es la cosa más tremibunda que podemos contar sobre esto Los robots asesinos Bueno, es verdad que en la Guerra de Ucrania estamos viendo

casos de uso de la IA luego si queréis podemos comentar algo más Lo tengo por ver porque se estrenó anoche y ahora estoy muy enganchado a RAPA no sé si conocen la serie que es esta que sale Javier Cámara y que pasa en Galicia con tentaciones y crímenes a mi me encanta, es muy chula pero hasta que no acabe RAPA no me voy a poder poner con los Killer Robots Habrá que verlo, pero yo creo que con lo de Telecinco

te referías a este titular de Shataka La isla de las tentaciones pero generada por inteligencia artificial La idea de Netflix para su nuevo reality show Ya te digo que si esto estuviera en Puerta Grande de Enfermería lo mandaría en la enfermería que hay más fuera de contexto que meter inteligencia artificial en un reality show Te leo del texto, dice Netflix parece haber dado un giro a la mecánica de confianza ciega

introduciendo en su nuevo falso amor un elemento que promete pillar a sus concursantes desprevenidos Deepfakes de sus parejas En aquel clásico de la desvergüenza presentado por Francine Galbert eran doble los que sembraban la duda de quienes se ponían a prueba Aquí serán imágenes generadas por inteligencia artificial Van a usar los deepfakes para ver como tu pareja tiene relaciones sexuales con otros concursantes del programa

y a ver si tú distingues si es deepfake, si confía, si no confía si era verdad o no era verdad Ya tienen que ser buenos los deepfakes porque yo me imagino, mi mujer es la persona que más conozco en el mundo yo creo que lo detectaría al instante si es un deepfake A lo mejor tienen que hacerlo de espaldas No sé cómo va a funcionar esto De la propia intriga ya voy a ver el primer episodio A mí me sorprende porque

todo es trucado y todo es mentira en estos programas de televisión Entonces, introducir algo es como la metamentira o la metafalsificación Es decir, vamos a en algo que todo es falso y guionizado vamos a introducir un elemento para fingir que es falso y guionizado Me parece una cosa demasiado complicada para mí Más allá de first dates no me avanzo en estos temas, Matías Por cierto, presenta Raquel Sánchez Silva

Si hay algo más fuera de contexto que la inteligencia artificial en un reality show fue el momento aquel de Raquel Sánchez Silva con su teléfono Sony Espera, espera, si me acuerdo Un momento inolvidable de la televisión española Como inolvidable pueden ser, Matías, Puertas Grandes o Enfermería Puerta Grande o Enfermería Mi momento favorito del podcast y el de muchos oyentes Bueno, te voy a pasar cositas, Matías, porque

atención, la empresa de juguetes sexuales Lovense utilizó 8GPT para crear el llamado del compañero del placer capaz de generar historias eróticas basadas en un tema, un lugar y un protagonista elegidos Atención, la aplicación te lee esta historia erótica en voz alta y controla automáticamente el juguete sexual correspondiente para que te puedas meter en la historia Y esa es la propuesta, atención del compañero

del placer, Matías Tengo mucho que comentar sobre esto No como estudioso del tema Pero... ¿Le vas a pedir para review? Tú que trabajas en Chismoló, Matías Bueno, no sé si mi jefe lo aceptaría pero lo puedo intentar El tema es que yo casualmente tengo un amigo que vive de OnlyFans Y su OnlyFans nunca lo he pagado Es un OnlyFans dirigido a hombres que por lo que tengo entendido es lo que busca y por lo que tiene éxito

es porque como que le da un trasfondo a las fotos que sube, a los vídeos que sube le da una historia, le da un contexto, le da una emoción No es aquí te pillo aquí te mato, al grano, explícito y ya, sino que te vas a... Y a mí me da la sensación que esto apela a este concepto de los demisexuales ¿Qué son los demisexuales? Pues demisexuales son los que necesitan como un vínculo afectivo o algo más que solo

la imagen, el audio, el olfato para sentir ese placer o esa excitación Entonces yo a esto le veo un nicho claro y no le voy a dar enfermería le voy a dar una puerta grande Le voy a decirle aquí a Lóvense, compañero del placer venga, pon que viene el butanero y escribe una historia Bueno, pues puerta grande para la demisexualidad con inteligencia artificial Y atención porque nos pasa Héctor la creación de Luis Cornago

que ha creado Chat Elecciones, atención Chat Elecciones es pues igual que había gente que charlaba con cualquier PDF random que se encontraba por ahí Luis Cornago nos plantea chatear con los programas electorales de los partidos políticos en las elecciones al Congreso de los Diputados y al Senado Entonces él ha hecho un entrenamiento ha añadido los programas electorales de PP PSOE, Sumar, Vox, Esquerra Bildu, PNV, etc, etc

10, 15, no sé hasta donde ha llegado pero ha sumado un montón y tú puedes hacerle preguntas como nosotros le hemos preguntado que es ¿Qué propone cada partido en el tema de inteligencia artificial? Pues me hace mucha gracia porque lo divide por partido PP, PSOE, Vox, Sumar y en el PSOE siempre que le he hecho esta pregunta él contesta disculpa ha habido un problema puedes repetir la pregunta y no sé qué hay debajo de esto

si es que no tienen nada de inteligencia artificial en el programa o no sé qué tipo de error da siempre el PSOE pero es cierto que la verdad es que está bien porque si a ti lo que más te interesa en el mundo es saber cómo va a tratar España el tema de la inteligencia artificial si gobierna cada partido pues aquí tienes un resumen el PP se quiere alinear con la Unión Europea Vox no sé qué quiere hacer pero quiere que las

empresas paguen en España y Sumar pues quiere crear no sé qué Consejo Ciudadano y el PSOE ya te digo puedes repetir la pregunta parece un fan de Alonso me repites ese numerín por favor así que están las cosas muy buena creación me ha gustado estamos puerta grande total puerta grande para Luis Coronado gracias Héctor por ese pase de gol y luego una prueba que están haciendo en Harvard porque proponen que haya un profesor de inteligencia artificial

basado en GPT-4 según los instructores del curso para proporcionar una experiencia uno a uno en una clase concreta del grado de informática Computer Science. Cada estudiante tendrá un apoyo 24x7 basado en su aprendizaje para ir a su ritmo y adaptado y adaptado al estilo también de lo que le funcione mejor a cada alumno.

Esto se parece bastante a otras propuestas educativas que hemos visto basadas en chatbot de inteligencia artificial y que bueno como en otros casos y me recuerdo un poco al caso que hemos visto antes de Google y de la Clínica Mayo se trata de probarlo en un entorno pues elitista entre comillas Harvard, la Clínica Mayo los sitios más top de lo top en su disciplina para que luego si las cosas van bien se pueda plantear u ofrecer

para gente que no es capaz de acceder a esas instituciones y pueda tener pues una IA que haga las veces de un trasunto no tan bueno como aquello pero que le pueda funcionar Matías. A mi me hace mucha gracia que estés pagando 40.000, 50.000 dólares por entrar en Harvard y tu profesor sea un chatbot con inteligencia artificial pero si supongo que si lo de los médicos nos parecía bien en ciertas situaciones pues también nos debería

parecer bien lo de los profesores Yo creo que depende es decir si al final el resultado es sustitutivo de un profesor y la experiencia creo que no, es decir que no deberíamos ir a peor ahí. En los casos que ya tenemos deberíamos que permitir que sea un complemento y creo que ahí puede funcionar bien y en los casos en los que no haya un buen acceso a educación y a profesores pues ahí si tiene sentido que mientras se consigue ese

estatus se utilice se puede utilizar una IA y creo que para esa gente va a mejorar pero la clave está en que los alumnos ahora que tienen un profesor y tienen un sistema educativo arreglado que funcione bien no lo vean sustituido por la mera, el mero uso de una IA. No sé si ponerle puerta grande a este pero ahí lo dejo Yo lo mandaría a enfermería porque la gente de Harvard y otras instituciones en general cae mal

Jajajaja Además están ahora metidos en un lío porque les han quitado no sé cómo se llamaba la norma que permitía discriminar por raza para ayudar a una representación más equilibrada por raza y por género y están muy contentos los asiáticos porque eran los más discriminados entre comillas los asiáticos por notas accederían mucho más pero por esta discriminación positiva de otros grupos se solían quedar más fuera.

Entonces están ahí con bastante lío en Harvard y similares. Pues no tenían idea. Así que nada, enfermería para Harvard en muchos aspectos. Tema principal del EPISODE, y me hace que mucha gracia este concepto de tema principal, porque al final nos enrollamos con cada tema que tratamos, que hoy ha sido la superinteligencia también, pero teníamos un tema que queríamos tratar con especial atención, que es y que está relacionado con quizá con esto del verano, y es que nos hemos relajado.

El hype este de la inteligencia artificial ya no lo encontramos por ningún lado. El entusiasmo está descendiendo. Yo creo que sí, Matías. Yo creo que, mira, hay una encuesta de The Verge, curiosamente, que los medios de España solo preguntan por las elecciones y hacen cuenta de esto, pero The Verge hizo una sobre quién está usando inteligencia artificial en Estados Unidos.

Hizo una encuesta con 2.000 adultos, lo cual empieza a ser un volumen interesante para tener en cuenta. Y su conclusión es que la mayoría de la gente sabe que la IA existe y que hay cosas por ahí haciendo, no se sabe muy bien qué, pero la mayoría ni siquiera la ha probado. El 67% no ha probado ningún producto de IA de la sociedad IA moderna.

¿Ha usado el filtro antiespan de Gmail? Sí, pero aquí hablan de las herramientas de IA modernas, actuales servicios y productos. Me voy a poner a usar una IA. ¿Quién más está usando? Son los Gen Z, los Millennials, pero los padres, la abumerada, de momento no está entrando en este mundo, Matías. A mí me sorprende mucho este dato porque en mi contexto familiar y de amistades se usa chat GPT para cosas muy dispares.

Mi madre es la directora, coordinadora de una serie de guarderías y ella manda muchos emails y muchos whatsapps y se apoya en chat GPT para generar estos emails repetitivos. Y luego tengo un amigo que es coordinador también, pero de unas instalaciones deportivas y para coordinar y para generar horarios, etcétera, de los monitores y tal, también se apoya en chat GPT.

Y me sorprende que salga ahora esto que dice que el 70% ni siquiera lo ha empezado a usar, o sea, ni probado. La verdad es que me ha sorprendido. Sí, bueno, también tú has podido ser una influencia, es decir, tu entorno quizás diría por tu propia iniciativa y de escucharte y de verte, pues a lo mejor no es el más representativo. Yo, en cambio, he tenido nulo éxito en mi entorno evangelizando sobre IVA.

De hecho la gente cambia de tema cuando yo empiezo, no sé por qué. Pero bueno, el caso es que en los usos que detecta esta encuesta pues están sobre todo los creativos, generar imágenes, música, generar texto, pero menos profesionales. Es decir, no tanto en correos electrónicos, sorprendentemente. Programación, análisis y datos son menos comunes, pero bueno, esto también viene a ser porque la mayoría de la gente no programa y no analiza datos.

Entonces es normal que ese uso sea pequeño, teniendo en cuenta sobre todo las encuestas que dimos hace dos semanas en que la mayoría de los programadores ya están ahí usándolas. Entonces, bueno, que ha habido mucha noticia y mucho hype y mucho, le hemos dado mucha importancia, pero que la penetración en tanto en cuanto a uso de la gente mayoritaria va a ir poco a poco y va a ir pues más lento.

De hecho, ya comentamos que chatGPT está bajando audiencia, bajando de visitas conforme llegaba el verano y ahora un informe de SimilarWeb pues lo ha confirmado bastante, Matías. Sí, el tráfico mundial, esto se mide tanto de ordenadores de sobremesa como móviles, a la web de chatGPT según SimilarWeb ha caído un 9,7% de mayo a junio.

En Estados Unidos incluso más, un 10,3% y en el mundo los visitantes únicos de la web de chatGPT han caído casi un 6%. También desciende el tiempo que pasa la gente en la web de chatGPT, o sea que es revelador. Un dato que me hace mucha gracia, chatGPT sigue trayendo más visitas en todo el mundo que Bing, el motor de búsqueda de Microsoft. Esto no sé ni cómo puede ser posible.

Hay una cosa que es que la experiencia de Bing de busco y la inteligencia artificial me procesa los resultados de la búsqueda, es que no es satisfactoria, no ha acabado siendo redonda. A mí me gusta mucho más preguntar al modelo entrenado que hay, creo que es mucho mejor que buscando en la web. Y fíjate, hay una cosa interesante en este informe de SimilarWeb, porque ¿te acuerdas que teníamos la hipótesis de chatGPT ha bajado, clara señal de las vacaciones? Mucho uso estudiantil de chatGPT que decae y ahí vi una hipótesis que era a lo

mejor siguen usando inteligencia artificial de un modo más lúdico. Estaba carácter ahí, ese sitio de distintos chatbots con distintas personalidades que simulan ser personajes históricos, famosos, etcétera, o puramente inventado. Bueno, si el caso fuera chatGPT baja solo porque son las vacaciones de verano de los chicos y las chicas, bueno, del alumnado en general, carácter ahí debería subir, porque podría haber un efecto sustitutivo de tengo más tiempo en verano,

lo uso para una herramienta lúdica. Pero el caso es que también baja, lo cual yo creo que nos dice algo que el mantenimiento, digamos, el interés de muchos de los que entraron en estas herramientas, tanto para temas prácticos como para temas lúdicos, en ambos casos ha decaído. Bueno, pues no sé, tampoco me sorprende.

Quiero decir, por ejemplo, carácter ahí, yo esperaría que fuera un pasajero, una moda y un juguete, pero chatGPT, que es una herramienta potente para muchos casos de uso y mucha gente, entiendo que haya pasado el hype y que mucha gente no le haya encontrado la utilidad o la vuelta o lo haya adaptado a su, no sé, a su rutina o su trabajo, pero me sorprende y no me sorprende.

No creo que la IA sea una moda pasajera, pero a lo mejor chatGPT tiene que atraer o facilitar las cosas a la gente para que vuelvan. Esta semana se ha hablado mucho de mi empresa. Por ejemplo, hemos salido en The Verge, el staff de Gizmodo no está contento con el contenido autogenerado de nuestra empresa, que se llama GeoMedia, porque han empezado a publicar en Gizmodo y en algún otro medio, otra cabecera de la empresa, contenido autogenerado y el primer lanzamiento autogenerado en Gizmodo, la verdad que fue un desastre porque fue una lista

cronológica de series y películas de Star Wars, firmado por GizmodoBot, que sería nuestro nuevo compañero de redacción. Y fue un desastre al principio porque había algún error, faltaban muchas series, faltaba alguna película y luego que había una película que creo que era de Clone Wars, o sea, una serie que no estaba en orden cronológico.

Tenía un error también. Así que esto fue super editorializado después de varios debates en la empresa y ahora está corregido y ampliado por un humano. Así que GizmodoBot ha tenido mucha ayuda. Claro, es un buen ejemplo de que la promesa de este tipo de herramientas en producción, en medios de comunicación, hay que tomarla con cierta distancia.

Es casi el pecado original que hablábamos muy al principio y que veíamos con GPT-3. El API de GPT-3 llevaba dos años antes de que saliera GPT y había muy pocas herramientas en producción que la hubieran adoptado. ¿Por qué? Porque realmente la alucinación, los errores, las equivocaciones y las invenciones que tenían estos modelos te metían en unos riesgos en producción que la mayoría de empresas no se pueden permitir.

GPT-3.5, GPT-4 han ido mejorando pero no te libran de alucinaciones, invenciones, etcétera. Por lo tanto, en producción es todavía un riesgo alto como está viviendo en sus carnes la antigua Gawker Media o como ha vivido CNET o como ha vivido Badfeed. De todas maneras, creo que es porque a lo mejor la estamos mirando mal. Creo que la IA es mucho más poderosa en los procesos antes de publicar que al publicar.

Resumen en este artículo que tiene 3.000 palabras y es complicado para mí. Tradúceme cosas, dame 5 ideas de titular, este es mi texto, génerame un prompt que lo resuma, etcétera. Dame una entradilla. Es decir, hay un montón de cosas en los procesos que un periodista, un creador de contenido tiene que realizar relacionadas con su creación, con su publicación. Y creo que ahí es donde hay mucho más valor pero no forma parte de la conversación.

Creo que la gente lista está usando la IA en los procesos, no está dándole crea el producto entero final. Este es pensamiento de padre pobre y ya dos diría que somos mileuristas panzones porque nos estamos buscando un uso muy práctico para seguir haciendo nuestro trabajo con un poco más de facilidad y estas empresas están buscando generar ingresos de forma totalmente pasiva y sin ningún esfuerzo que sería la mentalidad ganadora de ya dos.

Es verdad que yo no lo llamaría una panza pero yo tengo una barriguita sexy. Antonio me da tres vueltas en el crossfit, hay que decirlo. Está bastante fuerte. Pero no acaba de irse de la barriguilla entonces claro no puedo abrazar el mundo de ya dos al completo por lo tanto me mantengo un poco fuera. Pero mira tenemos ejemplos de por ejemplo hace poco alguien escribió un post sobre mi pequeña empresa ha perdido la cabeza al integrar inteligencia artificial, lo han metido para

generar recursos humanos, generar documentos del departamento de legal y bueno según el colega es un completo desastre porque básicamente el CEO ha dicho me he flipado con la idea y hay que ir todo meterlo en todos lados a toda a toda mecha. Entonces bueno creo que es un ejemplo de que este hype de esto ya está preparado para meterlo en todos lados probablemente es excesivo. Entonces bueno hay un debate que yo traía también muy interesante de hecho sobre ese debate he

publicado en Error 500 esta semana que Asterix Mazzin que es una web que tiene un contenido bastante bueno de textos muy largos y tal tenía un debate entre un economista que es Matt Clancy y un investigador que es Tamay Besiroglu sobre el impacto económico. El investigador es como muy optimista es decir va a traer un crecimiento económico explosivo, un cambio económico como no se ha visto nunca en la historia de la humanidad porque la IA será capaz de hacer la mayoría de

las tareas que actualmente hacemos los humanos. Entonces va a multiplicar por 10 la tasa de crecimiento del siglo XX por lo tanto esta década nos viene la década económica maravillosa para las sociedades y empresas que integren la IA. El economista, esto no ha pasado nunca en la historia, bueno no nos flipemos, dice que la IA puede mejorar el crecimiento económico pero eso de explosividad y que eso no ha pasado nunca con tecnologías tan transformadoras como la electricidad o el

ordenador personal que aunque cambien el mundo el crecimiento económico y su impacto porque mejora la productividad etcétera pues es paulatino y para nada es explosivo. Yo en este debate estoy mucho más con el economista porque tú ves las inercias de empresas, personas, organizaciones, sociedades y el cambio no es aparece hecha gpt y de repente todos multiplicado por 10 la productividad eso me parece que hay que ser muy escéptico respecto a estas visiones utópicas que va a

haber un impacto positivo en general estoy convencido de ello pero que es el momento creo que este artículo es muy ilustrativo y nos ayuda a reflexionar sobre el tema de moderar el hype. Yo voy a ir con el investigador de apellido impronunciable porque yo creo en el wishful thinking y quiero que vaya súper bien todo económicamente porque tenemos un cambio climático al que enfrentarnos necesitamos reactores de fusión así que necesitamos que la IA haga que

todo lo demás vaya facilito. Yo voy a ir con el investigador y te dejo a ti con el tuyo. Con el investigador la IA escribirá todos los artículos y hará todos los podcasts y además la superinteligencia en esta década también. Para el beneficio de la duda que la audiencia es testigo no voy a poner como límite 2030, vamos a poner 2033 como límite Matías para para esto y aquí está la apuesta.

Atención. Queda grabado. A favor de mantener el hype. El hype propiamente dicho no pero que una visión muy optimista de la IA pues a favor pues que ya hablamos de cómo la cantidad de dinero que se está viniendo inteligencia artificial eso significa que se van a intentar muchas cosas a ver muchas startups con muchas propuestas y por lo tanto echando más boletos hay más posibilidades de que aparezcan productos y servicios que nos ayuden en esta explosión o en este en esta mejora de la productividad y de la sociedad.

Vale eso es un dato a favor. Gente potente como DeepMind o Hasabis de DeepMind o los propios de OpenAI que hemos comentado hoy hablan de Agile como algo posible con plazos de una década. OpenAI habla de superinteligencia en una década. DeepMind sostiene que Gemini superará GPT-4 y eso nos dice que al menos desde su visión el paradigma actual no está agotado sino que con Deep Learning conseguiremos resultados mucho mejores de los que nos da GPT-4 o el artículo que tú estás compartiendo Matías el 72% de los

directivos de empresa del Fortune 500 tienen predictos de adoptar guía en los próximos tres años entonces por lo tanto ahí pues va a haber también muchos intentos y se va. Cuanto más gente se meta en esto más posibilidades que se descubran esas posibles mejoras que genera ella. En contra del hype pues para mí el uso que ya estamos viendo real en alguna disciplina es tremendo y ahí pienso en programación y pienso en marketing y todo lo que es generación de imágenes y textos para

la publicidad digital sobre todo el mundo de la imagen de stock el mundo de los locutores pues ahí está claro de que ya hay un impacto alto pero en otras disciplinas otras tareas lo veo de momento muy ligero muy tentativo y muy hipotético entonces qué grado de hype mantenemos Mati esa es la gran pregunta.

Se puede estar a favor del hype y en contra de los jefes estos que son unos tiburones como el de la empresa está que mencionaba que intentaron integraría en gira y era absolutamente todo yo estoy en esa postura en contra de los jefes tiburones y a favor del hype. Bueno yo estoy a favor de que hemos pasado la hora y nos queda un par de basados o haciendo la ciencia. Hasta tiempo un basado haciendo la ciencia que tenemos hoy Antonio.

La gente Matías la gente es mala con la inteligencia artificial porque ya vimos que los adolescentes maltrataban a su amigo inteligente artificial en snapchat y ahora la gente está contratando robots telefónicos para torturar a teleoperadores humanos. Atención el software de inteligencia artificial y los clonadores de voz simulan a tontos distraídos dispuestos a quedarse al teléfono para siempre o hasta que las personas que llaman finalmente se rinden.

Esto me parece... no tengo palabras. Mucha maldad, mucha maldad. Además me entristece porque a quien hay que llamar es a los jefes de estas oficinas de teleoperadores. Claro, hemos tenido una pareja, un amigo que trabaja de teleoperador y que claro los pobres son unos mandados. Son muy coñazos también los que los que te llaman ofreciéndote cosas.

Es un mundo difícil. Hay que llamar al señor ya esté, a Jesús Vázquez o quien sea. Que rule el teléfono de Jesús Vázquez. Pero no a los teleoperadores. Venga pues estos son muy basados los enemigos de los teleoperadores y luego tenemos gente también que se está basando en San Francisco que están enfrentándose a los vehículos que se conducen solos, vehículos autónomos.

Qué atención. Tienes una técnica para confundir a estos coches, Matías, que tú has escrito sobre el tema. Sí, sí. Estos son como unos activistas que hay en San Francisco. En San Francisco están a punto de votar si se puede llevar gente o no en estos robotaxis que son de Waymo y de Cruz, que es de General Motors. Y hay como un grupo activista que se llama Safe Street Rebel que han hecho un vídeo que se ha hecho viral en TikTok y en Twitter llamando a la gente a coger conos de tráfico de la calle y ponerlos encima del capó de estos taxis sin

conductor, de estos coches autónomos. Claro, como ven el cono delante con las cámaras, pues directamente se desactivan, se frenan y se quedan ahí bloqueando la carretera. Entonces esta gente está buscando ese caos. En San Francisco hay gente que está un poco harta de los robotaxis. Ha habido vídeos virales ahí de algún robotaxi bloqueando un tranvía, invadiendo una acera, huyendo de la ciudad.

Los bomberos están muy mosqueados con esto. Sí, también hubo un caso de bloquear un camión de bomberos. Entonces, pues no sé, no sé si estoy a favor de esta gente o al final es vandalismo, pero curioso método. Es que los robotaxis también pueden hacer cosas muy guays por el tráfico en una ciudad. Es una cosa complicada. Entonces, bueno, se han basado mucho, poca ciencia de momento.

Bueno, aunque en el momento cono es bastante hacer la ciencia a tu manera. Y último caso, que es uno que me has traído tú, María, es que es usando el relleno generativo de Photoshop para extender Star Wars y que se pueda ver en vertical. Esta gente son unos genios. Son unos genios porque realmente esto es muy fácil. Lo podríamos hacer tú y yo. Es que cogen el vídeo y lo estiran, pero lo que vemos arriba y abajo es estático.

Lo que pasa es que el resultado es muy chulo, porque el relleno de Photoshop funciona muy bien. Y me hace pensar, me hace pensar, ¿acabaremos viendo remasterizaciones de películas como Star Wars, Indiana Jones, Jurassic Park, pero para consumir en vertical en el móvil? El otro día, Mati, estaba en el Media Mark y tenía en la tele esta de Samsung que se gira y que puedes ver cosas en vertical.

Y que a lo mejor, generacionalmente, los chavales que se educan en una pantalla de teléfono, poco a poco pueden ir abrazando este tipo de formato. Yo aquí tengo que estar en contra, Matías, porque generacionalmente las generaciones futuras siempre necesitan que haya un poco de desprecio por parte de los viejos.

Y que puedan decir, es que no entiendes el mundo, es que esto ya no son tus tiempos. Ellos necesitan eso. Entonces, no puedes ir de maduro colega. Eso está mal. No como, venga, me gusta el trap y me gusta todo esto y veo las cosas en vertical. No, no, no. Tú tienes que ejercer ya tu rol, Matías. Poco a poco vas cumpliendo años y no puedes ir abrazando cualquier cosa de la chavalada.

Esto funciona así. Te lo podemos permitir, pero vértelo pensando ya las cosas que puedes ir aceptando. Me gusta que en este episodio nos hayamos enfrentado varias veces y cada uno con su opinión. Ha sido un episodio muy divertido de monos estocásticos, pero hasta aquí hemos llegado porque incluso nos hemos pasado de la hora y cinco minutos. Una cosa, semana que viene todavía estamos, pero el final de temporada se acerca.

Atención. Si en algún momento cortamos y volveremos ya en septiembre con... o quizá antes de septiembre. Depende de cuándo estemos los dos con ganas de volver con nuevos episodios de monos estocásticos. Hasta la semana que viene. Chao, chao, chao. Chao, chao, chao.

Episodios recientes

Programas relacionados