Charlar con Hitler no va a ser el gran negocio de la inteligencia artificial

00:00 /47:50

Además, estrenamos sección: PUERTA GRANDE o ENFERMERÍA.

Puedes leer el boletín que acompaña a este episodio en https://www.monosestocasticos.com/p/chatgpt-trajo-terror-en-el-profesorado

Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com

Transcripción

Hola, hola, hola, hola. Bienvenidos a este segundo episodio de Monos Estocásticos. Estamos muy contentos con el recibimiento que ha tenido el primer episodio. Tremenda salida, Matías. Tremenda salida. Vi lo que compartís en Twitter. Es el chart table, el servicio con el que nos la medimos en el podcasting, ¿no, Matías? Sí.

Realmente el ranking es el de Apple Podcasts y eso es como una web que sigue el historial del ranking de Apple Podcasts. Y he de decir que nos hemos estrenado con un primer puesto en la sección de noticias de tecnología. Bueno, un octavo puesto en la sección de noticias, pero ahí competimos con Federico, competimos con gente ya... Ahí ya, Federico, Alcina, nosotros...

Pero yo, Matías, creo que nuestro camino, nuestro crecimiento puede ir mejor, puede ir a más. Y vengo con una idea revolucionaria para nuestro podcast y para el mundo del podcasting en general. A ver, cuéntame. Creo que lo que nos falta, creo que la guinda al pastel, Matías, en este podcast es el tener secciones.

Secciones. Sí, yo creo que los podcasts de éxito del futuro tendrán secciones. Como en la radio, ¿no? Tiki-taka, cortinilla, nueva sección. Sí, una cortinilla así como ochentera. Antonio, a mí me hace gracia que tú llegues al mundo del podcasting de nuevas y ya lo quieras revolucionar. Claro, claro.

Es la mentalidad que... Oye, yo hice un podcast también de inteligencia artificial en la etapa de Chataca que se llamaba Captcha. Lo hicimos con gente muy top, muy buena, con el equipo de Chataca que funciona fenomenal. Así que en ese sentido tengo una mini experiencia. No estoy en tu nivel, Matías, pero a veces cuando estás tan metido en una disciplina, falta alguien que refresque, que venga con una idea nueva, innovadora, tragresora, como es tener una sección en el podcast.

A ver, ¿qué secciones has pensado? Y vengo con dos ideas, Matías, para que tú las evalúes, que eres el experto. Primera idea, la sección Ideas Random. Ideas Random. Y vas a proponer un nombre que a ti no te va a hacer gracia, que a ti no te va a hacer gracia, Matías.

El nombre original era Puerta Grande o Enfermería, pero como tiene una referencia a la toromaquia y tú no eres muy amigable, no, no, no. Es algo que te emocione, que te motive. La toromaquia es muy boomer, Antonio. Se lo ha quedado atrás, pero, a ver, también hay expresiones como valor y al toro, etcétera, que se siguen usando y no me parece mal eso porque creo que intuyo por donde vas, ¿no? Es calificar ideas por Puerta Grande o Enfermería. Enfermería.

Es decir, esta idea que ha empezado a surgir o este proyecto sobre IA va a triunfar, y ahí nos tenemos que mojar, Matías, o va a ser un completo y absoluto desastre. Entonces, puedes elegir el nombre boomer, Puerta Grande o Enfermería, o el nombre zoomer, que es Ideas Random. Pues, venga, me voy a quedar, porque es como autoexplicativa con la expresión esta torera, pero una cosa.

Yo, para vaticinar el futuro y para mojarme, soy un desastre. Casi nunca a ti, ¿no? Claro, yo ahí jugaría una baza, que es un aventaja de los podcast, Matías, que nadie se va a tu podcast de hace un año a escucharlo. En el mundo de un año triunfa, y siempre podemos alegar, nosotros ya lo vimos. Estábamos seguros de que iba a triunfar, nadie lo va a comprobar. Por ahí nos podemos salvar, pero si empiezan estos podcast a integrarse con el Whisper este que te va haciendo las transcripciones, y luego eso se puede localizar en Google,

o eso incluso el chat GPT lo va indexando, pues juegan nuestra contra. Pero bueno, me gusta, me gusta la idea. Vale, perfecto. La otra idea es para más adelante. Hoy yo creo que podemos estrenar Puerta Grande o Enfermería, yo creo que podemos ir ahí, y podemos poner un pequeño paso doble de música, podemos buscar ahí un tema, Matías.

La otra sección iba a ser Pregunta a un mono, que es cuando tengamos más comunidad, más gente participando, pues en los comentarios de e-box o de la lista de correo por Twitter, que nos puedan decir temas que quieren que tratemos en el podcast. Pero yo creo que esa es para más adelante. Empezamos, nos centramos en triunfar y en el éxito de la primera sección y luego la otra, si te parece bien. Vale, perfecto.

Pero mantenemos la sección de noticias y tema principal, que era la estructura de... No desmontamos nada el segundo episodio, simplemente ampliamos. Perfecto. Me gusta, me gusta. Las noticias de la semana. No tenemos cortinilla todavía, si quieres lo digo como así. Noticias. Se confirma lo que comentábamos en el primer episodio de este nuevo acuerdo Microsoft-OpenAI y lo único que no está confirmado, pero hasta Bloomberg lo da por válido, es la cifra.

Pero bueno, inversión milmillonaria de Microsoft en OpenAI para afianzar y asegurarse, por ahora proveedor de la nube y en el futuro próximo servicios de OpenAI integrados en los servicios de Microsoft. Sí, el paquete va completo. Son 10.000 millones de dólares, lo que apunta Bloomberg de inversión. No se ha filtrado todavía el contrato con todo el detalle.

Te acuerdas que había cláusulas que sonaban muy ventajistas para Microsoft. No sabemos a ciencia cierta si al final va a ser así, pero lo que se han anunciado desde las dos partes es el plan claro. Azure y Microsoft va a tener la exclusividad de ser la nube de la plataforma como servicio que integra las APIs de OpenAI.

Integración fuerte, Bing, Office, Github, Copilot, pues bastante confirmada. Y bueno, te voy a leer el literal de Microsoft porque se vienen arriba. Es verdad que si tú tienes que justificar que te vas a dar 10.000 millones a algo, tienes que ponerlo en valor. Bueno, lo que dicen Microsoft es creemos que la inteligencia artificial a gran escala creará un impacto transformador de la magnitud del ordenador personal, Internet, los dispositivos móviles y la nube.

Es decir, que esto va a ser claro que aquí se alinean los astros. Tanto OpenAI, Microsoft, Bill Gates el otro día en una entrevista en Reddit y monos estocásticos están apostando por la IA. Así que alguna de las grandes mentes de este planeta, Matías. Sí, bueno, no hay muchas sorpresas. O sea, tampoco es que hayan anunciado nada.

Y de hecho, en la entrevista a Sam Altman del otro día también le preguntaban cómo se va a integrar OpenAI en los servicios de Microsoft. Va a estar en el Bing, va a estar en el Excel y tampoco se mojaba. Así que tiempo para descubrir exactamente qué es lo que ha visto claro Microsoft. De hecho, esto al final es una de las polémicas porque Microsoft viene de despedir a 10.000 humanos.

La cifra es la misma, 10.000 humanos, 10.000 millones de dólares. Lo decimos así porque es curioso, pero es una mala noticia para el sector y para estas personas en concreto. Aunque bueno, aquí hay que poner un gran asterisco. Es decir, Microsoft viene de varios años de contratar muchísimo más que 10.000 personas.

Es decir, es verdad que ahora ha dado un paso atrás, pero el saldo neto de los últimos años de contratación de Microsoft y del sector tecnológico es altísimo. Dicho sea esto, encajamos con otra polémica, que es la noticia, la exclusiva cada all time, en la que apuntaban a que OpenAI para la labor de ese trabajo de detectar en el entrenamiento de GPT-3 el lenguaje sexista, racista, violento, de odio, etcétera, ha utilizado de obra kenyata a través de una

intermediaria que se llama Sama. OpenAI pagaba unos 12 o 50 dólares la hora a esta intermediaria y finalmente hacía que llegaran a los trabajadores que hacían esta labor de Kenia dos dólares la hora. Esta era la misma intermediaria que usaba para moderación Facebook, ¿no? De hecho, habían roto relaciones hace relativamente poco.

Sí, Facebook se vio muy agajada porque salieron muchos reportajes de problemas psicológicos, ansiedad en los encargados de hacer estas labores. También es verdad que el contenido que circula por Facebook, en muchos casos, violencia explícita en vídeo, cosas muy malas con niños también, era de un impacto creo que mayor que si analizamos GPT-3 de dónde ha aprendido.

Hemos echado 10.000 libros, hemos echado las webs más populares que están en los datos de Reddit, digamos el dataset en el que ha partido GPT-3, en el que probablemente no hubiera cosas tan graves. Yo aquí creo que la opinión sobre esto es la misma opinión que tiene todo el mundo ya preconcebida sobre la globalización y la externalización de trabajo fuera, ¿no? Entonces creo que todo el que piense de una manera ya respecto al fenómeno ya va a opinar igual respecto a

esto. Yo estoy mirando en Hacker News, que es interesante porque hay Keniatas del sector tecnológico que opinaban por ahí, ¿no? Y por lo general la media de la opinión de los Keniatas y los africanos era quizás, creo yo, menos negativa que la opinión desde occidente.

Sí, porque aumentaba el salario. O sea, Sama, que es la intermediaria esta que usa OpenAI, pagaba dos dólares la hora y el sueldo medio en Kenia es de un dólar veinticinco la hora. Bueno, pagaba hasta dos dólares la hora, no es que todos cobrarán lo mismo. Y sí, es debatible. También es un poco sorprendente. Todos sabemos que ChatGPT está censurado en muchas formas porque la propia ChatGPT te va contestando esto no sería correcto responderlo o alguna respuesta casi siempre estándar.

Y es sorprendente que los mismos problemas que habíamos visto para la gente que se dedica a la moderación de contenido, por ejemplo, en redes sociales como Facebook, se puedan trasladar al formato texto. O sea, imagínate lo que puede llegar a describir en texto una IA como ChatGPT para que los trabajadores tengan quejas de problemas mentales, psicológicos, derivados de su trabajo.

Bueno, puede ser el caso. Este es el trabajo sucio. Yo, como te decía antes, yo creo que al menos con estos modelos de lenguaje, ahora mismo, creo que probablemente no va a haber ese impacto tan negativo, tan estresante, tan agresivo que puede tener cualquier cosa que se comparte en una plataforma de internet a día de hoy. Pero es verdad también que si bien esto puede tener un impacto positivo, pues esos trabajadores están mejor que la media en Kenia, pues para Kenia puede ser positivo que grandes corporaciones encarguen

trabajos allí, se fomente el empleo, pero es verdad que desde el punto de vista de OpenAI y de otras grandes tecnológicas, se tiene al currito que realiza esta labor como algo siempre externo, que no forma parte de la plantilla, que no es igual que el resto y que de alguna manera al externalizarse crea un desnivel entre los que son los de dentro y los que son los de fuera.

Es curioso que el trabajo de un programador, por ejemplo, se va a poder sustituir en parte con una IA y el trabajo de un moderador, pues quién sabe porque al final hay que meter ese factor humano para decidir lo que es ofensivo, lo que no es ofensivo. Y este es uno de los temas que tocó Sam Altman en la entrevista esta de la que de la que hablo.

Tenemos un pequeño resumen de la entrevista porque la verdad es que fue bastante extensa y Sam se moja bastante. Es un tío que lo tiene clarísimo cómo habla, las respuestas rapidísimas y se mojan casi todo. Incluso algún tirito le lanzó a Google con esto del código rojo que han activado dentro de Google. Así que es una entrevista muy recomendable.

Claro, hay beef, Mati. Hay beef en el mundo de la IA entre investigadores de la IA que se meten en pollitas, ¿verdad? De hecho, el jefe de Meta dio una declaración en una entrevista a ZDNet en la que venía a decir que lo que ha sacado OpenAI… Oye, que esto prácticamente en el laboratorio lo tenemos todos. Solo lo han hecho público, pero a su nivel estamos todos.

Que no es para tanto. Que no nos flipemos tanto. Y Sam Altman le ha comentado en Twitter a ver si podemos llevarnos todos bien. Algo así ha dicho. Y aquí en esta le ha pegado la puya a Google que venía de Google de decir hay que ser muy prudentitos, hay que tener mucho cuidado, a ver si sacamos las cosas y rompemos algo.

Y ahora que Google se acelera, luego lo comentamos y que se ha espabilado parece, pues Altman ha aprovechado para decirle oye, recordarle esto que decía Google cuando saquen sus modelos de lenguaje que van a tener fallos como tenemos todos los que tenemos ahora. Bueno, también es que ha cambiado mucho la postura de Google. También hablaremos ahora de hace un año a la de ahora.

Parece que lo del código rojo era totalmente cierto porque de repente Google ha empezado a hablar de sus proyectos de IA y se espera que lancen y presenten nuevos proyectos en los próximos meses que la postura de Google ha cambiado y esa puyita tenía sentido. A ver, cosas que dice Sam Altman en la entrevista. El vídeo generativo.

Tenemos Dalí 2 como generador de imágenes. Falta generador de vídeo que ya hemos visto a otras empresas hacerlo, lanzarlo, etc. Y es posible, es flipante, me vuela la cabeza que se pueda generar vídeo a partir de un texto. Lo tienen, está en desarrollo, pero no se moja, no da nada de fecha. Sí, ahí además computacionalmente va a ser muy costoso.

Es decir, si ahora mismo el general texto le está costando una pasta OpenAI, generar imágenes también cuesta y tarda tiempo. Tanto GPT-3 como Dalí 2 tardan tiempo en esa generación y un costo computacional no solo en el entrenamiento sino también en el tiempo real de ejecución. Con Video Show se puede multiplicar muchísimo. Probablemente no sea una cuestión, bueno, es una cuestión mixta tanto de la investigación necesaria de los modelos generativos de vídeo como que poner esto en producción a probar y que

30 millones de tuiteros se pongan ahí como locos a darle a la máquina. Eso va a costar mucha pasta. Bueno, también insiste Sam Altman mucho en la importancia de hacer los lanzamientos graduales porque esto cualquier paso en falso puede ser complicado para economías globales y aclara, esto ya lo sabíamos, que GPT-4 va a decepcionar a la gente.

Yo no sé, ni siquiera Sam Altman sabe de dónde salió el meme este de el globo pequeño y el globo grande de GPT-4 con 100 trillones de parámetros, pero directamente dice Altman que eso es una gilipollez, que la gente parece que está buscando decepcionarse, que probablemente vayan a ser decepcionados, vayan a quedar decepcionados cuando salgan las próximas versiones de GPT y que, por supuesto, todavía no tienen entre manos una AGI, una inteligencia

de estas generales real. Se espera que en el futuro existan, pero por ahora no manejan esas cifras. Sí, yo creo que Altman además ha jugado bien con los tiempos, porque primero le entran los 10.000 millones en un bolsillo, ¿verdad? Y luego dice, oye, hay que moderar las expectativas, esto no va a ser para tanto, la inteligencia artificial general en el futuro es una cosa muy borrosa, unos interpretarán que ha llegado,

otros que no, se ponen un poco más, como llamando un poco a la calma. Y bueno, yo creo que es ahí realista. También es cierto que no se esperaban el éxito que ha tenido ChatGPT, que él dice, me esperaba como un orden de magnitud menos de hype.

Y claro, la implicación que tiene que ChatGPT se haya convertido en una herramienta tan popular es que vamos a empezar a verla en todas partes, desde la educación, que es el tema principal de esta semana, no os preocupéis, ya llegaremos, hasta imagínate que de repente se empiezan a redactar leyes, no sé, me lo invento, apoyándose en ChatGPT que se inventa las cosas.

Hombre, alguna concejalía en el pueblo está ya trabajando en esto, seguro que lo veremos. Bueno, hay una cosa que me ha gustado mucho de lo que ha dicho Alma, que es, le han pinchado mucho por la inteligencia artificial general, como tú decías, y él decía que lo que le gustaría es que en un futuro hubiera muchos diferentes distintos modelos en el que no se concentrará demasiado poder en una sola organización que controlara esta inteligencia artificial general y que básicamente quiere

unas reglas claras, bueno, él es una persona, en el sentido español, es liberal, intenta que no haya muchísima intervención del Estado, intenta que sea esta, él promueve que sea una intervención mínima, entonces él quiere reglas claras, que no sean muy controladoras, que sean bastante abiertas y que la gente pueda elegir inteligencias artificiales, pues más comedidas, más como ahora hemos dicho, ChatGPT, que no se mete en ninguna polémica,

a todos los colectivos minoritarios, etcétera, pero que sí, dentro de lo legal, hay gente que quiere inteligencias artificiales más atrevidas, pues también las pueda tener y pueda de alguna manera incluso hacerlo a la carta. Si yo le doy a una inteligencia artificial mis valores o cómo veo el mundo o dónde tengo yo puesto los límites, esta inteligencia se adaptaría a la persona y no al revés.

Es un punto de vista interesante. Sí, sí, de hecho lo comentábamos en el episodio anterior, que no va a estar bien visto que las grandes empresas tecnológicas, que serán las que al final consigan desarrollar estas agis, sean las que decidan dónde están los límites, entonces me parece una postura curiosa, interesante, dejar que sea la sociedad o que sean los usuarios los que decidan qué es Save for Work, qué es, o sea, si debería ser una IA Save for Work o si debería incluir

Not Save for Work, ¿sabes? Ese es el acrónimo que significa más 18 en el lenguaje más internetero. Así que no sé, es curioso, curioso que quiera dar ese poder al propio usuario. Bueno, y pasamos de Altman a Google, que iba a caer en decir un giro de 360 grados, no, no, va a decir un giro de 180 grados en la estrategia de Google.

Bueno, primero se han puesto muy pesados. Vamos a publicar mucho en nuestros blogs de todo lo que hemos hecho, todos los proyectos, todo lo que hemos investigado. Hay una cosa a favor en el BIF, Meta, Google, OpenAI. Hay que decir una cosa a favor de Google y de Meta, muy clara, que es que si Google y Meta no hubieran liberado todo lo que han liberado en investigación, en tecnología en los últimos 10 años, no existía este boom de la IA, pero ni de coña, ni de coña.

Lo que han hecho esta gente liberando, siendo abiertos y compartiendo, tiene muchísimo mérito. Dicho esto, bueno, ahora van como un tiro, Mate. Sí, no, de hecho, uno de los últimos artículos que han publicado en el blog de Google España, que no se actualiza tanto como el blog general global, es siete maneras en las que Google contribuye a resolver los retos de la sociedad a través de la inteligencia artificial.

Esto es claramente que se han picado y que están diciendo, a ver, que nosotros ya estamos aplicando IA, lo tenemos implementada en un montón de cosas que están ayudando a la sociedad y lo peor de todo es que te vas un poco, haces un poco de stroll en el blog y llegas a tres maneras en que la IA está acercando tecnologías útiles a todo el mundo.

O sea, no paran de publicar, claramente picadísimos con OpenAI y con lo que está pasando. O sea que esa teoría de que es un derpichai le dio al botón de alerta roja, me la creo a pies puntillas por todo lo que están al final publicando para cambiar un poco el discurso. Google también ha lanzado en despidos masivos, creo que Google se ha ido a 12.000, si no me acuerdo mal.

Bueno, en ese entorno, en ese orden de magnitud de despidos, pero donde no ha tocado es en IA. Además, han aprovechado para, hay pichai, para reforzar de que, oye, IA es que somos una empresa de inteligencia artificial y vamos a muerte con esto. Y el New York Times ha anticipado que en la conferencia anual de mayo van a, bueno, van a soltarlo todo, van a ir con todo el repertorio, generadores de imágenes que probablemente ya podremos probar porque lo han publicado, están los papers, están entre comillas los ejemplos

que han publicado. Cosas interesantes que se van a meter en generación de código con el modelo de Palm, entonces es competidor de Copilot, de Microsoft. Y una cosa interesante es que se va a meter en una de las escenas más chulas, creo que en estos años probablemente, que sea la escena de ayudar o plataforma de creación de tu propia herramienta.

No sé si con una solución no code, de no tener que programar o de low code, pero van a estar ahí. Entonces va a ser una feria, una conferencia, perdón, realmente interesante. Sí, hay que decir que por lo visto Larry Page y Sergi Brin han estado en la conversación, en la discusión dentro de la parte directiva de Google sobre cómo va a ser el despliegue de estos supuestos 20 productos, esta veintena de productos de IA en los próximos meses.

Yo pensaba que estaban estos dos jubilados viviendo la vida, sobre todo Larry Page, que es muy de vivir la vida. Pero no, a este tema les ha preocupado, han cogido el jet privado y han vuelto a Mountain View. A mí me ha recordado un poco cuando en la WWF, ¿te acuerdas? Cuando había unas peleas y había uno de los buenos que iba perdiendo, pero de repente pedía ayuda y saca el Undertaker, que lleva un año retirado y viene el Undertaker y Hulk Hogan, todos abuelitos, a ayudar ahí

al luchador. Como el comodín del público, básicamente. Sí, sí, sí. Bueno, tenemos más cositas, Mati. GPT Pro, ¿está lanzado? Está lanzado, sí. Lo comentábamos con un rumor y era verdad. Y además, a 42 dólares al mes.

Tenemos que discutir, Antonio, si esto lo podemos compartir o no. Porque con chat GPT es como compartir un poco tu WhatsApp. Son conversaciones un poco privadas. Sí, es verdad. En España compartiremos cuenta 24, igual que compartimos los cinco de Netflix porque no se puede más. Pero claro, es la historia de chat GPT. Le podemos acabar preguntando cosas muy privadas a chat GPT, en verdad. Yo últimamente directamente lo abro para el 2x7 porque no estoy seguro de si es o no es 14 y lo pregunta chat GPT.

Imagínate la vergüenza que me daría compartir eso con cinco personas. Bueno, hay dos cosas ahí. Necesitan 200.000 suscriptores para hacer 100 millones al año. Las cuentas son más o menos esas. Y la otra, toda esta gente que ha dicho esto es lo más increíble que he probado en mi vida, es asombroso, que flipada. Bueno, ahora va a poder hablar con su dinero si eso es verdad. Sí, a ver, obtienen.

Y la verdad, esto es importante, disponibilidad permanente, aunque haya alta demanda, porque pasa muchísimo. A mí por lo menos siempre a la hora en la que voy a usar chat GPT no puedo entrar porque dicen que hay alta demanda y está cerrado. Para mí, no sé si vale 42 dólares, pero si lo hubieran puesto a 10 lo habría valido. Mucho más rápido.

Hay algún vídeo de alguien probándolo y es cierto que va bastante más rápido y prioridad para las nuevas funcionalidades que vayan lanzando. Sí, sí. Bueno, vamos a ver. Yo mientras funcione relativamente con algo de disponibilidad el gratis no voy a pillarlo, pero no lo descarto porque también estoy haciendo mis pequeños script en Python y me ayuda bastante.

Bueno, veremos, veremos. Pero lo importante, Mati, llegamos en el guión al momento de la verdad, a nuestra sección Puerta Grande o enfermería. Escoge, bueno, tenemos un guión en el que hay como 14 proyectos, ideas. Bueno, escoge alguna y tienes que ir a por ella, Mati. Voy a escoger una que de hecho no me lo esperaba y de repente tuiteaste un obituario por si me muero yo.

Esto me parece un uso... Mira, Mati Zavia, un crossfitero y podcaster de España ha fallecido tal, tal, tal en Málaga, nació no sé cuánto, estudió en la Universidad de Málaga, uno de sus mayores hitos fue cuando le siguió Rosalía, la podcaster Rosalía, no sé dónde se inventa que Rosalía es podcaster. Ahí se inventó un poco la frase. Y la parte que más gracia me hizo es Matías y Survive, como que siguen vivos, su esposa Elena, Paco de la Torre y el dueño de Mercadona, Juan Roig.

Esto, la verdad, Antonio, yo no sé qué datos le metiste, pero esto no va a tener mucho futuro como redactor de obituarios. Enfermería, claramente. Bueno, yo creo que está bien para trolear, jugar con que algún amigo tuyo se muere, cosas divertidas. Bueno yo tengo otro que se llama Figuras históricas.

Ha dado bastante que hablar. Es una aplicación hecha por un desarrollador jovencito, 25 años, Siddhan Shada, creo que de origen indio, trabaja en Amazon y utiliza la inteligencia artificial para esto de poder hablar con personajes. Ya vimos character.ai, que tenía que hablar. Lo interesante de Figuras históricas, de el amigo Shada, es que puedes hablar con figuras históricas muy especiales.

Por ejemplo, puedes hablar con Goebbels. Eres un interesado en la historia de Alemania en el siglo XX. Puedes intentar tener una conversación con Joseph Goebbels y ver su opinión sobre algún aspecto de la vida que a ti te preocupe y quieras su parecer. Ahora, eso sí, si quieres hablar con Hitler, ese premio cuesta 500 monedas dentro de la aplicación o 15 dólares con 99 céntimos en dinero de verdad.

Así que, bueno, yo creo que en los negocios a veces hay que arriesgarse, Matías, y yo creo que Shada opina igual que yo en este sentido, pero creo que el modelo de negocio, imito a los jefes del nazismo, con inteligencia artificial para que puedas hablar con ellos, yo creo que no va a ser el gran servicio de la IA, no le veo tanto futuro, así que la condeno también a enfermería.

No va a funcionar. Vale, mira esta propuesta. NPCs y jefes finales de los videojuegos como inteligencias artificiales. Hay que replantear el juego desde cero, dice la gente de Eidos. Esto va a tardar cero coma en salir un juego básico, rollo aventura gráfica, en el que tú puedas introducir el texto o conversar con los NPCs y con los personajes como te dé la gana y que tengan una respuesta que sea convincente, inteligente.

Yo creo que esto, a nivel juego indie, va a estar ya aquí. Y a nivel GTA VI, quizá no llegue, pero GTA VII, no tengo ninguna duda de que este tipo de IAs más avanzadas van a tener mucho que decir en esos desarrollos. Así que puerta grande, claramente. Puerta grande.

Y yo tengo otra puerta grande y con esto terminamos la sección, que es el Photoshop con palabras. Ha salido un paper de Instru Pix2Pix, que se puede probar en Hacking Days, en Playground. Pondremos los enlaces en la newsletter y en la descripción del podcast. Playground, de hecho, es un proyecto interesante. Un día hablaremos un poco más de ellos.

Básicamente, tú le metes una foto, o la puedes generar con Stable Diffusion o con Dali o con BigJarvis, o puedes una foto normal. Y la editas diciéndole lo que quieres que pase en la foto, con texto natural. He hecho dos o tres pruebas y, de momento, el resultado es un poco irregular. Pero te entiende bastante bien. Tengo una foto en Saqqaba con mi hija, con Daela.

Bueno, Saqqaba es una playa con edificios de aspecto un poco soviético de los 70 de atrás, aquí en Málaga. Y no es el único edificio brutalista de Málaga, por alguna razón. Y digo, venga, píntame nieve en esta foto de Saqqaba. Y te pinta nieve, pero modifica la cara mal. Digo, venga, cambia el fondo y pon un barco. Y pone un par de barcos, estas veces que te ponen más de la cuenta.

Es decir, no está ahí todavía, no es una edición Plax. Lo hace perfecto, pero hay un camino chulo para este tipo de cosas, creo yo. Así que, puerta grande. Puerta grande, sí, claramente. Además, yo esto lo he visto con Dali. He visto gente que en el editor de Dali 2 borra una parte y le dice al generador, aquí quiero un fondo que sea tal.

O, no sé, para borrar a una persona no siempre es fácil con Photoshop. Entonces le dices, este fondo tiene que ser como una pared tal y cual. Y te lo hace mejor que lo que podrías hacerlo tú en cinco horas con el Photoshop. O sea, que es un uso que ya se está viendo. Entramos ya en el tema grande.

Sí, sí, sí, sí, por favor. Totalmente. La noticia de la semana, o el tema de la semana, mejor dicho. GPT3 o ChatGPT y educación. De hecho, tú lo has titulado también un poco boomer porque te basaste en una canción ochentera. ChatGPT trajo terror en el profesorado, horror que lleva al pergamino. Claro, es un homenaje a la canción que cantaban a las que los pegamoides, creo que era.

Pero es una canción del ochentipoco. Es decir, ya Matías, tú como millennial ya no eres muy joven. De hecho, yo nací en el 89, así que soy ochentero también. Sí, sí. Bueno, el caso es que yo defingo, me da la impresión de que ha habido como dos fases y todavía no hemos acabado.

Primera fase. Hoy vamos a cortar esto porque los chavales están haciendo los deberes y los trabajos con ChatGPT. La escuela de Nueva York lo prohíbe, pero claro, estas prohibiciones son muy sui generis. Es decir, tú puedes prohibirlo en los ordenadores en los que tienes control, los del propio centro, o si ofreces Wi-Fi, pues en la red, en la red al que hacen los chavales a través de la institución, a través de ese Wi-Fi.

Pero si el chaval lleva su móvil y tiene conexión de datos, olvídate. En su casa, olvídate. Esas prohibiciones son muy sui generis. Entonces, los que iban a la contra dijeron, bueno, vamos a usar herramientas que detecten si algo se ha hecho con IA. Por ejemplo, está GPT-0, está CheckForI, pero me parece que la han probado poco. Yo he hecho tres o cuatro pruebas y GPT-0 no se entera de nada.

Te la puede saltar. Y además, si lo que al final hace GPT-0 es decir, bueno, hay más variabilidad en el léxico y en las depresiones humanas que en las del chat, creo que ha visto pocos deberes de la ESO que ha hecho GPT-0. Pero bueno, el caso es que puedes coger todo el trabajo, te lo haces con ChatGPT y metes 14 palabras aleatorias por todos lados raras.

Ya te ha saltado GPT-0. Es una guerra que no van a ganar, creo yo. Entonces, esta primera línea de vamos a cortarlo, creo que está siendo superada ya. Bueno, esto no es nada nuevo en el sentido que en mi época estaba el rincón del vago y todas las tareas, ensayos, redacciones se parecieron un poco. Entonces, lo de GPT-0 no tiene, como tú dices, ningún futuro porque no se puede distinguir en nada de copiar por otras vías. Ahí te puedo contar que se puede aplicar el criterio de la mujer, de la chica más

pija que he conocido en mi vida. Ella tenía un criterio, Mati, para detectar si un bolso era falso. Era muy pija. Ella decía, mira, si tú quieres saber si un bolso de marca de lujo es falso o es verdadero, lo único que tienes que hacer es mirar a la persona que lo lleva. Entramos en un terreno un poco clasista. Tenían que tener un estándar alto ahí en este momento. Hoy en día no sé si funciona.

Yo no sé si tú has visto, pero la gente con dinero se visten como los canis o como los yonkis de hace 20 años. Yo le doy la vuelta, Mati. Si eres muy pijo, puedes llevar la ropa falsa porque, claro, te da igual. Todo el mundo va a asumir que es verdadera. Si eres bueno haciendo trabajo del instituto, puedes falsificarlo con ChatGPT porque no se va a sospechar de ti.

El que tiene un problema es el que generalmente venía de sacar el 5 o por debajo. Bueno, el caso es que hay una siguiente fase que son los reformistas. Los que dicen que hay que cambiar un poco las cosas como las hacemos en educación porque ahora existe ChatGPT y existen herramientas similares y esto va a ir a más.

Entonces tenemos que hacer cosas. Yo creo que esto es una posibilidad que ChatGPT se va a empezar a usar sobre todo por lo viral que se ha hecho y yo creo que la única manera de adaptarse es un poco como en los exámenes que te dejaban usar la calculadora en lugar de aprenderte de memoria las fórmulas, usarlo como una herramienta para estudiar sin estudiar de memoria, sino simplemente aprovechando las herramientas que tienen disponibles, en este caso ChatGPT, y plantear el examen de

otra forma. Es un poco como un cambio de todo el sistema educativo sobre todo aquí en España. Tú vayas al cerebro grande, al Galaxy Brain, que es un poco más allá. Ahora hay gente que está en una fase todavía un poco más tímida que tú, Mati, y lo que están haciendo es pedir los trabajos a mano, poner trabajos en grupo, pero con presentación oral, hacer los exámenes orales.

Es decir, lo que están diciendo algunos educadores es que nuestra adaptación es que todo aquello que pueda ser falseado con ChatGPT lo esquivamos un poquito y casi damos un paso atrás, de decir, dime la lección oralmente, que era algo más antiguo de otros tiempos, y que vuelva porque eso no se puede falsear, tú presentas y presentas. Entonces, bueno, aquí tenemos también profesores un poco entusiastas que lo hemos compartido en la newsletter.

Hemos hecho un artículo solo dedicado a este especial y hay profesores que están un poco más en tu línea, incluso que dicen, oye, ChatGPT va a formar parte de la vida de la gente, de cómo trabajan y cómo estudian, etcétera, etcétera. Por lo tanto, tenemos que enseñar y educar a usarla porque, bueno, ChatGPT tiene errores, produce las alucinaciones, todo lo que comentamos en el primer capítulo y, por lo tanto, hay que contar con él. Volviendo un poco a la entrevista de Sam Altman, él lo ve clarísimo.

Esto no hay vuelta atrás y lo que hay que hacer es adaptar la sociedad a las inteligencias en el futuro generales y ahora mismo generadoras de texto, por ejemplo. Entonces, no sé por qué creo que esto puede ser tan revolucionario que, más que integrarlo de la forma en la que tú dices, evitándolo con exámenes escritos y exposiciones orales, etcétera, es un poco asumir que este va a ser el futuro.

Totalmente estoy con estos últimos profesores que has dicho. Sí, hay una pieza en GenBeta que enlazamos en nuestro artículo, que es de Eva Rodríguez. Intervienen varios educadores, profesores de distintos niveles, de instituto, universidad, y hay dos posiciones. Una es la del profesor Sánchez Migallón, que dice que los profesores no podemos convertirnos en policía y nos vamos a estar constantemente persiguiendo y supervisando, investigando hasta la última coma a ver quién la ha generado.

No puede ser el modus operandi, tiene que ser otro. Estoy bastante de acuerdo. Y luego la profesora Nereida Buenoguerra, especializada en la filosofía de la inteligencia artificial. Es muy interesante lo que dice. Viene a decir un poco que ya con Internet y Google vivimos una crisis de este tipo.

La gente va a poder buscar cualquier cosa, copiarla y pegarla, por ejemplo. Y cree que como eso se integró y se ha convivido con ello, pues con chat GPT será igual. Aquí yo traigo una cosa, Mati, que creo que no va a ser igual a la profesora, porque si vemos lo que está haciendo el chat GPT con algunos de los exámenes, la gente le está poniendo exámenes al chat GPT y el nivel que demuestra, creo que igual que Google Internet no es. Yo creo que va a ser diferente.

Sí, porque ya ha probado varios exámenes importantes, incluso el examen de licenciatura de los médicos en Estados Unidos. También un MBA. Repasamos los exámenes uno a uno mejor. Sí, tenemos por aquí. Examen para la obtención de licencia médica en Estados Unidos, paper en metrics.org. Ha sacado un aprobado. Bueno, está bien. Todavía es muy jovencito, no podemos pedirle nota, pero bueno, es que para sacar ese examen son cuatro años de facultad, dos de especialización.

Luego, otro de algo menos de prestigio, porque es un MBA en el que sacó. Yo me jugaría más la vida con un médico que con alguien que tiene un MBA. Bueno, es un poco ventajista. Pero bueno, es verdad que chat GPT aquí ha sacado el notable. Claro, la gran duda con respecto a la MBA es si el inventar cosas que no sabes es una cualidad extra que le ha hecho subir la nota al chat GPT en este caso.

Tú eres pro-infección de las Big Four en Madrid. Me encantó el pantomima full del colega que trabajaba en la Big Four. Buenísimo, buenísimo. Más exámenes, Mati. A ver, tenemos por aquí. Bueno, El País le ha puesto uno de selectividad de historia. Este es muy bueno. Y bueno, el artículo está cerrado, es de pago de El País, solo para suscriptores, pero sí os podemos contar de que la sentencia artificial aprueba por los pelos. Eso es curioso, porque uno pensaría, bueno, tal y como está la educación y tal, sacará

un sobresaliente chat GPT, pero no. De hecho, sobre eso quería hablarte un poco, porque yo el otro día Elena estaba haciendo un examen, ella es profesora, y estaba pensando en adjetivos acabados en ISTA. Entonces le dije, vamos a usar chat GPT, y chat GPT se inventa casi todos.

O sea, saca artista, dentista, esos sustantivos, ¿no? Luego feminista, ¿vale? Sí. Humanista, ¿vale? Jornalista, optometrista, pianista, realista, turista, y después de todos esos sustantivos acaba en veterinario. O sea, la manera en la que se inventan las cosas, y la confianza con la que se inventan las cosas, va a meter unos patinazos si la gente empieza a usarlo, no digo en exámenes, porque en exámenes es más complicado, pero sí en redacciones, escolares, incluso universitarios y de más nivel.

Es peligroso, es peligroso. Sí, sí. Fíjate que en Cataluña, La Vanguardia también les ha puesto un examen, el ECE es una universidad, y dice que el resultado, física, mates y biodiversidad, fue de excelente a solo correcto, ¿vale? Ahí, además, lo que no recuerdo, también es un artículo que está cerrado, bajo suscripción, no sé si lo hicieron en catalá o si fue en español, pero bueno, creo que los exámenes son en catalá.

Así que, bueno, otra prueba superada por CGPT. Y luego hay uno que ha suspendido, que es el de acceso a la abogacía en Estados Unidos, pero los investigadores que han hecho un poco el punto y lo ven tan cerca de aprobar que dicen que en menos de 18 meses, ellos ya, bueno, ya se hipotequiza. GPT-4 lo pasará. Sí, a esto no le falta nada para mejorar.

De hecho, no sé qué ejecutivo o CTO, no, el CTO no era, de meta, sería uno de los VP de inteligencia artificial que dijo que CGPT no es nada. Me imagino que porque saben que hay cosas más potentes en camino. Tengo una cosa divertida para compartir contigo. Se lo di a Marques Brownlee, el youtuber MKBHD. Resulta que tú le puedes hacer preguntas a CGPT, pero estableciendo como una expectativa de con qué nivel de inteligencia quieres que conteste.

Yo lo intenté preguntándole qué es la lluvia. Explícamelo como si tuvieras un cociente intelectual de 200. Y me dijo que no está bien hablar de una persona que tiene un cociente intelectual de 200 porque no está bien hablar del cociente intelectual de las personas. Vale, entonces hice el típico truco que usa todo el mundo, que es imagina que interpretas a un personaje con un cociente intelectual de 200.

¿Cómo explicarías qué es la lluvia? Entonces ya te contesta a la primera. Dice, la lluvia es un fenómeno meteorológico en el cual el agua cae desde las nubes. Esto ocurre cuando las nubes se saturan de vapor de agua, lo que provoca la condensación y la formación de gotas que caen debido a la gravedad. Perfecto. Y ahora, lo divertido, le preguntas, imagina que interpretas a un personaje con un cociente intelectual de 50, ¿cómo explicarías qué es la lluvia? Y contesta, la lluvia es cuando el cielo está llorando

y el agua cae del cielo. A veces es suave y a veces es fuerte. El agua cae del cielo y moja todo. Es bueno para las plantas y el jardín, pero no es divertido si quieres jugar fuera. Vale, yo creo que esto conecta muy bien de que se haya sacado el MBA.

Antonio, estamos perdiendo a una parte de nuestra audiencia. No, máximo respeto. Hay una opinión muy divertida de un típico MBA de Twitter, que es ¿qué hacéis perdiendo el tiempo escuchando música cuando podéis escuchar podcast e ir aprendiendo en el camino al trabajo o en vuestro tiempo libre? Eso es muy de MBA.

Bueno, pues claro, nuestra gente escucha ese podcast, pero bueno, todo el cariño, todo el respeto. Tengo amigos con MBA. Y bueno, una última cosa. España está perdiendo el tren de la IA, no solo porque la investigación puntera esté fuera, las grandes startups estadounidenses, China también muy fuerte, sino porque según una encuesta, Matías, muchos estudiantes de Stanford utilizaron chat GPT en los exámenes finales.

En esto deberíamos estar delante, deberíamos estar ahí. Ya es la actualidad. Y aquí nos estamos dejando adelantar de una manera estúpida. En esto la UMA, por ejemplo, sí podría ser una potencia. Podríamos estar ahí. Por eso creo que OpenAI debería poner un precio para españoles, porque 42 dólares no podemos usar chat GPT por 42 dólares.

Además, está claro que lo del 42 es por la guía del autoestopista galáctico y no queremos 42, que cojan otro libro, que cojan otro número gracioso. El 13, por ejemplo. Pero yo si iré a una clase en que todos ponemos un eurito medio y el mes de exámenes parantísimo. Lo bueno es que como puedes pedirle que parafrasé el texto, entonces cada alumno que pague por esos 42 dólares puede tener una versión distinta de la misma redacción.

Dando ideas, pero no nos mojamos sobre si éticamente es correcto o no es correcto. Absolutamente. Ahí nosotros somos neutrales, ni en contra ni a favor del servicio de hablar con Google. Simplemente anticipamos que va a funcionar. Matías, hemos llegado al final del guión. Yo creo que este es un gran episodio porque estrenamos una sección estrella con mucho futuro que nos va a dar grandes éxitos al podcast.

Yo estoy muy contento. Sí, la verdad es que sí. Nos ha quedado un episodio bastante entretenido. Nuestro objetivo era media hora, 45 minutos. Ha quedado un poquito más extenso, pero a veces la gente también agradece que el podcast dure más, sobre todo si tienen algún viaje en coche o tienen muchos platos que lavar.

Estamos en monosestocásticos.com, estamos en twitter arroba monospodcast. Estamos en YouTube, por si queréis vernos las caras y algún recurso que vamos abriendo mientras grabamos el episodio, en youtube.com barra arroba monosestocásticos. Si no lo escribís en el buscador. Por cierto, el autocorrector de Apple cambia estocásticos por escolásticos.

Eso es inteligencia artificial. Si eso es así, yo creo que en cada capítulo sección escolástica y en cada episodio podemos comentar una de las vías tomistas de la demostración de la existencia de Dios y así nos alineamos con la IA de Apple. ¿Te parece? Mínimo hay que poner escolásticos en las etiquetas de los episodios para que no se encuentren. Venga, truquitos deseo.

Os dejamos una semana más porque seguramente, de hecho en el guión nos han quedado un montón de temas pendientes, seguramente la semana que viene vengamos cargados de noticias. Esto no para y tampoco va a parar monosestocásticos. Muchas gracias. Ciao, ciao, ciao. Subtítulos por la comunidad de Amara.org

Episodios recientes

Programas relacionados