Historia de OpenAI

00:00 /2h16

¿Qué ha pasado en OpenAI en esta semana de infarto? ¿Quiénes son los protagonistas? Para entenderlo, demos un paso atrás.

Hoy nos adentramos en el universo de la inteligencia artificial, donde cada avance es un desafío a lo establecido. Descubramos cómo tecnologías como los Transformers han cambiado radicalmente nuestra interacción con la IA.

Recorramos los avances desde los visionarios en DeepMind hasta los pioneros en OpenAI creando una nueva era donde la IA se convierte en compañera de nuestra incansable búsqueda por entender y mejorar nuestro entorno.

Y donde el objetivo podría ser una AGI, ¿qué es y cuán cerca estamos de ese concepto?

Convierte en un Senior iOS Developer con el Swift Full Stack Bootcamp. Encuentra toda la información aquí: IV Swift Full Stack Bootcamp 2024.

Descubre nuestro canal de Twitch en: twitch.tv/applecoding.

Descubre nuestras ofertas para oyentes:

---------------

Consigue las camisetas oficiales de Apple Coding con los logos de Swift y Apple Coding así como todo tipo de merchadising como tazas o fundas.

---------------

    Tema musical: "Final Frontier", compuesto por Thomas Bergensen. Usado con permisos de fair use. Escúchalo en Apple Music o Spotify.

    Transcripción


    Wanda, la comunidad de podcast independientes en español.

    ¿Qué ha pasado en OpenAI en esta semana de infarto? ¿Quiénes son los protagonistas? Para entenderlo, demos un paso atrás. Hoy nos adentraremos en el universo de la inteligencia artificial, donde cada avance es un desafío a lo establecido. Descubramos cómo tecnologías como los Transformers han cambiado radicalmente nuestra interacción con la IA y recorramos los avances desde los visionarios en DeepMind hasta los pioneros en Open AI, creando una nueva era donde la IA se convierte en compañera de nuestra incansable búsqueda por entender y mejorar nuestro entorno, y donde el objetivo podría ser una AGI.

    ¿Pero qué es y cuán cerca estamos de ese concepto? Ahora en el podcast de Apple Coding, temporada diez, episodio número cuatro. Comenzamos.

    Estás escuchando Apple Coding, Dirigido y presentado por Julio César Fernández, Evangelista de desarrollo y formador de tecnología AP.

    Muy buenas y bienvenidos a un nuevo episodio de Apple Coding. Soy Julio César Fernández, Evangelista de desarrollo en entornos Apple, y, bueno, hoy estamos aquí para hablar de un tema que, pues, no tiene que ver con Apple, ¿vale? Sería un poco como si hoy llamáramos a este programa y a Coding o y o inteligencia artificial o algo parecido, porque supongo que muchos de ustedes sabrán la que se ha liado, buena, con todo lo que ha tenido que ver durante estas últimas semanas con OpenAI, Básicamente, bueno, con el despido fulminante de su CEO, San Altmant, un montón de cambios, de pasos que ha dado la industria, que luego ha vuelto a, bueno, pues a que OpenAI se quede como estaba, pero echando fuera a quien parece ser que podía estar molestando, para que la IA pudiera tener la, digamos, la evolución que ciertos sectores de comerciales, incluso la propia Microsoft, estaban detrás. Pero claro, aquí la idea no es contarles los hechos que ya conocen, los hechos que ya muchos han contado. Haremos un pequeño resumen muy breve de lo que es el lo que ha ido pasando día a día para opinar un poco al respecto, pero la idea principal es que, bueno, al final se ha liado, pero mucha gente probablemente se esté preguntando, vale, estupendo, pero ¿qué es OpenAI?

    ¿Qué qué es esto? ¿Qué qué es lo que está sucediendo? O sea, ¿qué es esta empresa? ¿Quiénes son los artífices de esto que se llama ChatGPT que ha revolucionado por completo el mundo a nivel productivo, a nivel de trabajo, a nivel de, bueno, pues, un cambio que que si nos lo comentan hace un par de años, pensaríamos que es absolutamente ciencia ficción y, sin embargo, aquí estamos, aquí estamos hablando de OpenAI y aquí estamos hablando de una compañía que ha hecho lo que Apple hizo en su día con el lanzamiento de los Mac, con el lanzamiento de los iPod, con el lanzamiento de los iPhone, con el lanzamiento del iPad. En fin, no todo no todos los días aparece una compañía capaz de hacer este cambio y, sin embargo, OpenAI lo ha hecho, y lo ha hecho de una manera tan enorme que ha pillado a Apple con el pie cambiado.

    Apple Vision Pro, que debería debería haber sido un auténtico bombazo y haber copado todo tipo de artículos como el next Big Thin, como lo nuevo que nos espera como tal, que yo sigo pensando que lo es, que va a ser así, pero hay que reconocer que toda la fiesta, toda la atención de Apple Vision Pro, se ha visto mermada porque la gente está mirando para otro lado, está mirando para el lado de la inteligencia artificial generativa en un cambio que, insisto, Apple le ha pillado con el pie cambiado porque no han podido reaccionar. Es que no podemos olvidar que ChatGPT existe como servicio y la guía generativa se ha, digamos, viralizado como, bueno, pues como lo que es, como la cantidad de servicios que hay a su alrededor, a partir de noviembre, noviembre, diciembre del año dos mil veintidós, es decir, estamos a punto de cumplir un año. Obviamente, los tiempos con los que Apple funciona, Apple Vision Pro ya estaba más que planificada y ya estaba más que puesta para ser lanzada durante el año dos mil veintitrés. Al principio parecía que se iba a lanzar en primavera, luego parece ser que el software tuvo problemas para estar al día, luego lo hemos visto que efectivamente aún tiene problemas para estar al día, y acabamos de ver, por ejemplo, el lanzamiento de la parte de el plugin de PolySpacial para Unity y la y el soporte de los espacios completos y tal.

    Si quieren haremos un episodio especial para contarles cuál es el estado actual de Apple Vision Pro, que seguro que también les interesa para contarles todo lo que ya hay de este producto. Y repito, a mí me sigue pareciendo un producto maravilloso, pero hay que reconocer que la gente no está interesada en eso y es algo que, repito, Apple no podía hacer nada, o sea, hay mucha gente que dice, no, es que Apple, claro, es que claro, es que estamos a otra cosa, vamos a ver, no, no, no, no, o sea, seamos serios, estamos hablando de meses, ¿realmente piensan ustedes que Apple podía predecir, alguien podía predecir que en noviembre del año dos mil veintidós el mundo iba a cambiar como lo hizo con el lanzamiento de ChatGPT, y que el lanzamiento de ChatGPT propiciara una carrera, una carrera a una velocidad de locos, de lanzamientos, uno detrás de otro, detrás de otro, detrás de otro, que han cambiado por completo el paradigma de los servicios, de ciertos programas clave, los editores de vídeo ya no son, menos Final Cut, que todavía no se ha enterado, pero el resto ya no son como eran, ¿de acuerdo?

    Entonces, y y un montón de software, el software de retoque fotográfico, los softwares, hay infinidad de de de aplicaciones o servicios que nos permiten hacer cosas que hace literalmente poco más de un año eran impensables, como por ejemplo el que yo ahora puedo coger una aplicación como MacWhisper, que tiene integrado el modelo Whisper de OpenAI y sacar subtítulos con una eficiencia, con una claridad, o sea, con un libre de errores de un noventa y ocho por ciento de cualquier vídeo, sea cual sea su duración, en apenas minutos, algo que hace poco más de un año se pagaban salarios a profesionales para subtitular cosas y la gente echaba horas y horas y horas, y ahora le metes este modelo y te saca solo los subtítulos a partir del audio, es de locos, y eso es solo un pequeño cambio, por lo tanto, en fin, es a lo que vamos, es a lo que es lo que quiero explicar en este programa, no quiero poder explicarles, quiero poder contarles qué es OpenAI, qué es lo que ha cambiado y sobre todo esto que se está hablando mucho de las AJIS, ¿qué es una inteligencia artificial general? ¿Y podríamos llegar a ella o no?

    Así que, sin más dilación, comenzamos.

    Disculpe, señor Ramírez, tienes un momento.

    Sí, claro. Pasa, pasa, pase, Sierra, ¿en qué puedo ayudarte?

    Vara, es que ella lleva unos años en esta empresa, pero sigo siendo Junior y me preguntaba, ¿cuándo seré senior?

    A ver, Paco, ¿cómo te explico este joon? Cennio, en esta empresa, es un sentimiento, es algo que se arraiga en el alma y en tu forma de sentir la vida. No seas suerdo,

    No, será.

    Es tener conocimiento para volar más harto.

    ¿Y cómo vuelo más alto?

    Raquito hijo, tú tienes estudio. Sabes que debes conocer, pases semi día. Pon yo.

    Anda, a

    ver aquí. Toma, estúdiate. Mira. Yuai kil, Arquitectura, esto es muy importante por aquí, muy importante. Seguridad, que no queremos lío, ah, ¿y tú sabes qué es eso de la realidad aumentándome?

    Sí, eso de los Pokémon, ¿no? Que los cazaba en la calle, ¿no?

    Muy bien, pues, vale, también herviste un fro que nos va a venir bien para proyecto y alguien tiene que hacerlo. Qué

    disgusto. No, esta no es la empresa ideal, ¿verdad? Pero al menos el señor Ramírez tenía razón en algo, aunque sea de casualidad. El conocimiento es lo que te abrirá las puertas para mejorar en tu carrera profesional, conocimiento y experiencia. ¿Quieres avanzar en tu carrera profesional apostando por el desarrollo móvil en entornos Apple?

    En Apple Coding Academy tenemos lo que estás buscando. Presentamos la cuarta edición de nuestro Swift full stack bootcamp, un bootcamp diseñado para convertir a cualquier desarrollador, sea cual sea la tecnología o lenguaje donde trabaje, en un senior iOS Developer con conocimiento en todo lo que en cualquier empresa o consultora piden, o lo que necesitas para montarte por tu cuenta si quieres trabajar por ti mismo. En el Swift Fullstap Bootcamp encontrarás Swift como elemento común a todo el desarrollo y la formación. A partir de ahí aprenderás concurrencia de procesos, asincronía, arquitectura de proyectos, que ninguna combinación sea cual sea se te resista. Todo ello, por supuesto, aprendiendo UIKID y SWIFT UI al completo, cómo aplicar test y una aproximación basada en TDD cien por cien, seguridad, desarrollo del lado servidor, machine learning y, por supuesto, todo un módulo dedicado al próximo paso en el desarrollo en entornos Apple, Apple Vision Pro y Vision OS.

    Un bootcamp único pensado tanto para desarrolladores en otras tecnologías, junior o senior, que quieran reinventarse y dar un cambio en sus vidas hacia el muy demandado sector del desarrollo en entornos Apple, o para aquellos desarrolladores que ya trabajen con Apple pero quieran especializarse y cubrir todas las lagunas que puedan llegar a tener o ponerse al día con las últimas novedades y actualizaciones para iOS diecisiete y el resto de sistemas lanzados por Apple en el año dos mil veintitrés. Tienes toda la información en nuestra web, acoding punto academy barra bootcamp, y descubre las distintas formas de financiación hasta en treinta y seis meses o incluso en doce meses sin intereses. Nunca ha sido más fácil apostar por invertir en ti mismo para llegar más lejos. Da el paso y apuesta por tu formación, apuesta por ti, por ese senior IOS developer que llevas dentro y que encontrarás en el Sweep Four Stav Bootcamp de Apple Coding Academy. Si le echamos un vistazo a la evolución que ha tenido la inteligencia artificial en los últimos años, la verdad que es bastante curioso.

    Bastante curioso porque ha ido cambiando de manos quién es quién ha sido la empresa dominante de esta tecnología. Tenemos que tener en cuenta que los primeros atisbos, la primera fama, podríamos llamar los primeros pasos de los algoritmos de machine learning y, posteriormente, de deep learning se dieron a finales del siglo veinte, el famoso caso de éxito de las partidas de ajedrez del algoritmo Deep Blue de IBM, uno de los primeros algoritmos de Deep Learning, por eso se llamaba así, ¿vale? Que aplicaba, pues, una técnica de, bueno, pues de de aprenderse, ¿no? Digamos, todas las partidas de ajedrez e intentar hacer una predicción de los comportamientos que podía tener el ser humano, y de hecho, bueno, pues Deep Blue consiguió ganar una de las partidas, la segunda de las partidas que jugó contra el campeón mundial Gary Gasparov, pues, bueno, pues haciendo un movimiento que Gasparov consideró demasiado complejo para una máquina, porque sacrificaba una pieza para obtener una ventaja a largo plazo en la partida, prediciendo en mucho los movimientos que podía hacer dentro de la partida, y eso afectó al juego de Kasparov que finalmente perdió dicha partida, a pesar que luego se demostró que, curiosamente, fue un error en el algoritmo de Deep Blue lo que provocó esa decisión inusual, no fue realmente el algoritmo de machine learning quien lo realizó.

    Pero no solo eso, sino que todo esto siguió avanzando, IBM consiguió una posición bastante importante, lanzó un servicio llamado IBM Watson, que era uno de los que tú podías alquilar los servicios de IBM Watson utilizarlo para hacer entrenamientos, etcétera, y de hecho IBM presentó en dos mil once a IBM Watson con capacidad de entendimiento y capacidad expresiva a un programa de televisión. Básicamente, Geopardy, para el que no lo conozca, es un concurso donde lo que se hace es plantear la respuesta a una pregunta y lo que tiene que hacer el el concursante apostando una determinada cantidad es averiguar la pregunta que le corresponde. Entonces, el el concursante apuesta parte del dinero que tiene y si acierta la pregunta, pues lo duplica, y de hecho el algoritmo Watson ganó y supuso la primera muestra de lo que era el deep learning, de lo que era el aprendizaje profundo, pero curiosamente ya empezaba a cometer ciertos errores, por ejemplo, para que se hagan una idea, cuando a Watson se le planteó él la pregunta, pregunta que era respuesta, ¿no? Y se le dijo, su mayor aeropuerto lleva el nombre de un héroe de la Segunda Guerra Mundial, su segundo mayor de una batalla de la Segunda Guerra Mundial, y no entendió que se le estaba preguntando sobre Estados Unidos, porque claro, el contexto es que el programa es americano, por lo tanto, te van a preguntar cosas solo locales de Estados Unidos, y él respondió, ¿qué es Toronto?

    Porque Toronto, en Canadá, tiene la misma la misma circunstancia que da nombre a un aeropuerto, por lo que ahí se equivocó porque, insisto, no fue capaz de entender el contexto alrededor de algo completamente etéreo, que es el hecho de que el programa se desarrolla en Estados Unidos y, por lo tanto, tiene que localizar todas las preguntas a Estados Unidos. Y, de nuevo, insisto, esto fue una prueba de la fuerza, porque estas cosas, este jugar a una partida de ajedrez con Kasparov, el poder participar en Giopardy, etcétera, no son más que jugadas de marketing, más allá de que también intentan probar que todo funcione correctamente y, en fin, poder, digamos, validar los algoritmos, etcétera, pero también obviamente lo que quieren conseguir es mucha publicidad. Hasta primeros de la década pasada, los reyes del deep learning, los reyes del machine learning eran IBM, pero de pronto Google empezó a moverse en ese terreno. Google empezó a moverse en ese terreno hasta que consiguió ser alguien bastante importante con un montón de adelantos y un montón de cosas que, bueno, pues lo estaban colocando en una posición importante a la hora de descubrimientos, a la hora de investigación, etcétera.

    Todo lo que Google empezó a hacer, ¿vale? Se vio claramente en uno de los eventos de nuevo muy publicitados, que sería la partida con el algoritmo de Alfagó con el campeón mundial de go, Lissedol. Pero no podemos hablar de Alphago sin hablar de DeepMind, porque DeepMind fue una empresa antes de ser Google DeepMind, porque DeepMind fue una empresa fundada por Demid Hassabiz, Shane Leg y Mustafa Suleiman en el año dos mil diez, y que gracias a todo lo que consiguieron, pues, llamaron la atención de Google quien pagó quinientos millones por esta empresa en el año dos mil catorce, creando este departamento, Google DeepMind, que fueron los creadores de este AlphaGo, el lo que es el algoritmo capaz de sacar adelante, ¿vale? Y que además, de sacar adelante las partidas de go, y que además esta empresa y este departamento de World inmind fue lo que propició la fundación de OpenAI. OpenAI fue fundada en dos mil quince, precisamente, como uno de los propósitos que toda la innovación de la inteligencia artificial no estuviera en manos de una empresa maligna, por llamarlo así, como Google, una empresa con claros propósitos comerciales, y por eso OpenAI, pues en fin, tenemos que recordar esa parte, ¿vale?

    Que una de las partes fundacionales de OpenAI es el tema de que no sea Google quien tenga todo el poder, o quien tuviera en ese momento todo el poder al respecto de la inteligencia artificial, y también el enfoque no comercial, el enfoque de no, digamos, porque de hecho OpenAI es una empresa privada, no cotiza en bolsa, y es una empresa que no tiene ánimo de lucro, ¿de acuerdo? Esto tenemos que tenerlo muy claro, supuestamente a nivel fundacional, OpenAI establece que todos sus beneficios tienen que ser reinvertidos en la propia compañía para costear a la propia compañía, lógicamente, y para avanzar en las investigaciones de la inteligencia artificial para el bien de la humanidad, bla bla bla bla bla, ¿de acuerdo? Entonces, DeepMind en la mente, claro, tenemos que tener en cuenta que Demi Hasabis fue una persona que, bueno, pues fue un niño prodigio en su época jugando al ajedrez, que luego aprendió programación de videojuegos y que finalmente se dirigió hacia la neurociencia y hacia la inteligencia artificial. Es doctorado en neurociencia cognitiva en el University College de Londres, y ahí investigó todo lo que tenía que ver con la memoria y con la imaginación, por lo que quiso aplicar esas partes de cómo se construye la memoria y la imaginación, de cómo se crean ese tipo de de de recuerdos, ¿no?

    Que pueden dar lugar a esa interconexión sobre nuestras experiencias que nos den lugar a inventarnos cosas, y de ahí llegó el lo que fue la idea de cofundar DeepMind con la visión de poder crear inteligencias artificiales generales. Ya empezamos a ver esta palabra que iremos viendo más en detalle más adelante. También Sheilag como investigador en el campo de la inteligencia artificial, también Mustafa Suleiman, también con un trasfondo, en este caso, más de empresario y que, bueno, pues quiso hacer esta empresa, pues para poder tener una forma de del de poder llevar a aplicación práctica la inteligencia artificial para resolver problemas del mundo real, como problemas de asesoramiento dentro de organizaciones de salud o hacer campañas de temas de medio ambiente, derechos humanos, etcétera, una persona muy entregada al activismo y que, bueno, pues quería, y por eso puso para hacer esta compañía, poder enfocar la inteligencia artificial para esos temas concretos. DeepMind enseguida empezó a destacar por su enfoque en dos técnicas muy concretas, el aprendizaje profundo y el aprendizaje por refuerzo. El aprendizaje profundo es cuando yo voy más allá del machine learning, más allá de la clasificación de una sola categoría.

    Cuando yo hago un algoritmo de machine learning, por ejemplo, de categorización de imágenes a través de visión computerizada, lo que hago es pasar una imagen como entrada a un algoritmo y por la salida me dice lo que hay en esa imagen. Pero me lo dice a nivel general, me lo dice a nivel de etiquetado general, solo me da una característica, un feature principal y una probabilidad del resto de features que pueda haber dentro de esa imagen. Si yo entreno a un modelo neuronal a través de etiquetado de imágenes, yo lo entrenaría para mil, por ejemplo, que hay varios modelos por ahí que te están entrenados para mil categorías distintas de elementos, y reconoce esos elementos dentro de esas categorías, pero digamos que lo que hace es reconocer el elemento predominante dentro de lo que es la imagen, eso sería el machine learning. El deep learning, el aprendizaje profundo, es aplicar distintas capas dentro del machine learning para poder, a partir de un mismo elemento, obtener distintos resultados a distintas capas. Por ejemplo, yo con machine learning en un algoritmo, en una red neuronal de etiquetado de imágenes sobre una red convolucional, lo que puedo hacer es reconocer si en una imagen hay o no hay un gato, o hay o no hay un perro, pero con Deep Learning yo podría saber si hay más de un perro o más de un gato, cuál es la raza de cada gato o la raza de cada perro, etcétera.

    Por lo tanto, obtendría diversas respuestas. Además, ya no solo en lo que es aprendizaje profundo, también hablamos de aprendizaje por refuerzo. El aprendizaje por refuerzo, básicamente, es cuando yo entreno a una ya o le digo a una ya con una red neuronal, más bien, cómo tiene que entrenarse, de forma que lo que hago es enseñarla cómo se le enseña a un niño. Imagínense que para yo tener que aprender las tablas de multiplicar, lo que hago es dar respuestas aleatorias y recordar, por refuerzo, la respuesta correcta a ciertas preguntas, de forma que yo me anoto cada vez que sé una respuesta Para yo programar, para yo entrenar un modelo de inteligencia artificial, una red neuronal que sea capaz de resolver multiplicaciones en la tabla del diez, yo no le entreno diciéndole diez por uno y haz tú la operación, no, Yo le digo diez por uno y él pregunta, ¿vale? O sea, te da una respuesta y te dice cinco, tú le dices no, Once, tú le dices no.

    Nueve, tú le dices no. Diez, vale, pues diez sí es, ¿vale? Y él aprende eso. Pues esto es algo muy parecido a lo que haríamos con el refuerzo a partir de, por ejemplo, imágenes de gatos. Cuando yo estoy entrenando una red neuronal y le quiero la quiero entrenar para que reconozca a gatos, lo que hago luego es darle aprendizaje por refuerzo, es decir, que en su propio uso, una vez ya está entrenado, cuando no acierte en una imagen que sí es de un gato, yo le digo no, no, esto es un gato, aunque tú pienses que lo es solo al cincuenta por ciento, y yo le corrijo, le digo no, no, esto es al cien por cien, y él me irá preguntando e irá ajustando los pesos de la red neuronal, porque irá aprendiendo por refuerzo.

    Si ese refuerzo se puede conseguir haciendo que dos redes se entrenen a sí mismas, es decir, que una red se entrene a sí misma, que básicamente es que haya dos copias de la misma red donde una vaya entrenándose y la otra le vaya dando o supervisando los resultados. De esta manera podemos conseguir, pues, avances como, pues, el que hemos comentado de Alpha Gó, que Alpha Gó lo que hizo fue llegar a jugar al juego de mesa Gó a un nivel súper humano y se enfrentó a el campeón del mundo de go y consiguió ganarlo en cinco de las seis partidas que jugó. ¿Por qué? Pues porque funcionaba en aprendizaje por refuerzo, aprendizaje en el que él conocía todas las jugadas que se habían hecho, primero todas las partidas registradas del propio campeón, más todas aquellas que estaban registradas de distintos campeonatos oficiales, a partir de ahí, consiguió un entrenamiento que luego se iba reforzando mientras se iban jugando más partidas y haciendo que con ese refuerzo el algoritmo fuera cada vez más, digamos, más eficiente, ¿de acuerdo? Entonces, dentro de esto tenemos que tener presente que con estos dos tipos de algoritmos, DeepMind crea un una serie de elementos bastante interesantes, como por ejemplo, una red profunda de tipo Q Network, una red neuronal.

    DeepMind desarrolla DeepQ Network, que es una red neuronal que fue entrenada para jugar a juegos de Atari directamente desde los píxeles de entrada que tenían los propios videojuegos, ¿y qué consiguió? Pues básicamente un rendimiento, bueno, pues súper humano, ¿vale? Es decir, era capaz de jugar a cualquier juego que le dieran de Atari, aprendió por refuerzo a cómo jugar, aprendió cómo por refuerzo, o sea, es decir, ¿cuál es el refuerzo que puede tener un videojuego a la hora de enseñarte? Pues que te maten, en el momento en el que te matan ya sabes que por ahí no es, y de esa manera se han llegado a entrenar algoritmos capaces de jugar a Super Mario Bros de una manera que se considera súper humana, porque un ser humano no sería capaz de aprender a jugar así, y esa esa partida que está echando no es porque haya aprendido a jugar, no, es decir, lo que ha aprendido es lo que no ha de hacer en un juego, ¿de acuerdo? Entonces, como ha aprendido lo que no tiene que hacer en un juego y ha aprendido a evitarlo con una precisión milimétrica, es capaz de jugar a niveles imposibles hechos en el Super Mario Maker o cualquier juego de estos por el estilo, en los que con mucho entrenamiento es capaz de conseguirlo.

    ¿Cómo? Pues jugando dos mil, cinco mil, diez mil, veinte mil, cien mil veces, una misma partida hasta que aprende los momentos justos y exactos dentro de las mecánicas donde tiene que pulsar cada acción para que el muñeco no muera. Esto es eso es el aprendizaje por refuerzo, ¿vale? Básicamente. Entonces ese aprendizaje por refuerzo lo que hizo fue, pues, o sea, a ver, es una de las, lo que hizo fue que le permitieran ¿no?

    Poder jugar a cualquier videojuego, pasárselo de una manera los elementos de de ese aprendizaje reforzado. También crearon una máquina neural de touring que utilizaba memoria externa, una máquina dentro de DeepMind que lo que hizo fue diseñar una red neuronal que permitía acceder a una memoria externa de una manera que se asemeja al funcionamiento de lo que sería, pues, un cerebro humano convencional y lo que se define a nivel lógico como una máquina de touring. Esto permitió que la red no solo procesara información, sino que la almacenara y recuperara datos de su memoria, lo que es una capacidad crucial para tareas que requieren mantener y manipular información a largo plazo dentro del tiempo. Esto es el precursor de los Transformers, que es lo que permite que ChatGPT funcione, lo que permite que GPT, como generative p traind Transformers, funcione, porque los Transformers son la aplicación de la memoria, de la memoria capaz de dar la importancia a cada elemento dentro de un texto para mejorar la forma de lo que sería el procesamiento del lenguaje natural, del n l p, por lo que todo esto viene de aquí, como estoy comentando, ¿vale? De estos desarrollos de DeepMind, por lo que cuando Google compra DeepMind, ¿qué es lo que sucede?

    Pues que, obviamente, no hace mucha gracia a mucha gente y, como ya hemos comentado, en el año dos mil quince se funda OpenAI, cuyos cofundadores eran, entre otros, Elon Musk, San Altmann, Greg Brockmann, Ilya Sutzkever o Waziej Zaremba o John Schulman, varia gente especializada en el mundo de la inteligencia artificial o de los negocios, Ojo con esto, ¿vale? Porque, claro, a Elon Musk ya lo conocemos, ¿vale? Y, de hecho, Elon Musk salió un par de años después de la compañía porque tenía conflicto de intereses por el tema de Tesla y las investigaciones que estaba haciendo en cuanto a inteligencia artificial, y porque tampoco le hacía mucha gracia la dirección en la que OpenAI iba. No obstante, Elon Musk sí dejó una semilla muy importante con la que también otros fundadores de OpenAI estaban de acuerdo, que es el tema de la ética alrededor de lo que es la inteligencia artificial. De hecho, esta fue una de las condiciones que puso DeepMind para que Google pudiera adquirir su compañía, crear un comité de la ética de la inteligencia artificial, ¿vale?

    De hecho, la ética en inteligencia artificial ya se considera una rama de propio estudio de la inteligencia artificial, ¿vale? Porque, en fin, la posibilidad de crear máquinas pensantes, lógicamente, plantea una serie de cuestiones éticas muy importantes que abarcan muchos puntos y que Asimov, etcétera, ¿vale? Que las máquinas no lastimen a los seres humanos o seres vivos en general, que se pueda definir lo que es el estatus moral de una máquina, en fin, podríamos llamarlo así como robo ética o ética de las máquinas, etcétera, es una cosa que, en fin, que es así como muy etéreo, pero que ya no solo tiene que ver con eso, sino también con los propios sesgos que pueda tener la propia inteligencia artificial en cuanto a hasta dónde puede llegar la inteligencia artificial. Claro, tenemos que tener en cuenta una cosa muy importante, y es, ¿qué sucede cuando yo a ChatGPT o a cualquier tipo de inteligencia artificial le pido cosas que son ya no moralmente incorrectas, sino incluso ilegales en la gran mayoría del mundo, ¿vale? Ilegales como como fabricar explosivos, ilegales como cometer actos en en fin, ChatGPT podría contestarme a cualquiera de estas cosas.

    De hecho, tenemos que tener en cuenta el famoso experimento que se hizo hace unos años de Microsoft, donde crearon una inteligencia que la pusieron directamente a funcionar en Twitter sin ningún tipo de filtro. El caso de este chatbot fue bastante sonado, ¿vale? Un chatbot llamado Thai, t a y, un chatbot de inteligencia artificial creado por Microsoft y lanzado en marzo de dos mil dieciséis. Thai fue diseñado para ser un chatbot que aprendiera de las interacciones con los usuarios en Twitter y que adaptara su lenguaje y las respuestas en función de sus interacciones, y bueno, pues se diseñó para que interactuara principalmente con personas de entre dieciocho y veinticuatro años, aprendiera de ellas y así, pues, tener conversaciones más naturales y más relevantes, pero es que fue lanzarla y Tai comenzó a lanzar una serie de, bueno, pues se mimetizó con Twitter, ¿vale? Porque empezó a ofender a todo el mundo y empezar a decir barbaridades, ¿vale?

    Fue claro, el resultado de que algunas personas empezaron a enviarle mensajes con contenido inapropiado, con contenido ofensivo a propósito, y el algoritmo que estaba diseñado para aprender y replicar las formas de interacción, pues empezó a incorporar ese comportamiento inherente de Twitter dentro de sí, por lo que empezó a soltar barbaridades de tipo racista, sexista, hasta extremista, incluyendo mensajes con simpatía hacia el nazismo, etcétera, por lo que eso claro, causó una opinión, o sea, causó un revuelo terrible, una reacción pública muy negativa, Microsoft reaccionó y desactivó a TAI sólo dieciséis horas, o sea, no no llegó un día la pobrecita mía y ya se la volvieron loca en Twitter, ¿vale? O sea, una cosa bárbara, ¿de acuerdo? Posteriormente, claro, la compañía obviamente metió disculpas, explicó que Tay había sido objeto de un ataque coordinado por parte de algunos usuarios que supieron, ¿no? Cómo había sido enseñada, cómo se había aprendido, cómo tenía que aprender y provocaron ese comportamiento, ¿vale? Pero Tay lo que dejó muy evidente era algunos problemas que tenían los sistemas de aprendizaje automático cuando van a interactuar con personas o en espacios públicos, etcétera.

    Por ejemplo, la vulnerabilidad al aprendizaje con datos sesgados o maliciosos, ¿vale? La IA lógicamente, puede aprender de manera inapropiada si se expone a datos que estén sesgados, a datos que estén mal intencionados o a cualquier tipo de mecanismo que permita, en fin, llegar a opiniones o a cierto tipo de ideas que, bueno, que no debería tener, ¿vale? Por lo que tiene que haber mecanismos muy importantes para filtrar y gestionar los datos a la hora de, no solo entrenar las IAS, sino de lo que es validar la interacción, ¿vale? Yo puedo generar imágenes a día de hoy con inteligencia artificial, pero hay muchas cosas que yo no debería pedir a una inteligencia artificial. Ya no digo, insisto, estamos hablando de sentido común, estamos hablando de cosas que obviamente yo no puedo pedir, como empezando por el por pedirle el desnudo de alguna persona famosa o haciendo alguna barbaridad de tipo sexual o de tipo violento, no, yo no debo pedir ese tipo de cosas porque son moralmente incorrectas e incluso ilegales, ¿no?

    En muchos sentidos, porque estás creando un imaginario que no es el correcto. Pero claro, es que hay muchas más cosas que se pueden pedir a nivel de auténticas barbaridades que no soy capaz de llegar a imaginar, pero imagínense, por lo tanto, la responsabilidad y la ética en el diseño de la de la IA y en la forma en la que se nos ofrece, pues volvemos a lo mismo. Nosotros estamos estamos tratando con inteligencias artificiales, con GPT, con Midjourney, con Tali, con ciertos, con muchas IAs dentro de sistemas, pues yo que sé, el mismo ClickUp o el mismo Zoom o el mismo Teams o el mismo Google, tienen un montón de posibilidades en ese sentido y obviamente tienen que ser capaces de no darte cierta información o no ayudarte en cierto tipo de elementos, por lo que lo de este boot, lo de este chatbot, Tay, fue una lección importante para toda la comunidad de IA, porque, en fin, generó lo que es este tema de la ética y el poder crear sistemas de aprendizaje que interactúen directamente con el público, y destacó la importancia de considerar cuidadosamente todos los aspectos relacionados con el diseño, el despliegue, los filtros de información, a qué se puede contestar y qué no, etcétera.

    Y esto, esta ética, que es una de las condiciones que puso DeepMind para ser comprada por Google, es también parte del ADN de OpenAI y es parte indeleble de todo lo que tiene que ver con la propia OpenAI y que, yo por ejemplo, en ocasiones cuando pido imágenes a Dalí me dice, por cierto tipo de restricciones no te puedo dar la imagen, tal, pues no te la da muy probablemente porque ha sacado alguna persona conocida o ha sacado algo que puede pertenecer a una imagen a nivel de contenido que tenga copyright, porque eso es otra cosa aparte. Sabemos que ha habido mucha polémica con los temas de los derechos de autor, porque los modelos que han sido entrenados no se han entrenado muchos de ellos como, por ejemplo, Midjourney se sabe, o las primeras versiones de Estevel Diffusion o Dalí, se sabe que se entrenaron con contenido que estaba protegido con con copyright, con derechos de autor, autores que, oye, pues a lo mejor no quieren que su trabajo pueda servir para que una inteligencia artificial pueda generar nuevo contenido. De hecho, es una de las claves de Dalí tres, el hecho de que Dalí tres tiene una base de datos conocida, una base de datos de todos

    los elementos

    con los que se ha entrenado, y una base de datos en la que si cualquiera no quiere que, o sea, reconoce cualquier tipo de elemento dentro de esa base y lo pide, automáticamente se retira, tiene un sistema por el que puede retirar ese tipo de contenido a través de filtros y no utilizarlo dentro de el modelo ya entrenado. Por lo que insisto, el tema de la ética, etcétera, etcétera, es Entonces, por parte, para ser comprados por parte de Google, Entonces, por parte, para ser comprados por parte de Google, y esa es la parte que llevó Elon Musk. Elon Musk es una persona que considera que la inteligencia artificial es algo que va a cambiar para mejor toda la humanidad, pero, por otro lado, también considera que la inteligencia artificial puede ser muy peligrosa y que podría llegar a permitir la destrucción de la propia humanidad, y, por lo tanto, hay que controlar cómo la propia inteligencia artificial va creciendo y hay que contenerla y hay que intentar, en la medida de lo posible, por ejemplo, y esto es algo que ellos mismos dicen y que forma parte de varios manifiestos que se han ido sacando con el tiempo sobre la inteligencia artificial, como que nunca a una inteligencia artificial se le dé acceso a ningún tipo de elemento militar, de sistema militar.

    Que sí, que ustedes ya están pensando que si Skynet, que si lo que sea. Pero es que realmente es así y, de hecho, han pasado cosas con inteligencias artificiales a nivel de simulaciones que dan que pensar de drones que han derribado a sus propios compañeros fuego amigo por confusiones dentro del propio elemento, porque una ya no es capaz de razonar y no es capaz de ver ciertos tipos de comportamientos o ciertos tipos de cosas que no deberían hacer o que no se centren en ciertas cosas, etcétera. Esto lo contó Oliver en un programa que hicimos con Nebecaneiser de cómo, pues, se le ordenaba a un dron en una simulación que volviera a base cuando no había finalizado la misión, y aún y lo que hizo fue cargarse a su piloto para poder ir a completar dicha misión, y en la siguiente vez que le lo volvieron a entrenar para que no hiciera eso, se cargó la torre de control porque él determinó que la torre de control era quien no le estaba dejando hacer esta misión. Insisto, esto era todo una simulación, pero nos da que pensar a que realmente la inteligencia artificial no debería de engancharse bajo ningún concepto concepto a ningún tipo de sistema militar, sobre todo cuando tenemos en cuenta, y esto lo voy a repetir, lo he repetido ya en varias veces, en varios directos, programas, etcétera, pero volvemos a repetirlo.

    OpenAI no conoce cómo funciona GPT tres o GPT cuatro, no lo sabe. Irán, hombre, no, cómo no va a saber cómo funciona si ellos han hecho el programa. Claro, ellos han hecho el programa y saben cómo funciona el programa, pero los millones, los miles de millones de conexiones entre distintas neuronas de la red neuronal, entre los distintos perceptrones, son tantos que es imposible. Cuando yo tengo un programa, yo, mi programa, puedo leer el código y puedo saber por dónde va a estar pasando ese código y puedo saber qué es lo que está haciendo y, a raíz de ahí, saber cómo se va a comportar, porque puedo leer mi código y puedo saber cómo se va a comportar en ciertos momentos, cuando le entren ciertos datos, porque repito, yo veo y audito mi código, pero no se puede auditar a GPT tres o a GPT cuatro o a Dalí, no se puede auditar, porque las conexiones entre perceptrones son tantas que es imposible hacer un mapa que determine por qué una entrada a tiene una salida b, por qué cuando yo le doy cierto texto él me devuelve otro texto distinto. No se conoce todavía, se han empezado, gracias a GPT tres, a mapear ciertos recorridos, parte de los recorridos de la red neuronal de GPT dos, gracias al uso de GPT tres.

    Imagínense cuál es ese nivel, por lo que, repito, ni la propia OpenAI sabe por qué a día de hoy GPT funciona tan bien como funciona y hace lo que hace, y aún así la siguen ampliando y aún así le siguen dando más funciones, porque la están ampliando a base de ponerle plugins como lo haríamos con un Photoshop, y está genial y es una cosa maravillosa, pero el problema es que por dentro OpenAI sigue sin saber por qué cuando yo le meto, insisto, en el cien por cien de los casos, sigue sin saber por qué el sistema da cierta respuesta cuando le entra cierta entrada. Básicamente, lo que sería un un un test unitario, ¿vale? Yo puedo determinar a través de test unitarios en desarrollo que un algoritmo, cuando recibe cierta entrada, devuelve cierta salida y yo puedo saber por qué lo hace. Bien, pues OpenAI no lo sabe. Lo sabe en algunas rutas dentro de GPT dos, pero no lo sabe en ninguna ruta dentro de GPT tres.

    No sabe por qué a una entrada x devuelve una salida y, y esto es como para hacérselo mirar, ¿de acuerdo? Volviendo a OpenAI, volviendo a su fundación, aparte de Elon Musk, también estaba como fundador, Sam Altman. San Altman, que es la persona que ha estado detrás de toda la polémica que hemos tenido con, en fin, pues con todo lo que ha pasado en estas últimas semanas, pero ¿quién es San Alman? San Alman es una persona que sepa mucho de inteligencia artificial, es alguien que sea imprescindible, que sea un gurú de la inteligencia artificial y, por lo tanto, alguien tan importante como para que Satya Nadella, CEO de Microsoft, le haya dado carta blanca para yo contigo al fin del mundo, básicamente es lo que le he venido a decir, ¿quién es Sand Altman? Pues bien, Sand Altman es una figura clave dentro del mundo de la tecnología y la innovación por su papel como presidente de iCombinator, una de las aceleradoras de startups más prestigiosas del mundo.

    ICombinator es una aceleradora que ayuda a impulsar el crecimiento de numerosas empresas, que lo que hizo fue darle una comprensión tecnológica innovación y de gestión empresarial bastante importante. San Altman es un gestor, no es alguien que sepa de inteligencia artificial. Obviamente, ahora ya sabrá de inteligencia artificial, pero tenemos que tener en cuenta que I Combinator como aceleradora de startups, fundada en dos mil cinco, que insisto durante mucho tiempo tuvo como presidente a San Altman, es la precursora de empresas como Stripe, Airbnb, Coinbase, Instacart, Dropbox, incluso Twitch. Todas estas compañías han podido salir adelante gracias a iCombinator. De hecho, Sand Altman comenzó en la etapa de fundación de la propia iCombinator, ¿vale?

    Es y combinator, ¿vale? Fundando a través de la fundación de su propia compañía, su startup LoopT. LoopT es una empresa de servicios de localización basada en redes sociales que fue la primera que planteó la geolocalización social, el poder tener servicios de localización en tiempo real que ofrecía esta aplicación en dos mil cinco, permitiendo a los usuarios compartir su ubicación en tiempo real con amigos, familiares, etcétera, a través de sus teléfonos móviles, y que les permitía ver dónde estaban y descubrir personas o eventos interesantes también cerca de ellos. Además, se integraba con redes sociales populares en aquella época y permitía un control de privacidad y control de usuario bastante importante. Empresa LoopT fue comprada por Grindot Corporation, un proveedor de tarjetas de débito, en dos mil doce.

    San Altmant, además de ser una de las primeras que se incorporó a iCombinator cuando se fundara, en dos mil cinco, fue nombrado presidente de iCombinator en dos mil catorce y fue también durante mucho tiempo, justo antes de eso, mentor dentro de la propia compañía para ayudar en la aceleración de ciertas compañías, ayudó a expandir y diversificar las operaciones de Y Combinator, amplió el alcance de las empresas que respaldaba y abarcó una más amplia gama de industrias dentro de la tecnología. Además, bajo su dirección iCombinator lanzó el YC Continuity Fund, que fue un fondo que permitió a la organización continuar invirtiendo en sus propias empresas, en las empresas que ellos permitían acelerar de manera, y aquellas que habían sido más exitosas, para que pudieran seguir incorporando inversión a medida que estas iban creciendo, y representó un cambio significativo en el modelo de Y Combinator, que tradicionalmente se había centrado solo en las primeras etapas de las startups y que luego una vez ya empezaban a crecer, pues se desvinculaba de ellos, ¿vale? Por lo tanto, en fin, es como digo, un gestor, lo que pasa que siempre le ha apasionado el tema de la inteligencia artificial y siempre fue un defensor de todas las startups en este campo y, bueno, pues eso lógicamente le hizo ser uno de los candidatos que en dos mil quince se ofrecieran a este, bueno, pues esta funda a esta cofundación de Open AI, por lo tanto salió de presidente de Y Combinator y bueno, pues ese cargo lo tuvo que coger otra persona.

    Pero insisto, San Altman es un gestor, apasionado del allá, sí, pero es un gestor. También está Greg Brockmann, uno de los personajes que también han tenido que ver con todo el lío que ha habido durante estos días. Greg Brockmann, que presentó su dimisión de manera inmediata como presidente y CTO de la compañía, en el momento en el que se supo que el comité de dirección de OpenAI había despedido a San Antmann como CEO. Greg Brockmann, ¿quién es? Pues Greg Brockmann sí es una persona muy vinculada al mundo de la inteligencia artificial.

    Fue también cofundador dentro, no cofundador, pero sí tuvo un papel muy importante dentro de Stripe, momento en el que la vida de Altmann y Grogman se cruzaron, por lo que Grogman, digamos que es la cabeza técnica, no especializado en inteligencia artificial, pero sí ha estado muy centrado en todo lo que tiene que ver con el desarrollo y, sobre todo, con la ética, es una de las personas que más están detrás de lo importante de la propia ética y lógicamente como CTO de la compañía, pues lo que su contribución es clave en todo el desarrollo tecnológico en cuanto a servidores, infraestructura, contrataciones, etcétera, etcétera, ¿vale? Que es el papel que tiene como CTO. También tenemos como otro de los fundadores a su científico jefe, Ilya Sutzkever, que este fue el que montó el lío, ¿de acuerdo? Ilya Sutzkever es un científico en el campo de la inteligencia artificial, este sí es importante en la IA. Es uno de los cofundadores que, digamos, presentó la parte de inteligencia artificial y aportó su propia experiencia, por eso es chef scientist, ¿vale?

    Científico jefe, y lógicamente Sutzkever tiene un pasado bastante importante, que uno de ellos viene de su trabajo en Google como parte del equipo de Google Brain, el proyecto enfocado en aplicaciones de deep learning que luego se fue ampliando con la compra de DeepMind. En OpenAI, Sutzkever lo que hace es, como científico jefe, poder llevar la dirección científica de la organización y llevar todo lo que es la investigación, no solo la investigación avanzada en aprendizaje automático y redes neuronales, sino cómo aplicar todo eso de una manera práctica, ¿vale? Es una persona muy conocida dentro del ámbito científico y tecnológico, y por supuesto, pues es una de las personas claves dentro de OpenAI. Pero Ilia, que es un una persona nacida en Rusia, pero que se crió en Israel, ¿vale? Nací en la Unión Soviética, es básicamente la persona más prudente la que alberga más profundas preocupaciones sobre los peligros de la inteligencia artificial.

    Y es parece ser, parece ser, no, efectivamente, es como que fue el precursor que influyó en la junta directiva para el despido de Armand. ¿Por qué? Pues ese es el motivo que no se sabe correctamente y, de hecho, da medio a entender y no sabemos qué parte de esto podría ser o no algo un poco raro, ¿vale? Es decir, ¿qué pasa? Pues que, en su momento, no solo se dio a conocer una carta de con firmada por quinientos de los más de setecientos empleados de OpenAI, es que esa carta llegó a estar firmada por setecientos, de los setecientos treinta y nueve empleados que trabajan en OpenAI.

    Pero lo curioso es que una de las personas que firmaban esta carta, ¿vale? Defendiendo a San Altman para que la junta directiva se fuera fue el propio Sutzkever, por lo que aquí es donde está la gran duda de todo lo que ha pasado con OpenAI, es decir, y ya por entrar un poco en lo que sería, porque insisto, no vamos a entrar mucho en este detalle, pero sí vamos un poco a narrar, ¿no? Cronológicamente qué es lo que sucedido a a rasgos muy principales, porque creo que lo importante es conocer lo que estamos contando, que es lo que hay detrás de todo esto, ¿de acuerdo? Pero dentro de lo que pasó en estos días, la idea es que fue el propio Ilya Sutzkever el que tuvo la iniciativa para convencer a la junta directiva de despedir a San Antman de manera fulminante, ¿por qué? Porque San Altman parece ser que podría haber estado ocultando información de pruebas al comité directivo, pruebas que él estaba realizando con ciertas inteligencias y que le ocultó esa información de manera deliberada a la junta directiva, motivo porque la junta dijo que no podía confiar en él y por eso lo despidió, porque le había estado ocultando algo, el que, bueno, pues parece ser y esto es algo que no está confirmado porque son, bueno, son rumores, ¿no?

    De alguna manera, pero podría tener que ver con algo llamado q star, q star, que sería q asterisco, ¿vale? Sería una supuesta inteligencia artificial que se aproximaría peligrosamente a lo que es una inteligencia artificial general y que podría ser algo que, si se llega a conocer a nivel público, podría cambiarlo todo. Todo esto tenemos que tener en cuenta que viene de la mano en un momento en el que después de la conferencia de desarrolladores del Defday de OpenAI, donde se presenta la nueva interfaz de GPT cuatro, que tiene todos los modelos integrados dentro de un mismo elemento, con bajadas de precios brutales, con un montón de cosas que han vuelto a poner a OpenAI en el candelero como los primeros, como esa posición aventajada, esa Apple del iPhone, ¿vale? Pues bien, después de eso, OpenAI pone en su página web que trabajan día a día para conseguir una ágil responsable, una inteligencia artificial general. ¿Cómo que una inteligencia artificial general?

    No, no, no, no, eso no existe a día de hoy, ¿qué me estás contando de una inteligencia artificial general? Lo que nosotros tenemos hasta ahora, todo lo que hemos contado hasta ahora son Narroway Eyes, son inteligencias artificiales estrechas, inteligencias que están limitadas a una única función o que si son porque pueden ser monomodales, de forma que solo tienen un tipo de dato de entrada y un tipo de dato de salida, o pueden ser multimodales, que pueden tener varios tipos de datos de entrada e incluso varios tipos de datos de salida. Pero siempre son programas que tienen un enfoque muy específico, eso es lo que tenemos a día de hoy, una IA de tipo Narrow, una IA de tipo estrecha, una inteligencia artificial general, señores, eso es otra cosa, es otra cosa mucho más importante, es otra cosa que tiene que ver con otros motivos distintos. Lo hablaremos más detenidamente en el bloque siguiente, pero una AGI, una inteligencia artificial general es un paso ya que hombre, ¿podríamos llamarlo peligroso? Yo creo que sí podríamos llegar a llamarlo peligroso porque, en fin, ¿cómo controlas eso?

    Ahora, insisto, después del cambio del bloque lo comentaremos más en detalle en el siguiente bloque, pero aquí es donde está el kit de la cuestión, que parece ser que efectivamente OpenAI podría tener algo que pudiera ser denominado inteligencia artificial general en unas primeras fases, y eso es lo que ha provocado este despido fulminante que al final lo único que ha hecho ha sido servir para, pues bueno, para dar muchos titulares y poco más, básicamente. Así que ese es el follón, básicamente, el follón es eso que Altman podría haber estado trabajando, probando una nueva IA que se acercara a algo como una AGI y que sería bastante, en fin, que que lo que estaríamos haciendo a día de hoy sería un juego de niños comparado con lo que podría hacer esta inteligencia artificial general, y también en parte parece ser que tiene que ver con el tema de el objetivo de la propia compañía, lo que es ser una compañía que invierta todo su beneficio en la propia compañía. Por lo tanto, ¿qué es lo que ha sucedido? Bueno, pues que al final Microsoft ofreció a todo el equipo de OpenAI y a toda la gente que quisiera irse con ellos, trabajar con las mismas condiciones salariales, montarles un laboratorio de desarrollo, darles todo lo necesario tal y cual, al final todos querían seguir estando en OpenAI y al final con la firma de esas setecientas de setecientas treinta y nueve personas, se destituye a todo el comité directivo, se instaura a uno nuevo y San Greg Brocknan y todos, incluido Ilia, vuelven a sus puestos.

    Yo creo que vamos a tardar mucho en saber realmente todo lo que ha habido detrás, porque lo que nosotros hemos visto es solo la puntita de la lanza y por mucho que intentemos teorizar sobre lo que ha pasado, no vamos a poder llegar a nada porque nos falta muchísima información y nos, y estoy convencido que parte del problema que ha habido con OpenAI ha sido a nivel financiero, de control, de medirle el peso a Microsoft, que Microsoft mida el peso de la compañía, etcétera, etcétera, etcétera, ¿vale? Por lo tanto, ahí hay cambios muy importantes a ese respecto, ¿de acuerdo? Básicamente, por ir terminando este bloque, una vez fundada OpenAI, lo que hace es empezar a trabajar con un sistema llamado five, un sistema que es un proyecto, iniciativa de OpenAI para demostrar la capacidad de la inteligencia artificial con refuerzo de aprendizaje para jugar y competir a Dota dos, el juego multijugador. OpenAI five, que es como se llama el algoritmo, se entrena utilizando técnicas de aprendizaje por refuerzo en el que los distintos agentes que funcionan sobre la red neuronal aprenden a tomar decisiones optimizando las recompensas que obtienen del juego a través de la experiencia.

    Recompensa es seguir vivo, conseguir ciertos elementos, avanzar en los niveles, etcétera. Lo más importante es que Five no se programa con estrategias específicas de juego, sino que aprendió a jugar Dota dos mediante la experimentación y la adaptación a las consecuencias de sus acciones. O sea, no se le entrenó, que es lo realmente interesante, para jugar a Dota dos, sino que una vez se había definido el algoritmo, se le puso a jugar a Dota dos, y dirán, bueno, ¿pero cómo es eso? ¿Cómo experimenta una IA? Pues simplemente a nivel aleatorio, O sea, es como si yo cerrara los ojos y tocara los controles sin saber a dónde estoy tocando, de manera completamente aleatoria, siguiendo unos patrones previamente programados de lo que se entiende que es el manejo de un videojuego de esas de lo que se entiende que es el manejo de

    un videojuego de esas características e incluso en

    ocasiones ni eso, ¿vale? Para poder tener un nivel de habilidad muy alto. Five jugó literalmente millones de partidas contra sí mismo, y en cada nueva partida aprendía y se adaptaba continuamente porque cada, digamos que cada partida era para él un entrenamiento, por lo que iba acumulando experiencia que le iban sirviendo para ir ampliando el entrenamiento, por lo que primero se entrena con una partida, luego con dos, luego con tres, luego con cuatro, luego con cinco millones, luego con seis, ¿vale? Porque los va ampliando de esa manera. De esta manera consigue un entrenamiento a gran escala que le permite poder llegar a un nivel que se considera superior al humano, sobre todo teniendo en cuenta que a diferencia otros juegos, tal como se ha entrenado distintas IAs, Dota dos requiere no solo habilidad individual, sino coordinación de equipo y estrategia a largo plazo, por lo que se entrenó a five para poder trabajar con, para poder jugar con otros jugadores que fueran humanos dentro del propio equipo ¿vale?

    Y lo consiguió correctamente. Este desarrollo de five fue lo que propició, pues, el, digamos, seguir avanzando, etcétera, con el tema del aprendizaje por refuerzo, cuando en el año dos mil diecisiete Google lanza el paper que lo cambia todo, attention is soul unear, el paper que establece las reglas de los modelos Transformer. Pero antes de entrar en materia con este mega análisis, os vamos a hablar de nuestro colaborador de este episodio, que no es otro que Vodafone. Vodafone que tiene novedades muy interesantes si eres autónomo o una pequeña empresa, porque ya sabes que, si este es tu caso, necesitas contar con los mejores. Por eso, Vodafone Business presenta la nueva tarifa negocio a medida, que incluye todo lo que necesitas para llevar tu negocio a otro nivel.

    Ofrece un soporte técnico e informático veinticuatro por siete, por lo que siempre están ahí cuando algo falla, que es lo más importante, porque tu negocio cuando algo falla no puedes esperar. Vodafone Business te acompaña para impulsar tu negocio con soluciones profesionales para reparar y sustituir tus dispositivos, protegerte de ciberataques o mejorar tu presencia y visibilidad en Internet. Con negocio a medida de Vodafone Business tendrás fibra de seiscientos megas, dos líneas de móvil cinco G y puedes escoger entre un servicio de ciberseguridad, yo escogería este, de posicionamiento de tu negocio en Internet o de reparación y sustitución de dispositivos por tan solo cincuenta y cuatro con cincuenta y cuatro euros al mes, más IVA, lógicamente. Descubre todos los detalles y apúntate entrando a Vodafone punto es o pinchando en el enlace en las notas de este episodio. Como siempre, muchísimas gracias a Vodafone por colaborar con Apple

    Coding.

    El trabajo que realizaba tanto Google como OpenAI, como máximos exponentes de la investigación sobre inteligencia artificial, todo lo que hemos comentado de el deep learning, el aprendizaje por refuerzo, etcétera. Claro, ahí teníamos que tener en cuenta ciertos tipos de redes, que eran las que se usaban hasta ese momento, donde normalmente, y hablando ya del de lo que es el procesamiento del lenguaje natural, las el este procesamiento tenía dos formas de ser tratado, a través de redes neuronales convolucionales y redes neuronales recurrentes. Claro, en el año dos mil diecisiete Google lanza este paper llamado attention is all you need, la atención es todo lo que necesitas, que supone ese punto de inflexión en el campo Transformers. Entonces, ¿por qué los Transformers eran algo muy necesario? En ese momento, porque las redes neuronales convolucionales y las recurrentes no tenían el suficiente funcionamiento, no tenían la suficiente capacidad para tratar las necesidades que se iban teniendo cada vez más con lo que era el uso de redes neuronales capaces de procesar nuestro lenguaje.

    Pues bien, explicado de una forma muy rápida y directa, una red neuronal convolucional, una CNN, es una red que divide en distintos componentes aquello que tiene que que analizar, pero lo divide de una manera, es decir, lo divide para el entrenamiento y ese entrenamiento luego le sirve para identificar ciertos elementos y poder valorar, poder balancear su salida. Entonces, una CNN, una red convolucional, lo que tiene es que, por ejemplo, aplicados a una imagen, lo que hace es coger una imagen y dividirla

    en pequeños trocitos, dividirla en pequeños patrones donde reconoce ciertos patrones como curvas, líneas rectas, etcétera, etcétera, etcétera, etcétera, etcétera, etcétera, etcétera, etcétera, etcétera,

    etcétera, etcétera, etcétera, etcétera, reconocer esos patrones dentro de una imagen y, por lo tanto, eso le permite, insisto, dividiendo lo que es el contenido, poder llegar a reconocer, por ejemplo, una imagen o varias imágenes dentro de otra, ¿vale? A través de deep learning, pues, como hemos comentado al principio, pues podríamos saber cuántos gatos hay en una imagen o de qué raza es cada uno, etcétera, y todo esto es a través del uso de estas redes convolucionales, pero aplicados en el lo que es el paradigma de el lenguaje natural, donde tiene, pues, un texto que hay que darle, las CNNs utilizan ventanas de palabras para capturar lo que es toda la información de un texto, y cada ventana se centra en una parte del texto muy concreta y procesa esa información a la vez. Entonces, el problema que tienen es que a través de esas capas de convolución, ¿vale? Que es esa esa división, ¿no? Del contenido, las CNN aplican aplican filtros que pueden detectar patrones en esas ventanas de palabras, como frases, combinaciones de palabras que sean importantes para tener cierto tipo de detección, por ejemplo, las CNNs son muy utilizadas en lenguaje natural para detección de sentimientos, y dirán, ¿cómo?

    Detección de sentimientos, ¿qué es eso? Pues es poder saber si una un texto es positivo o negativo, por ejemplo, o cómo estaba la persona que lo ha más que cómo estaba la persona que lo escribió, es más bien detectar cómo, o sea, qué es lo que intenta expresar ese texto, ¿vale? Si ese texto a través de sentimiento es un texto que expresa algo alegre, algo triste, algo de enfado, algo de todo este tipo de redes convolucionales, por cierto, ya se usan hace muchísimo tiempo en redes sociales, ¿vale? Por lo tanto, las redes sociales saben perfectamente qué tipo de post a través de análisis de sentimiento, de sentiment análisis, ponemos en en las redes y saber, pues, qué tipo de perfil tenemos, si somos un perfil que tiende a escribir cosas enfadado o triste o alegre o cosas que aportan, es decir, pueden llegar a detectar mucho tipo de muchos tipos de patrones. Uno de los ejercicios más habituales en machine learning que yo suelo hacer dentro de Applecodeyn Academy, pues es la detección de sentimientos a partir de las reviews de de Internet Movie Data base.

    Yo tengo, porque es muy fácil encontrar, por ahí en Kagle o cualquier tipo de Kagle es una página web que tiene un montón, que sé que suena raro en español, pero Kagle es una página web que tiene un montón de data sets que pueden servir para pruebas de entrenamientos de machine learning, y uno de los data sets más utilizados es la recopilación de literalmente cientos de miles de reviews de películas dentro de IMDB, donde algunas son reviews positivas y otras son negativas. Entonces, una forma de detectar si una review es positiva o negativa, pues es a través de esta detección. También se podrían tener un montón de, o sea, digamos que ese es el la la, vamos a decir ventaja, no lo sé, la pega que tienen las CNNs, que le tienes que dar el texto completo o, y aunque luego ellos lo barajen o lo o lo trabajen, ¿no? Digamos, dividiéndolo por ventanas, pero la gran pega de una red convolucional es que tiene que tener todo el texto a la vez para poder trabajar con ello, esa es la gran pega que tenían las CNNs que tienen las CNNs para procesar el lenguaje natural, que no sirve que yo vaya hablando, yo le tengo que entregar todo el texto ya terminado para que él lo pueda procesar, y de ahí, pues, si yo le doy un montón de post que estén clasificados previamente por humanos como post que sean productivos, post que sean de alegría, post que sean de enfado, posts que sean de trolling, posts que sean de, pues todo eso va a permitir reconocer los patrones del lenguaje use un nuevo post que no ha formado parte del entrenamiento para realizar ese análisis de sentimiento, ¿de acuerdo?

    Pero claro, como las CNN procesan el texto completo, ¿vale? Es un enfoque que no sirve muy bien, ¿vale? Porque al ser por ventanas locales, tener que tener todo, etcétera, no sirven para un sistema de habla. Las redes neuronales recurrentes, las RNN, permiten solventar este problema, porque las RNN son capaces de poder procesar un texto que se va entregando en el tiempo poco a poco, ¿vale? Una RNN es mucho más adecuada para el procesamiento secuencial de datos, que es lo que normalmente se hace cuando hablamos con a través de n de n l b, ¿vale?

    Es cierto que en el caso de los Transformers o de ChatGPT, pues tendríamos que lo que yo le doy a ChatGPT es la frase completa, pero también en el nivel de reconocimiento de elementos tendríamos que ver cómo se procesa a nivel progresivo y a nivel secuencial, ¿vale? Entonces, las RNN procesan el texto de manera secuencial, palabra a palabra, o, y esto ya entramos en este término maravilloso, token a token, token de palabras que son claves. Esto le permite capturar información contextual y las dependencias de esos elementos dentro de una secuencia. Claro, las RNN tienen una especie de memoria, ¿vale? Una memoria a corto plazo que les permite recordar información de las entradas anteriores dentro de la misma secuencia, lo que permite poder entender el contexto, la estructura gramatical, dentro de oración, de un párrafo, y poder generarlo correctamente.

    Pero, claro, una RNN tradicional, claro, lucha con las dependencias a largo plazo. Hay variantes de las RNN, como las Long Short Term Memory o las Gater Recurrent Unit, que fueron desarrolladas para poder darle más de esta memoria a las redes recurrentes y así poder solventar las limitaciones que tienen en cuanto a la cantidad de información que pueden procesar dentro de una misma llamada, por lo que ya las RNN a partir de una memoria de corto largo término o corto largo plazo, pues una LSTM o una unidad recurrente a través de de puerta, de gated, ¿vale? Sería una forma de ya empezar a aproximarnos a lo que son los transformers, porque a pesar de que realmente ya permitía, y un modelo a través de una memoria de de largo corto término, de largo corto alcance, podría ya servirnos para este elemento, claro, no termina de ser todo lo útil que debería a este respecto. Por eso, cuando aparece el attention y el sould you need, este elemento revoluciona completamente la forma del trabajo con el lenguaje natural, un paper que viene de Google. O sea, imagínense la ironía que quien más provecho ha sacado a este paper de Google es una empresa tercera, porque el problema de Google es que no ha sido capaz de ver que aquí hay un producto comercial, cosa que OpenAI sí ha visto.

    Ese es el gran problema, ese es el problema por el que a día de hoy, y hay mucha gente que me dice, pues es que dónde está Apple con la I degenerativa, pues Apple con la I degenerativa, ya lo hemos dicho, le ha pillado con el pie cambiado y ha tenido que ponerse las pilas de manera rápida gracias a que él ya tiene un buen número de expertos, ¿vale? Es que, a ver, sí, todo lo que hace Apple, todo lo

    que hacía

    Apple hasta el año pasado, más o menos poco antes de la presentación de ChatGPT, es todo uso de redes neuronales basadas en deep learning y, de hecho, el iPhone, incluso el Apple Vision Pro, el iPad, etcétera, todo el sistema operativo está lleno de algoritmos de Deep Learning. No hay más que ver, por ejemplo, cómo los Mac son capaces de poner un filtro al micrófono que es capaz incluso de eliminar música, de eliminar palmas que yo doy mientras estoy hablando, que prácticamente parece magia, detecta ciertas poses y me hace esos animaciones bonitas y tal que ya terminamos por quitarlas, me hace la segmentación para el efecto de desenfoque por detrás, es decir, tiene un montón de opciones que están basadas en deep learning y están muy integradas en todos los sistemas operativos, y Apple es una de las compañías que más inteligencia artificial tiene dentro de sus sistemas, esto no podemos olvidarlo. Ahora, lo que Apple no tenía porque no tenía nadie es hiagenerativa. No tenía absolutamente nada. De hecho, para que se hagan una idea, y esto lo dijo Craig Federicchi metiéndolo así como a la tonta en la w w c, el nuevo diccionario, el nuevo recomendado de palabras de lo que es el teclado del iPhone o del iPad, funciona a través de Transformers.

    Se ha cambiado, antes funcionaba a través de redes neuronales recurrentes, de long short term, y ahora lo han cambiado para que funcione por Transformers y, por lo tanto, sea más eficiente, sea capaz de recordar más contenido, para que así, cuando yo esté escribiendo un texto, da igual la longitud de dicho texto, me pueda ir sugiriendo palabras que tengan que ver con todo el contexto de la de lo que es el texto que estoy escribiendo, ¿vale? Se autocompletado, lo dijo el propio Craig Federigui en la w w c, está utilizando transformers, ¿vale? Por lo tanto Apple se ha ido adaptando poco a poco, pero obviamente, como digo, le

    ha pillado con el pie cambiado porque la IA

    generativa es otra cosa completamente distinta. Ahora Apple sí se ha puesto las pilas, ahora Apple tiene lo que se conoce internamente como el proyecto AJAX, que es un motor de creación de contenido que permite crear imágenes, vídeo, texto, tipos de contenido dentro de su propio software, las próximas versiones han sido clasificadas por Apple de manera interna como una de las de los cambios más importantes en toda la historia de los sistemas operativos de Apple, precisamente porque se integrarán modelos como el Matrioska Diffusion Models, un modelo de difusión creado por Apple para la generación de imágenes de alta calidad y para la generación de vídeo de alta calidad a partir de imágenes estáticas, tipo, pues, lo que serían vídeos cortitos de tres segundos, lo que estamos viendo ahora con modelos como el recién presentado Stable Diffusion Video, ¿vale? O, pues, todos estos que permiten coger una imagen estática y generarle una animación, ¿vale? A esa, digamos, a ese elemento, ¿no? Pues todo esto Apple ya lo tiene, es decir, lo ha presentado, no es decir, no, no, pues esto es un rumor que lo ha dicho Mark Gulma y tal, no, no, no, no, no, Apple ha presentado esto, ¿vale?

    Busquen ustedes Apple m d m y verán cómo aparecen los papers y toda la información y los ejemplos reales del Matrioska Diffusion Model. Ahí, además, tenemos, y esto sí es parte de los rumores, la parte de los de lo que Apple llama Apple GPT, y ustedes ustedes dirán, ay, es que GPT ya está copiando, no no, perdónenme, GPT es un término genérico, significa texto generativo a través de texto pregenerado a través de transformers, ¿vale? El concepto GPT no es de OpenAI, ¿de acuerdo? Entonces, Apple lo está llamando así, probablemente no lo llame así o estarán buscando alguna forma de o algún nombre rocambolesco, pero lo que Apple está haciendo es conectar este servicio directamente sobre los sistemas de Apple para que podamos tener una nueva serie completamente rediseñada, esta vez sí, basada en un asistente basado en un modelo de lenguaje grande, en un modelo LLM, como GPT o como BART, o como, pues, los modelos de de llama, etcétera, que sea capaz de conectar lo que le pedimos con el sistema operativo, y que yo pueda decirle que me cree un nuevo key note a partir de un documento que ya tenga hecho, y él me va a generar el keynote y me lo va a generar incluso con imágenes, etcétera, para yo poder cambiarlas.

    Es decir, va a ser un cambio muy muy importante como lo va a ser, y lo está siendo, con Windows Copilot, con Office tres seis cinco Copilot, con Github Copilot, porque también habrá un un nuevo nuevo source kit dentro de SCODE basado en inteligencia artificial que será capaz de leer todo nuestro código y asesorarnos y autocompletarnos, ya no con una predicción como la que tiene actualmente, que SCODE ahora mismo es capaz de predecir de alguna manera cómo yo voy a llamar a ciertos elementos, ya no solo por el nombre del archivo, que esto es algo más que lógico y simple. No, no, es que si yo voy escribiendo los nombres de las clases, enumeraciones, etcétera, en scout quince, me va sugiriendo nombres que tienen que ver con lo que yo quiero representar, algo que demuestra, pues que Apple ahí está poniendo algo de ya, no mucho, pero bueno, una piquita, ¿vale? Un un poquito de sal para darle saborcete, ¿vale? Entonces, esto no tendrá nada que ver con cuando llegue el próximo scode, que sí va a ser cien por cien a nivel generativo. ¿Hasta dónde?

    No lo sabemos, no sabemos ni los tokens, no sabemos ni cómo funcionará este modelo, ni si estará en local, supongo que sí estará en local. Den por hecho que esto solo va a funcionar en Apple Silicon, ya se lo adelanto, ¿vale? Si pensaban que esto va a funcionar en Intel, lo siento en el alma, no va a funcionar en Intel porque en Intel no tiene una aceleración, no tiene un motor neural y, por lo tanto, no tiene aceleración de inferencia de modelos de machine learning, por lo tanto, estas mejoras de scode, me juego lo que ustedes quieran a que esto solo va a estar en Apple Silicon, ¿vale? Yo creo que esto lo tenemos todos más que claro. Así que, bueno, pues esto, volviendo, ¿no?

    Al tema que nos ocupaba, este es esto es donde está Apple ¿no? Pero ¿dónde está Google? ¿Vale? Porque Google como estábamos diciendo fueron los creadores de los modelos Transformers y, sin embargo, a día de hoy, no tienen un producto real. ¿Han presentado para Workspace?

    Sí, ¿dónde está que yo lo vea? Como diría el meme. Han presentado BART, bueno, pues BART ya les digo que es un chiste, ¿vale? BART es un auténtico chiste en comparación con ChatGPT, o sea, está al nivel de Siri, básicamente, o sea, en en cuanto a practicidad, ¿vale? De vez en cuando, si eres muy, si te portas bien y eres muy complaciente y dices las cosas muy bonitas y tal, te puede llegar a ser útil, pero desde luego Bart está a día de hoy al diez por ciento de lo que realmente está ChatGPT.

    ¿Por qué? Pues porque Google no vio, como ya estoy comentando, Google no vio la necesidad de que toda esta investigación en machine learning, donde ellos es, donde ellos eran pioneros, tuviera una repercusión directa en producto para el usuario. Ya no digo que sea a nivel de monetización o no, sino de producto o servicio para el usuario, ellos sacaban músculo, era una forma de reinvertir la los beneficios de Google, pero en Google todo lo que no sea publicidad se descarta de manera directa, por lo que de ahí el famoso site de matado por Google, donde hay cientos y cientos de productos que app que Google ha ido matando con el tiempo, porque todo lo que no sea algo que repercuta directamente en el negocio de la publicidad de manera positiva es directamente descartado, y quieren que les cuente algo que ya saben, Que las los LLMs repercuten negativamente en el modelo de publicidad y búsquedas de Google. Google ha pasado a ser una página, o sea, ha bajado brutalmente la cantidad de visitas, porque hay mucha gente que sabe utilizar bien ChatGPT, como es mi caso, el de mi amigo Oliver Navani, gente, muchísima gente de los que ustedes estoy seguro que me escuchan, que lo usan para su día a día, que han dejado de ir a Google a buscar cosas.

    Eso son literalmente millones de visitas menos al día y mucha menos publicidad impresa. Google está pasando ahora mismo una crisis brutal porque se encuentra con la dicotomía de tener que tomar la decisión que no quisieron tomar y que echaron patada para adelante para ver si así se le pasaba la moda a la gente, porque ellos vieron GPT, vieron ChatGPT, vieron BHub Copilot, dijeron, bueno, esto tampoco es una cosa que, en el momento en el que ChatGPT explotó y se dio cuenta y se vio en el mercado que era un producto que la gente quería, a Google, también como a Apple le pilló con el pie cambiado, porque Google, y escúchenme bien lo que les voy a decir, no quiere cambiar su modelo de negocio actual metiendo un asistente inteligente basado en modelos de lenguaje. Obviamente, ellos son felices siendo los reyes del mambo teniendo un noventa y ocho por ciento de facturación total del grupo de empresas proveniente de la venta de publicidad, y lo que no quieren es que ahora haya un una nueva forma de buscar en el que yo, por ejemplo, y esto repercute directamente en ciertos contenidos, ¿qué hago ahora si yo?

    O sea, se lo digo muy claramente, yo llego y tengo un artículo de, pues, les voy a poner, un artículo de los míos que yo escribí para la pelesfera, ¿vale? Que es más grande que hoy y ayer. Un artículo que para leerlo tienes que dedicar quince o veinte minutos. De hecho, esto es literal porque nuestro amigo Carlos Castillo, el que saluda desde aquí, pues tenía la costumbre de coger mis artículos de AperEsfera, pasarlos por un test to speech y que se lo leyera, ¿vale? Con el el lector de voz de el iPhone, etcétera, o pasárselo directamente a un fichero de audio.

    Y le ocupaba eso, quince, veinte minutos, y me lo mandaba y decía, mira, eres un burro tal. Yo decía, sí, sí, lo sé, pero pero a ti te mola, ¿no? Entonces, ese es el tema, ¿de acuerdo? Entonces, si yo ahora no necesito entrar en Apple Esfera, ¿vale? Donde apenas hay publicidad, nótese la ironía, porque hoy día todos los medios de prensa, ya no es AppleEsfera, es todo el mundo, ¿vale?

    Todos los medios de prensa son la bacanal de la publicidad y de los banners, ¿vale? De hecho, no solo eso, es que luego siguen funcionando los típicos artículos mierders, estos típicos artículos de las veinte cosas que nunca que nunca supiste sobre Friends, las veinticuatro cosas que nunca imaginarías que no sé cuánta. Hoy no imaginarías cómo está ahora la hija de Chumbito, que era muy pequeñita y ahora está jamona, o sea, perdónenme, ¿qué me estás contando? ¿Vale? Pero estos artículos de mierda que meten muchísimos medios generalistas como El Mundo, como El País, como KeyDiario, bueno, el KeyDiario, pues, es una cosa, en fin, como el eldiario punto es, etcétera, a nivel de clickbait, ¿vale?

    No estoy hablando de lo que sería línea editorial, ¿vale? La línea editorial me da exactamente igual, ¿vale? Ya sabemos de qué pie coge a cada uno y de hecho me da vergüenza que esto sea así, porque un medio de prensa debería ser debería ser imparcial, ¿vale? Sí, pues, imparcial es la capital de Zambia comparado con la prensa hoy día, ¿vale? En este país.

    Porque aquí nadie es imparcial, aquí todo el mundo bebe de uno, se bebe de otros, y lo que hacen los demás es todo fatal de la vida. En fin, así nos va. Entonces, ¿qué es lo que sucede? Que todos estos medios, todos, están utilizando agregadores de contenido de mierda de ese tipo, de, ay, Ben Affleck, pobrecito, mira lo delgado que está por cumplir su contrato de sexo con Jennifer López. Os lo juro que esto es un artículo que yo he llegado a ver en medios de prensa generalistas y que provocan ese morbo del y cuando pulsas, si te paras a ver la cantidad de proveedores a los que mandan nuestra información, cuando le das a la parte de los datos privativos, ves que están enviando literalmente a cientos de trackers la información de que nosotros hayamos visitado esa página, y nos ponen por defecto para que vayamos rápido y le demos a aceptar todo, ¿vale?

    Mal, porque estamos aceptando literalmente cientos de trackers de terceros que, por suerte, si usamos Safari, son bastante menos, porque Safari lo que hace es ocultar, si tenemos activado el tema de el cross site con las cookies de terceros, ese tipo de seguimiento, pero aún así, o Jean, ¿qué necesidad hay de aceptar cómo hay por ahí más? Porque lo he llegado a ver, insisto, más de noventa y tantos elementos de, pues, ese tipo de mierdas, ¿vale? Entonces, de de noventa y tantos proveedores de terceros a los que ceden nuestros datos para hacer segmentación, etcétera, etcétera, publicidad, tal. Entonces, ¿qué me impide a mí hacer como yo puedo hacer ya ahora? Darle un artículo a ChatGPT y que me lo lea y me dé un resumen y no tengo ni que entrar al mismo y tragarme toda su publicidad?

    ¿Cuánto tiempo va a tardar? Porque, en fin, esto está la orden del día, ¿cuánto tiempo va a tardar Google, porque ya lo hace BIN, en darme la información por la cual yo no necesito visitar ni una sola página web, porque él ya se encarga de ir a la página web y darme la información. Cuando yo estoy navegando con ChatGPT, ya hay páginas que tienen formas de impedir que la inteligencia artificial, que ChatGPT, o Bing, chat en este caso, puedan leer su contenido. Al final vamos a terminar llegando a ese nivel, que estén los lo que son los gestores de contenido privados para que no puedan ser leídos por inteligencias artificiales, porque ríete tú del famoso Google News que tuvo que quitar Google aquí en España porque tenía que compartir, tenía que pagarle a los medios de prensa por usar su contenido. Entonces, ahora, ¿qué va a pasar?

    ¿Vale? Y volvemos a lo mismo, y en futuros modelos de GPT, ¿de dónde van a sacar el contenido? ¿Lo van a sacar de de ciertas páginas que a lo mejor no quieren que su contenido se utilice porque es un contenido monetizado? Porque ya les digo yo que todos los contenidos de prensa están más que metidos ahí directamente, todos los que no estén detrás de un muro de pago, obviamente, ¿vale? Entonces, al final vamos a ir direccionados a que uno o los medios sean todos a través de un muro de pago y tengamos que con Bloomberg o con The Information en Estados Unidos, ¿vale?

    Que solo nos dejan leer un artículo y, como mucho, y luego ya tenemos que empezar a pagar, o estarán en otro artículo, y como mucho, y luego ya tenemos que empezar a pagar, o estarán en otros sitios, ¿vale? Porque claro, ¿quién me obliga a mí ahora? Entonces, si yo ahora voy a un a un modelo en el que los modelos de lenguaje pueden ser capaces de leer por mí cualquier página y darme el resumen que yo necesito o extraer la información que yo estoy buscando, eso se cepilla el modelo de negocio de Google. Porque el modelo de negocio de Google es ese. Si yo ahora puedo ponerle un plugin a ChatGPT para que me busque viajes, que lo hay, ¿vale?

    Pues yo ya no necesito tener que ir a una web, comerme no sé cuántas cookies de terceros y que Instagram y todos los todas las redes sociales sepan que me quiero ir de vacaciones a Torrevieja, ¿vale? Alicante, con porque me han tocado un apartamento en el uno, dos, tres. Pues mire usted, pues pues no, ¿vale? ¿Sabe? O sea, si yo voy a poder hacer todo tipo de gestiones, de reservas de vuelo, de reservas de viajes, de reservar mesas, que también se puede, es que esto ya se puede hacer, ChatGPT, ¿de acuerdo?

    Y no necesito ir a una mierda de web en la que está plagado de publicidad y en la que está plagado de cookies de terceros. Entonces, todo eso va en contra del modelo de negocio de Google, todo eso le obliga a Google a rediseñar, a reinventarse por completo, porque si no, como decía la película, que muchos se creen, muchos piensan que que es real y no es de una película, de una película bastante simpática, ¿vale? Que es el famoso el famoso meme, ¿no? Del chaval que está ahí en la puerta, que su tía la puerta del banco y su tía es la limpiadora y que están en mitad de un atraco y le pregunta, bueno, ¿y está usted preocupado? Sí, sí, sí, que me quedó cinco mil, por lo mismo, ese es Google a día de hoy.

    Google mira las l l m y dice, que me quedo sin comer, pues es que ese puto Google entiende, porque se queda sin comer como no se reinvente, porque las l l ms han venido para reventar por completo el negocio de mierda que es hoy día la publicidad en Internet, que es invasivo, es molesto, es no tiene en cuenta para nada nuestra privacidad, ni tiene en cuenta para nada absolutamente nada, y hoy día no son conscientes de los millones y millones y millones de negocios que se sostienen en base a publicidad. Todo eso va a desaparecer, porque ya no va a tener ningún tipo de sentido, ¿de acuerdo? Y, por lo tanto, si Google no quiere quedarse sin comer, tendrá que reinventarse y tendrá que ofrecer su servicio de una forma distinta. Por eso Google ahora mismo no se sabe dónde está en este mundo, porque ahora alguien les ha obligado a salir y hacer lo que ellos no querían y habían descartado, que es convertir en un servicio los modelos de lenguaje para llevar más allá sus asistentes y para llevar más allá sus búsquedas, para crear una nueva forma de buscar información en Internet.

    Y por lo tanto, tendrá que existir una forma distinta de monetización, porque obviamente los medios de prensa, no ya los medios de prensa, los creadores de contenido, pues tienen que monetizar su trabajo, tienen que vivir de eso. Un una persona que, bueno, pues sea youtuber vive de las visitas a su vídeo, ¿qué pasa si de pronto hay de nuevo? Porque ya hay páginas que lo hacen, pero qué pasa si de pronto se, digamos, se populariza el usar plugins que cojan la transcripción de un vídeo de YouTube sin que tengas que verlo y te den el contenido tal cual, y te digan, pues sí, esto te cuenta aquí, esto esto y lo otro, y no tienes que verlo. O sea, ¿ustedes sabían que la media normal y habitual de cualquier vídeo, de cualquier canal de YouTube, es de una retención del de entre el treinta y el cincuenta por ciento, ¿vale? Tirando más al treinta que al cincuenta.

    ¿Qué significa ese porcentaje de retención? Significa que la gente no ve los vídeos, que los vídeos en YouTube no se ven completos, que la gente, de media, ve la tercera parte del vídeo. Yo cuelgo un vídeo de veinte minutos y mi vídeo de veinte minutos lo ven solo la tercera parte, no la tercera parte de usuarios, no, me refiero que la media de todos los que ven mi vídeo solo ven la tercera parte del vídeo, no lo ven entero, no ven los veintiún minutos, ven siete de ellos. Pero dirán, bueno, pero es que tú te enrollas como diez de pipa, también, pero y me da igual, o sea, un vídeo de cinco minutos, ¿vale? De cinco minutos, donde cuentas cosas muy concretas.

    Bueno, teniendo en cuenta que en YouTube, para empezar a monetizar, tienes que poner al menos ocho, ¿vale? Pero bueno, de cinco minutos, ¿vale? Pues un vídeo de cinco minutos pasa igual, o de ocho o de diez, la gente no es constante. Entonces, si la gente ya no está viendo el contenido, ¿qué le cuesta cuando haya una forma mucho más asequible de poder mandar y decir, oye, qué me está contando este? Pues, por ejemplo, yo veo normalmente vídeos de cocina, ¿vale?

    Soy así, tengo esa manía, hay gente que ve vídeos de de gente que explota granos y también los queremos, ¿vale? Entonces, yo veo vídeos de cocina, ¿vale? Yo sigo a a varios canales de de cocina, ¿vale? A Sbieta, etcétera, varios canales de de cocina, ¿vale? A Sbieta, etcétera, etcétera, y me gusta ver las recetas, etcétera, y me gusta ver también todo lo que tiene que ver con los restaurantes, ¿vale?

    Sigo también al famoso César Blue, el del accidente, el Tesla, veo también, pues, a a a varios, pues, de vez en cuando también a su ex amigo, el el cenando con Pablo este o el tardando, como dice el Yogurger challenge, en fin, toda esta gente que son, pues, como una piña, ¿no? A tan aullar, etcétera, son gente, pues, que me gusta el contenido que hacen, lo sigo, etcétera, y, pues, van a un restaurante, lo prueban. Claro, en fin, ¿qué puede pasar el día en el que un vídeo de César Blue que dura veinticinco minutos yo se lo mande a una IA y me diga, oye, ¿qué le ha parecido el restaurante a este tío? Y entonces la IA se vea toda la transcripción y diga, mira, pues, ha comido esto esto esto y esto, este plato le ha gustado más, este menos, este tal, este más, y en general es un sitio que él recomienda para ir, ya está. Ya sé lo que, o sea, ya ya tengo la información de lo que necesito de ese vídeo, no tengo por qué verlo, obviamente al no verlo no monetiza, no le doy una visita y ya está.

    Y aquí paz y después gloria, ¿vale? Porque simplemente se ha bajado los subtítulos o ha ido directamente al vídeo, que incluso lo puede tener ya cacheado, porque si es un vídeo que ya se lo han pedido varia gente, ya lo tendrá cacheado y por lo tanto no tendrá que volver a cogerlo y punto, y ya le hemos fastidiado el negocio a este pobre hombre que vive de esto, ¿no? Entonces, repito, tendrá que haber una reinvención a nivel general y por esto en muchas ocasiones he hablado de lo realmente importante que es todo este cambio y de cómo va a cambiar el paradigma completo de Internet y en cómo se monetizan los contenidos, porque ahora todo eso está a punto de cambiar, ya está cambiando y cada vez cambiará más rápidamente. En el momento en el que Google, que se está viendo forzada, dé el paso, todo esto cambiará y tendrán que buscar nuevas formas de monetizar, nuevas formas de ofrecer contenido, nuevas formas de hacer que el el SEM, ¿vale? Lo que sería el search engine marketing, que es el de pago, ¿vale?

    Funcione de una manera distinta, que el propio SEO funcione de una manera distinta, en fin, esto es un cambio que realmente no somos conscientes, ¿vale? Y todo esto viene volviendo el origen de el elemento a través de la salida de estos Transformers, ¿vale? Lo que los Transformers hicieron, ampliando las CNNs y las RNNs, fue introducir un nuevo enfoque, en lugar de leer palabra por palabra dentro de una secuencia y utilizar mecanismos que permitan recordar y asociar conceptos, pero de una manera más limitada, lo que hacen es utilizar mecanismos de atención para ver todo el texto a la vez y aprender las relaciones entre todas las palabras en una oración o párrafo, independientemente de su posición, ¿vale? A ver, ¿cómo diría? Esto puede sonar algo muy parecido a lo que es una RNN con memoria, ¿vale?

    Con lo que hemos comentado, pero vamos a verlo desde un punto de vista como si fuera una reunión de muchas personas, ¿vale? En el enfoque anterior con las redes neuronales recurrentes o con las CNNs, sería algo así como si yo estuviera en una reunión, ¿vale? Pero para escuchar, para poder atender a esa reunión tendría que ir cambiando, o sea, es decir, imagínense que es como una reunión donde, a ver, ¿cómo cómo lo diría? Imagínense, una reunión en la que hay diez personas, pero las diez personas no pueden estar a la vez en la reunión, sino que cada persona está al lado de otra, por lo que si la persona a le tiene que comunicar algo a la persona d, tendría que decírselo, a tendría que decírselo a b, b se lo diría a c y c se lo diría a d, porque no puede haber, por atención, no puede haber más de dos personas a la vez en la reunión, ¿vale? Insisto, esto es un símil para entender la diferencia entre cómo funciona una RNN con memoria y cómo funciona una lo que sería un Transformer, ¿vale?

    Entonces, el b va a ser capaz de recordar todo lo que le diga a y va a ser capaz de generar una nueva versión de lo que a le ha dicho para pasárselo a c, y c e también va a tener buena memoria y va a ser capaz de recordar y asociar todos los conceptos que Belle ha dicho para pasárselo a d, pero el problema es que si a y d se quieren comunicar, no se puede, porque tiene que pasar de a a b, de b a c y de c a d. Pues bien, los transformers es como si todos estuvieran a la vez en la sala, ¿vale? Ahora ya no hay problemas de comunicación, ahora da igual de dónde venga la comunicación y quien lo diga, todo forma parte de un todo, todo forma parte de un conjunto que le permite entender el contexto completo del contenido y las relaciones entre todas las palabras de distintas frases y de distintos párrafos, ¿de acuerdo? Esa es la diferencia, repito, haciendo un símil, entre una red neuronal recurrente trabajando con lenguaje natural y el cambio que supusieron los Transformers. Esta capacidad de los Transformers para ver y analizar todo el texto de una vez y entender el contexto global es lo que marcó la enorme diferencia en la precisión, en la capacidad de los modelos, etcétera, porque pueden capturar matices y relaciones dentro del lenguaje que los modelos anteriores no pueden, lo que lleva a un avance significativo en tareas, pues, como la generación de texto, la comprensión del texto, la traducción automática, la traducción del lenguaje natural hacia código de programación y viceversa, etcétera.

    Además, los Transformers abrieron la puerta a la creación de modelos de lenguaje más grandes, con mucho más contenido, que pueden generar textos que son más coherentes, que están bien informados, que responden preguntas, que escriben ensayos, etcétera. Es decir, los Transformers lo que hicieron fue transformar, valga la redundancia, el NLP, el modelo, lo que es el procesamiento del lenguaje natural, al permitir un enfoque más global y contextual del procesamiento del lenguaje, y todo eso llevó a unas mejoras que las estamos viendo poco a poco. Y todo esto tiene que ver también con la cantidad de memoria que se le dé a ese modelo de Transformer, el tamaño del contexto o el tamaño o lo que serían, que ese tamaño de contexto se define a través de los tokens. ¿Qué es un token? Que hablamos muchas veces de, pues, ChatGPT tiene no sé cuántos tokens, sí, no sé cuántos tokens.

    Un token en el contexto de un Transformer es una pieza de texto, ¿vale? Puede ser una palabra o un trozo de una palabra o incluso un signo de puntuación que dé un significado concreto, ¿de acuerdo? Por ejemplo, si yo en inglés pongo la la palabra don't, ¿vale? De do not, contraído, eso serían dos tokens, por el do en cuanto a lo que es el verbo hacer y el not abreviado del unt, ¿vale? Para que el don't sea el hacer como negativo, como expresión que niega la opción de hacer, ¿de acuerdo?

    El no hacer sería. Por lo tanto, esta división lo que hace es que nosotros hemos estado trabajando hasta ahora con un límite de ocho mil tokens, y ahora el nuevo chat GPT presentado por OpenAI hace nada, nos habla de ciento veintiocho mil tokens, ciento veintiocho mil tokens, ¿ok? Entonces, cuanto más grande es el contexto, más información puede considerar el modelo cuando responda y le permite generar respuestas más coherentes. Esto nos pasa, a mí me pasa mucho con ChatGPT, que ChatGPT se olvida de lo que dijo mucho más arriba, porque se sale fuera del contexto que es capaz de controlar, ¿ok? Entonces, si partimos de la base de que ChatGPT, repito, es una generación de texto, ¿Puede ChatGPT, puede un modelo GPT, cuando le demos mucha, mucha, mucha, mucha información y capacidad y lo unamos a ciertos plugins, llegar a permitirnos crear una inteligencia artificial general?

    Esa es una gran pregunta, porque el poder pasar de una inteligencia como GPT con lo que sería una inteligencia artificial estrecha a considerarla una AGI, que se refiere a una inteligencia artificial que tiene que poder entender, tiene que poder aprender, muy importante, y aplicar su conocimiento en una amplia variedad de tareas y contexto similar a la capacidad cognitiva humana, claro, ¿se puede conseguir? A ver, mi opinión es que no, pero partimos de una base muy importante, y es que no sabemos cómo funciona GPT por dentro. Y si tenemos un nuevo modelo, como el rumoreado QStar, que sería una especie de GPT cinco, en el que le habrían dado una cantidad de información tan enorme que hubieran podido llegar a replicar, porque al final el lenguaje es una parte clave de nuestra forma de aprender, y si a través del lenguaje, solo del uso del lenguaje, podemos conseguir con suficiente información dada un modelo de lenguaje, que este sea capaz de aprender por su cuenta y poder generar, poder incluso reprogramarse a sí misma. Uf, claro, yo no me atrevería al decir al cien por cien que esto no es posible, porque insisto, no sabemos lo que hay dentro de los modelos de lenguaje, ese es el kit de la cuestión, ¿ok?

    Por lo tanto, en fin, si hacemos modelos de aprendizaje más generales, un GPT que esté diseñado para tener más capacidades generales de procesamiento y generación de texto, modelos que también, como sucede ahora, puedan entender imágenes, puedan llegar incluso a entender en algún momento vídeo, puedan ser capaces, imagínense, que en unos años, o a este ritmo, en unos meses, pudiéramos tener una inteligencia artificial que ya hay

    pruebas que lo

    hacen, una inteligencia artificial capaz de hacernos comentario de un vídeo, ¿vale? Es decir, que nos hable, que nos cuente qué es lo está pasando en ese vídeo en tiempo real, ¿vale? Como lo haría un comentarista deportivo. Imagínense cómo podríamos llegar a ese nivel. Entonces, los Transformers han mejorado significativamente la capacidad de los modelos para entender y utilizar el contexto, pero una AGI necesita una comprensión mucho más sofisticada de todo el contexto y la capacidad de aplicar el conocimiento general que tiene en una amplia variedad de situaciones, por lo que para avanzar hacia la AGI necesitaríamos integrar distintos tipos de conocimiento, de habilidades de procesamiento, de comprensión del lenguaje, de la percepción visual, ya no solo el hecho de ponerle una imagen que yo le envío, sino poder tener esa percepción visual de una manera mucho más directa, incluso insisto a nivel de vídeo.

    Pero una cosa también muy importante, el razonamiento espacial y lógico, ¿vale? Los actuales modelos de GPT, a ver, están enfocados en el lenguaje y tienen plugins que les permiten o tienen modificaciones. Al final, dicen no, es un modelo multimodal que también admite imágenes. No, en realidad lo que hace GPT no es entender una imagen, es un modelo multimodal de trampa, ¿vale? Porque en realidad lo que está haciendo es como cuando yo hablo con GPT.

    El otro día estuve hablando con GPT a través de la aplicación móvil, que de hecho ya han liberado esa opción también para los modelos, para la gente que no es de pago, ¿vale? Entonces yo puedo descargarme la app de ChatGPT y hablar con ChatGPT, y yo le pregunté a ChatGPT, oye, ¿me estás escuchando? Y me dijo no, no, lo que estoy haciendo es transcribir tu voz, yo voy hablando, la transcribe y la trabaja como texto. Pues, en las imágenes pasa exactamente igual, cuando yo le envío una imagen, él no ve la imagen, la pasa por un modelo que es capaz de describir una imagen y él trabaja con el texto que ha tenido ese elemento. Entonces, eso no lo convierte de una manera absolutamente firme y práctica, no lo convierte en una multimodalidad, porque en realidad es como un programa que tú le has puesto antes para que sea capaz de coger una imagen, describirla y a partir de ahí procesar la información de dicha descripción para tomar, bueno, pues, por ejemplo resúmenes o tomar decisiones respecto a la misma.

    Entonces el típico ejemplo que pone ChatGPT en el vídeo de presentación cuando presentó GPT cuatro, de si yo le le pongo una una imagen, ¿no? De un un globo que va a caer en una tabla y hay una cosa en dicha tabla, pues le dices, ¿qué va a pasar cuando caiga el globo? ¿No? Pues, ChatGPT dice, no, pues cuando caiga el globo golpeará la tabla y lo que hay en el otro lado saldrá volando, ¿vale? Y tú dirás, joda, es inteligente, no, lo que ha hecho es que le ha descrito ese modelo, le ha descrito cómo es la imagen, y a partir de esa descripción él, procesando con el propio GPT procesando texto, llega a esa, entre comillas, conclusión.

    Por lo que eso en realidad no es una ágil, pero podría llegar el punto en el que cuando metamos tanta tanta tanta información y tantos y tantos plugins que permitan que un modelo de texto sea capaz de coger cualquier tipo de contenido intermedio y procesarlo incluso en tiempo real para que pueda trabajar con esa información, ¿podríamos llegar a ello? Esa es la pregunta que yo no soy capaz de contestar a día de hoy, ¿de acuerdo? Que yo creo que no, yo creo que no, creo que habría que hacerlo de una manera totalmente distinta, porque la AGI requiere avances en cómo las máquinas aprenden, cómo generalizan a partir de la información, y eso tendría que incluir mejoras en el aprendizaje por refuerzo, en el aprendizaje no supervisado, en los paradigmas de aprendizaje automático. Una AGI necesitaría comprender y navegar por complejidades éticas y sociales, y eso sí que es un reto bastante grande que va más allá de la mera capacidad técnica o de lo que sería una programación hecha por la gente. Es decir, todo lo que son cuestiones filosóficas y éticas, a día de hoy, forman parte de una programación que se realiza de filtrado de lo de lo que le entra y lo que sale del propio modelo, ¿ok?

    Pero no es una característica del propio modelo, es un filtro que tiene en medio, ¿ok? Entonces, esta parte ética y filosófica tendría que estar dentro del propio modelo como parte de su entrenamiento, ¿vale? Por lo que, aunque los modelos de Transformers han mejorado muchísimo, la verdadera AGI es mucho más completa, más compleja, más multifacética e implicaría mejoras a muchos más niveles en cómo las máquinas, el software, aprende, interpreta e interactúa con el mundo, ¿vale? Entonces, obviamente, si yo tengo un modelo GPT que tiene un contexto tan amplio como el de los ciento veintiocho mil tokens, o imagínense lo que puede tener OpenAI en modelos que tengan tokens mucho más altos, incluso ilimitados, y que puedan estar probando, puede ser que este QStar tenga un límite, o sea, no tenga límite en los tokens, porque se está usando para pruebas. Entonces, en fin, necesitaría mucho más, ¿vale?

    Porque aunque un contexto más amplio permita recordar y referenciar más información, no equivale a la a una comprensión profunda, y una ágil requeriría no solo recordar la información, también comprender conceptos abstractos, comprenderlos, realizar ¿Cuál es ¿Cuál es el punto en el que Q Star ha dicho, hostia, espérate, que esto no se esperaba? Pues es el punto en el que Q Star, parece, según los rumores, es capaz de realizar operaciones matemáticas a partir de lo que sería el entrenamiento por texto, ¿vale? Es decir, ha aprendido a hacer operaciones matemáticas sin tener que ponerle, como se le ha puesto a GPT cuatro, un elemento que detecte una operación matemática y entonces lo derive a un programa específico, una especie de plugin que utiliza el propio GPT como con las imágenes, ¿vale? GPT no, o sea, GPT no es capaz de generar imágenes de por sí, GPT lo que hace es usar a Daly tres como un plugin, generar el promp, pasárselo a Daly tres y que Daly tres genere la imagen, pero la imagen no la está generando GPT, la está está creando el promp, ¿de acuerdo? Y muchas veces tú le pides cosas a GPT y luego el promp hace lo que le da la gana y la imagen no concuerda con lo que has pedido, porque, bueno, pues hay ciertas etiquetas que no están correctas en el modelo.

    Entonces, claro, no, no no no es tan fácil. Entonces, ¿qué sucede? Que WStar parece ser que habría aprendido a matemáticas solo con la cantidad de información que ha recibido para su entrenamiento. Este supuesto GPT cinco o Q Star. Y ahí es donde han dicho, espérate, a a ver si dándole la suficiente información de entrenamiento con un contexto lo suficientemente grande a la hora de trabajar con él, pero principalmente los datos de entrenamiento, ¿puede llegar a conseguir aprender por sí mismo cosas para las que no está programado cómo hacer matemáticas?

    Cosa que ya sabemos que GPT tres no funciona, y GPT cuatro fue capaz de hacerlo porque conecta un plugin externo que es el que hace las matemáticas, pero él no lo hace porque es un modelo de texto, no es capaz de entender las matemáticas. Pero si un ser humano es capaz de entender, vamos a ponerle entender entre muchas comillas, cómo realizar operaciones algebraicas, algorítmicas, matemáticas, lógicas, Directamente a partir de la entrada de un montón de información, ¿podría una IA también aprenderlo a base de tener mucha información? Ese es el paradigma, esa es la duda, ese es el lo que no sabemos realmente si será o no así, ¿vale? Porque claro, una IA para que se acerque a una AGI necesita integrar y aplicar conocimientos de, pues, no solo lenguaje, visión computurizada, razonamiento lógico, percepción sensorial, ¿vale? También tiene que especializarse en tareas que no puedan ser fácilmente transferidas a nivel de conocimiento entre distintos tipos de tareas o dominios, y no sirve solo plugins que yo le ponga, que yo me temo que es la aproximación que OpenAI quiere realizar, poner plugins para que esos plugins hagan lo que GPT de por sí no es capaz de hacer, pero ¿esos podría ser una AGI?

    Pues yo ahí sí casi diría que no, ¿vale? Porque además las AGIs, una característica clave que tienen que tener es la capacidad de aprender de manera eficiente y adaptable cosas que aún no sepan, ¿vale? No solo a partir de grandes conjuntos de datos, sino también a través de la experiencia, la observación y la interacción con el entorno. Y los modelos actuales requieren de grandes cantidades de datos y tiempo para aprender y no se adaptan rápidamente a situaciones nuevas o cambios de entorno. Ahí tenemos a GPT, que hasta hace nada, ha seguido teniendo un entrenamiento que llegaba hasta hasta diciembre dos mil veintiuno o enero de dos mil veintidós, dependiendo del momento en el que te tocara el nodo que te tocara.

    Entonces, si GPT no es capaz de aprender, es decir, GPT ahora mismo yo le hablo, él sabe lo que le hablo, me me me puedo tener una conversación con él, etcétera, preguntarle cosa tal tal tal tal, pero cuando cree una nueva, él no se acuerda del resto ni ha aprendido del resto de conversaciones que ha tenido con él. Una AGI debería de aprender del uso, debería de aprender en tiempo real del uso que hacen millones de personas día a día. ¿Puede ser que eso lo hayan conseguido? Eso es un cambio de paradigma en el uso de la ILA muy importante, ¿vale? Por lo tanto, no podemos olvidar este tema.

    Una ILA para ser ágil, ser una inteligencia artificial general, necesita aprender de su experiencia, y esto lleva implícito un montón de problemas sobre privacidad, sobre información, sesión de datos, etcétera. Porque, ¿yo quiero que la ya aprenda? Sí, mis mi historial de conversación está permitido para que pueda ser utilizado en próximos entrenamientos, pero los próximos entrenamientos es porque, pues eso, porque yo, porque porque GPT en un momento determinado coge toda la información de las conversaciones que puede coger y se reentrena para aprender mejor, para tener más información. Genial, pero hace falta reentrenarlo. No, una AGI no necesita ser reentrenada.

    Una AGI aprende por refuerzo en tiempo real. Yo creo que ese podría ser el mayor escollo que podría encontrarse a día de hoy la agi, aparte de preguntas sobre aspectos como la conciencia, las emociones, la ética, elementos intrínsecos a la inteligencia humana y su interacción con el mundo, que son las áreas donde una un software ahora mismo, en fin, están bastante lejos de alcanzar cualquier tipo de equivalencia, ¿vale? Entonces, en fin, claro, esto es como todo, si hacemos como los políticos, que cuando les conviene, como algo no es algo, lo que hacen es cambiarle el nombre y ya es lo que ellos quieren. Pues, hombre, si yo redefino lo que es una AGI, pues sí, podría tener una AGI, pero es porque le he cambiado el nombre. Ahora ya lo que antes no era una AGI es AGI, pues eso es trampa, ¿vale?

    Entonces, en fin. La AGI debería de ser capaz de interactuar y comprender el mundo real de una manera similar a los humanos, incluyendo no solo procesar información, sino comprender y navegar en un entorno físico y social, y además ser capaz de retroalimentarse con ese aprendizaje en tiempo real, ¿de acuerdo? Ese es el tema, la el concepto de la autoprogramación y el autoaprendizaje, que una ya pueda programarse y entrenarse a sí misma para adquirir nuevas habilidades en tiempo real, un nivel de autoconciencia, de curiosidad, de capacidad de aprendizaje. Y ya lo decía Oliver Navani, mi amigo Oliver Navani, y yo estoy totalmente de acuerdo con él, en el momento en el que haya una verdadera AGI, la super inteligencia artificial está a horas, el paso es directo, ¿vale? Entonces, en fin, lo que tenemos ahora es un photoshop vale, lo que tenemos ahora es un photoshop que tiene un montón de plugins y que se van añadiendo y le van dando capacidades, pero no es una inteligencia artificial general.

    Ahora, ¿qué es lo que ha conseguido OpenAI concuestar y que ha propiciado todo este lío de los despidos de tal de Satia Ana Vela salga y diga no, yo confío en San Altman porque para mí es el gurú y tal y yo siempre lo tendré en mi corazao y etcétera etcétera, pues ha sido todo parece ser. Repito, sobre el tema de Q Star, sobre el tema de la Agi y sobre que una Agi sí es, en cierta forma, o no en cierta forma, peligrosa, muy peligrosa si no se controla de la manera apropiada, ¿vale? Y como todavía no sabemos exactamente cómo funciona la IA ni siquiera cómo funciona GPT tres en todas sus conexiones de su red neuronal, pues está la cosa como para estar con un GPT cinco jugueteando. Ese es esas son las los miedos que ha tenido el comité directivo, esos son los miedos que tiene gente como Elon Musk, ¿vale? Y que, pues, en fin, hay que tenerlos en cuenta, ¿vale?

    No podemos pensar siempre solo en positivo, Hay cosas con las que hay que tener cuidado, ¿de acuerdo? El coche está guay pero hay que poner algo para que la gente siga unas reglas, porque si no el coche, pues puede causar bastantes problemas, ¿vale? De accidentes, destrozos, atropellos, etcétera, ¿no? ¿No? En fin, ese sería un poco el tema.

    Así que, con esto, decimos aquello de y poco más. Y poco más, espero que les haya gustado el episodio. Básicamente, como ya comenté, a ver, no iba a hacer un repaso de lo que ha sucedido en detalle y de que Paco dijo esto y tal, y luego le contestó Josefina, y entonces le dijo fíjate tú, pues la culpa es tuya, pues es que no sé qué, pues acá me da, no, o sea, en fin, no voy a hacer, pues porque esto ya es marugeo, ¿vale? Aquí, bueno, pues el marugeo sí está divertido, pero la el protagonistas dentro de OpenAI, qué es lo que protagonistas dentro de OpenAI, qué es lo que ha hecho durante estas durante esta semana, poco más de una semana que ha durado todo esto hasta que se ha resuelto, y también, pues ver, bueno, pues todo lo que tiene que ver con lo que hay detrás, ¿vale? De ese conflicto con respecto a las AGI, a las inteligencias artificiales generales, porque al final el kit de la cuestión está en que las AGIs, pues sí, muy bonito que OpenAI ponga trabajando por una AGI etcétera, eso está genial y sería estupendo y maravilloso, pero claro, también es un concepto disruptivo bastante importante porque cambia por completo el modelo productivo, y esto es algo en el que con lo que ya tenemos ya hay que trabajar con ello, es decir, solo con lo que ya tenemos a día de hoy el modelo productivo ya cambiado para siempre, y lo que va a salir en los próximos meses no va a hacer más que apuntalar ese cambio, por lo que vamos a tener una serie de nuevas herramientas, tenemos ya una serie de nuevas herramientas que van a crear distintos tipos de perfiles profesionales que se van a adaptar o no a utilizar estas nuevas herramientas, si van a ser más productivos o no, y que van a provocar, y esto es algo que va a pasar, dos posibles vertientes.

    La vertiente a es que trabajemos menos, que lo mismo que producimos a día de hoy pueda ser producido en mucho menos tiempo, menos tiempo y, por lo tanto, que podamos trabajar en esos horarios que algunos dicen de menos horas poder trabajar, porque ahora mismo nosotros estamos acostumbrados a que el fin de semana son dos días y el trabajo son cinco, y tenemos una jornada laboral semanal, al menos en España, de cuarenta horas, es lo que se entiende como una jornada completa. Ahora van a van a reducirlo, lo van a pasar a treinta y siete y medio, luego quieren pasarlo a treinta y cinco, dicen que es mejor, que cobrando el mismo salario, etcétera. Bueno, esos son temas políticos tomadas, decisiones tomadas por políticos que no tienen ni idea de lo que realmente puede hacer o no, y que lo que deberían hacer, y esto ya es mi punto de vista personal, es que vale, muy bien, tú quieres reducir la jornada laboral laboral, genial, redúcela, pero ayuda a las empresas, ¿vale? No me subas por decreto el salario mínimo o no me subas por decreto el o me bajes por decreto el número de horas si no hay un esfuerzo que esté por los dos lados.

    Es decir, si yo como empresario tengo que hacer el esfuerzo, vale, lo hago, no tengo ningún problema, pero oye, pon de tu parte también, ayúdame a reducir las cotizaciones salariales, dame algún tipo de bonificación por cumplir ese tipo de objetivos, no sé, algo que a mí me ayude a adaptarme a ese cambio, algo que luego con el tiempo me lo quites, pero mientras me adapto al nuevo modelo productivo necesito un tiempo de transición, necesito que alguien me eche una mano en ese tiempo de transición para poder adaptar mi negocio a que siga produciendo lo mismo o más con ese cambio de salarios o de jornada. Pero esto ya no es cuestión de lo que yo quiera hacer a nivel de empresa o no, lo que diga un político, no, no, es que esto va a pasar, ¿vale? O sea, es una de las opciones. Puede ser que ahora el trabajo que nosotros estamos obligados a hacer en cuarenta horas podamos sacarlo en treinta o en veinticinco o en veinte, y a lo mejor nos encontramos en unos años donde podemos empezar a trabajar solo tres días de los cinco de la semana y tener tres días de trabajo y cuatro de fiesta, fiesta entre comillas o no trabajo, o que el total de horas podamos repartirlas durante la semana y seguir, insisto, cobrando lo mismo.

    Obviamente, para eso necesitaremos un cambio de modelo productivo, necesitaremos un cambio de adaptación a todos los niveles, es un cambio muy grande, pero puede ser una opción. La otra opción es que no se reduzca nada y que simplemente produzcamos más, que es lo que ha pasado históricamente hasta ahora, que cuando ha habido herramientas que han permitido ser más productivos, pues lo que se ha hecho es producir más y punto, y no se ha reducido la obligatoriedad o la o, vamos, digamos, la la, digamos, esa obligación, ¿no? Por parte de los trabajadores de seguir trabajando. En fin, a lo que me refiero es que hay que replantearse desde un desde un punto de vista no político práctico y sobre cosas reales entendiendo el cambio de paradigma productivo, ¿cómo podemos redefinir nuestra sociedad? Porque nuestra sociedad va a tener que ser redefinida tarde o temprano, ¿de acuerdo?

    Porque con todas estas nuevas herramientas podría ser que no hubiera trabajo para todo el mundo, o que se se se necesitara una especialización mucho mayor porque todos los trabajos de menor es lo que ha pasado cada vez que ha habido una revolución. No lo digo yo, lo dice la historia, cada vez que ha habido una revolución a nivel de productividad con un cambio en el paradigma industrial, tecnológico, etcétera, lo que ha habido es una desaparición de los trabajos de menor perfil, de menor cualificación y se han sustituido por trabajos de mayor cualificación que, obviamente, requieren más estudios, más años, más separación, más experiencia. Bueno, pues todo eso habrá que planteárselo, ¿no? Digo yo, en fin, todo esto son ideas al aire que planteo y que, bueno, pues, simplemente es para que podamos pensar en ello, ¿no? Pensar en cómo va a cambiar esto y en qué cosas tendríamos que tener o no en cuenta, insisto, desde mi humilde punto de vista, desde este pequeño rincón del mundo.

    Y poco más, muchísimas gracias por, bueno, pues por estar ahí, por escucharnos. Me alegro un montón si les ha gustado. Ya saben que, como les pido siempre, por favor, ayúdennos porque el podcast, pues ha bajado bastante a nivel de audiencia, ¿vale? No sé el motivo, no sé el por qué, entiendo debe ser por la poca, o sea, por la falta de frecuencia, ¿vale? Que ha debido de haber mucha gente, pues, que se ha cansado de que hayamos estado meses sin publicar.

    En esa parte mea culpa, lo entiendo perfectamente, pero, bueno, aquí estamos, vamos a cumplir con esa con esa periodicidad planteada de de dos, tres semanas, como mucho, entre distintos episodios, a darles mucho más contenido y, por supuesto, pues, pedirles que nos ayuden a compartirlo, a que nos hagan, pues, nos pongan una reseña en iTunes o un comentario en iVoox o cualquier tipo de interacción que puedan hacer sobre los podcast, y también, pues, compartirlo en sus redes sociales. Ya saben que pueden nombrarme a mí en todas las redes como arroba jc arroba arroba Mastodon punto social, ¿vale? Si quieren ir a Mastodon, estoy también en incluso en Blue Sky, también como JCF Munoz, en fin, pueden encontrarme en un montón de sitios y, por supuesto, también en LinkedIn, donde pueden encontrarme, pues eso, en LinkedIn punto com barra in barra JCF Munoz, ¿vale? Entonces, ahí estaremos para lo que sea menester, así que si comparten, si les gusta el programa y quieren compartirlo, pues, por favor, siempre menciónennos para así poder recompartirlo y, además, pues, nos ayudan muchísimo para que la gente, bueno, pues descubra este estos podcast, ¿vale? Poco más, muchísimas gracias.

    Nos oímos pronto si dios quiere, y hasta

    Gracias por escuchar Apple Cody, un podcast perteneciente a la red independiente de podcast Wonda. Suscríbete en Qonda punto com barra Apple guión código, o síguenos en nuestras redes sociales.

    Puedes escuchar más episodios de Apple Coding en Wanda punto com. Descubre nuevos podcast en Wanda punto com, la comunidad de podcast independientes en español.

    Episodios recientes