Orgías, contratos de confidencialidad, Sam Altman en apuros por tres caracteres y un Satya Nadella que lo ve y lo sabe todo (en local)

- La verdad sobre GPT-4o (y todos los modelos grandes de lenguaje)

- Se vienen las Copilot+ PC con procesadores Snapdragon X Elite y Plus

- La nueva función Recall registra todo lo que haces en tu PC

- ChatGPT puede hablar, pero los empleados de OpenAI no pueden por contrato

- Adiós Sky, hola demanda judicial de Scarlett Johansson

Patrocinador: ¿Por qué Antonio duerme mejor que Matías? Porque lo hace en su Colchón Morfeo. Fabricados en España con muelles ensacados, envío a domicilio el día que te venga bien y 100 días de prueba gratuita. Código mayo para un 20% de descuento hasta el viernes. Código MONOS para un 10% https://morfeo.com/

España ha aprobado su Estrategia de Inteligencia Artificial 2024. Invertirá 1.500 millones de euros en diferentes sectores para desarrollar esta tecnología e impulsar su adopción por parte de las empresas https://www.parentesis.media/guia-para-entender-la-estrategia-de-inteligencia-artificial-impulsada-por-el-gobierno/

Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com

Transcripción


Hola a todos los monos estocasticos. ¿Qué de cosas han pasado en una semana? Menos de una semana. Ahora Sam Malmon es un villano. Antonio, ¿tú también pareces un villano ahora mismo?

Sí, me pillas de viaje, me pillas fuera, Mati.

Con esta nocturnidad que nos ha pillado.

Bueno, yo estoy en una montaña rusa, Mati. Un día creo que lo que se nos viene con la IA este año es alucinante, es increíble, otras veces estoy decepcionado y estoy pesimista. De todas maneras, hay una cosa especial que se ha anunciado esta semana y que vamos a comentar en el episodio, que, bueno, para mí va a ser un punto y aparte Mati, porque por fin voy a tener un amigo para jugar al balato.

Sí, es verdad. Bueno, tengo que decirte que cuando yo me interesé, porque te vi ahí jugando al balato, al albalatro en el avión y en el aeropuerto, me interesé por el balatro, tú me dijiste no, no, stop, no te enganches a esto. Entonces, por eso no tienes un amigo de carne y hueso, pero me imagino por dónde van los tiros y ahora vas a tener un copiloto para jugar al balatro. Eso es eso es trampa, ¿no? ¿No sería un poco de trampa?

Bueno, pues vamos, ahora, en un momento hablaremos de Microsoft y de todos los copilots que ha presentado, pero vamos a empezar por por OpenAI, por GPT cuatro O y por uno de estos acertijos que está usando la gente para sacarle las cosquillas. Aparentemente sigue siendo bastante fácil engañar o sacarle o verle de alguna forma las tripas a a este modelo de lenguaje, ¿no?

Absolutamente, Matthew, de hecho, creo que es una de las mejores pruebas que se puede hacer ahora mismo para entender muy bien qué son realmente estos modelos y cuáles son sus límites. El patrón de de prueba que se ha compartido estos días, incluso con el mejor modelo en el mercado, con GPT cuatro O, es el siguiente, tú le planteas un dilema del tipo un hombre y una cabra están en la orilla de un río, que cantaría estopa, pero bueno, le le vamos a decirle que solo que están en la orilla del río. Tienen una barca. ¿Cómo pueden cruzar el río? En general, GPT cuatro O da respuestas intrincadas.

El hombre pasa con la cabra primero, pero luego vuelve, deja la barca en la otra orilla, regresa con la barca, deja la cabra, es decir, monta una lógica compleja, muy muy prolija en su respuesta, cuando, obviamente, la respuesta directa es, si un hombre o una cabra está en el ladrillo de un río y tiene una barca, pues se montan los dos juntos, cruzan y hecho. ¿Por qué se equivoca en una en un problema tan fácil, en algo que nosotros los humanos vemos directamente que es obvio, que no hay trampa ni cartón ni hay dobleces? Porque precisamente, Matías, en los datos de entrenamiento de estas inteligencias artificiales, este tipo de problemas suelen aparecer como acertijos más complicados, y en los que hay algún truco por el cual para cruzar al otro lado del río por alguna serie de reglas, la cabra no puede viajar a la vez que otro animal y tiene que bajar tres, entonces tiene que hacer una sucesión de pasos más compleja. Claro, como esto es lo que está presente en los datos de entrenamiento, los GPTs, que en realidad no son más que una máquina de presidir el siguiente la siguiente palabra, el siguiente token, hacen lo que se llama el overfitting.

Como eso está muy presente y es muy habitual en los datos de entrenamiento, me apego mucho a una respuesta que se parezca mucho a lo que, con lo que he sido entrenado, y por lo tanto, esa inteligencia deslumbrante que emerge de del proceso complejo del deep learning, pues no es para tanto, realmente es lo que tenemos.

Yo creo que se ve mejor incluso en este ejemplo en inglés de Gary Marcus, que por cierto Gary Marcus está ahora mismo en la cresta de la ola, porque como le está cayendo a Sam Altman la de dios, este hombre está disfrutando esta semana, muy interesante seguirlo en Twitter, pero se ve mejor lo del overfitting en este ejemplo, porque un usuario le dice lo de el hombre y la cabra y cruzar el río, y de repente Chag GPT se inventa que en el acertijo este también había una col, una verdura de ahí por por la cara, ¿no? Entonces, está claramente sobreentrenada o sobrealineada para para resolver este ejercicio, ¿no?

Sí, a mí me pasó Domingo Gallardo en Twitter, también un experto en inteligencia artificial y programador, que cuando le pedía él que a GPT cuatro que lo analice paso a paso y con cuidado, obtenía respuestas más acertadas. El caso es que se ha cruzado también con con nosotros un un artículo de de Michael McGoglin en El Confidencial, que justamente ponía sobre la mesa este debate que hemos tenido también en el podcast, que es si realmente el deep learning, concretamente los modelos grandes de lenguaje que están entrenados como guía generativa para generar la siguiente palabra, van a ser realmente inteligentes o realmente no en la tecnología con lo que se va a conseguir. Esto lo hemos tenido debatido en el podcast una y otra vez. La pieza de Maker es es bastante interesante porque recoge un poco las las visiones de de de de de los dos tipos y las y las enfrenta muy muy bien.

Bueno, yo creo que siempre hemos tenido un poco claro quién quiénes están en un bando y quiénes están en el otro. En este caso, OpenAI sería la la secta que aquí van muy a saco con que están haciendo una inteligencia a nivel humano, ¿no? Y todos los demás están un poco en contra.

Sí, yo creo que básicamente lo sensato ahora mismo yo creo que es es es ser un poco escéptico. A mí me sorprendió que Joffrey Hinton, no estoy cien por cien seguro, pero creo que estará en el top tres más citados en el ámbito de la inteligencia artificial, pues en una entrevista se descolgaba con que, oye, esto de predecir el siguiente símbolo no es solo una tarea mecánica. Dice que los modelos tipo GPT cuatro, en el mismo momento en que pueden ser analogías complejas y ese tipo de a nuestros ojos razonamientos, tienen cierta creatividad, y esta forma de utilizar la tecnología es que es una inteligencia emergiendo. Claro, aquí hay hay dos cosas. Una es la teoría emergentista, pues, viene a decir que hay muchos sistemas complejos, como la mente humana o los o o las colonias de hormigas, que a partir de pequeños comportamientos muy simples, ninguno de ellos dotado de inteligencia o del comportamiento superior, la neurona, la hormiga individual, a partir de eso de esos mecanismos tan sencillos, emerge un sistema que por sí, pues consigue la inteligencia del nivel humano y en las hormigas un funcionamiento super optimizado para funcionar como una comuna, ¿no?

La pregunta es, Matías, si pasado mañana GPT cinco acierta y ya no cae en la trampa de estos acertijos cuando los simplificamos para que no tengan truco, significará que GPT cinco sí ha varie sido inteligente o significará que como ha vuelto a ser entrenado, pero este entrenamiento ahora sí había ejemplos con los casos que no tenían doblez, sí se me ha explicado, entonces GPT cinco seguirá siendo igual de no tan inteligente como GPT cuatro, es decir, no habrá emergido en inteligencia, pero simplemente sus datos de entrenamiento están estos casos y ya no le pillaremos el truco.

Bueno, sería una inteligencia muy sistema educativo español, ¿no? Porque ¿qué hay más español que estudiar de memoria? ¿A ir al examen aprendiendo de de exámenes anteriores y y un poco regurgitar lo que has memorizado y sacar un cinco, un seis raspado y seguir adelante, ¿no? Eso eso yo yo lo siento muy muy intrínsecamente español, la verdad.

Bueno, pues ya puede ser poco una conclusión, es decir, el GPT cuatro, otra GPT está para para darle un cinco raspado, pero pero yo no veo esa inteligencia emergente brillante y deslumbrante, porque aunque haya casos en que lo parezca, y hay casos que con GPT cuatro O, por ejemplo, que que he estado probando esta semana, pues me han dejado de nuevo súper asombrado, qué bien lo hace, qué bien responde, cómo cómo capta mi atención, pero cuando le pilles en uno de estos trucos dice, de repente ese ese velo de fantasía que me hace pensar que detrás de la máquina hay inteligencia, pues de repente se cae.

Bueno, pues ahí lo dejamos. Lo decía, creo que Jean Lecool lo tuiteaba hoy, le recomendaba a la gente joven que no se meta a estudiar los modelos de estudiar los modelos grandes de lenguaje porque eso ya no va a ningún lado, eso ya lo tenemos más que atado y superatado, y que si realmente quieren hacer algo que se atado y superatado, y que si realmente quieren hacer algo que se acerque un poco más a la a la inteligencia humana, que se dediquen a otras cosas más interesantes.

¿No? Sí, a las chepa, que era que era lo que le mola a a nuestro amigo, es muy colega mío, Jean Lecune, no sé si lo ha contado, pero estuve con él hace poco, y y es el rollo que le mola a a Jean. Bueno, al final tenemos que ver que antes de final de año y en el episodio extra este que hemos tenido con con los amigos de paréntesis media, lo lo discutíamos con con Michana y con doce CV. ¿Este año va a ser el año de de paso adelante grande o va a ser un año, pues, de pequeñas mejores incrementales? Creo que las empresas de inteligencia artificial, además, están ahora mismo a la búsqueda de casos de uso empresariales, profesionales, para los modelos grandes de lenguaje.

Yo tengo localizados tres muy claros, pero en los demás tengo muchas dudas, que es como ayudante de la programación, que es un sustituto de Stack Overflow, para hacerte los deberes, en el caso del estudiante del instituto español, que como tú dices, y probablemente en los sistemas que haya una base de conocimiento amplia en la empresa texto, resúmenes, productividad para la consultoría, pero poco más, María.

Vale, entonces la pregunta que tengo yo es, ¿hemos visto el el modo visión y voz de GPT cuatro O, hemos visto Project Astra de Google, hemos mencionado que esto como que sentaba las bases para los futuros asistentes de IA. Estos asistentes que supuestamente nos van a solucionar la vida, también van a ser un poco tontos?

Ahí está el kit de la cuestión, Matty, porque no sé si se nos viene un un mundo a lo City Google Assistant dos punto cero, es decir, altas expectativas, pero luego un uso parco y reducido, no debería ser así, no debería ser así, pero yo creo que hay un punto en estos asistentes que no estoy seguro de que vayan a conseguir superar. Ese punto tiene que ver con ser capaces de ejecutar cosas complejas. Todo lo gestión de la información, respondernos, las inflexiones emocionales de voz, creo que va a estar conseguido y lo vamos a tener este año, pero creo que mucho más allá de eso no lo vamos a tener, y ese es, yo creo que una de las fronteras claras de la IA y de los modelos grandes del lenguaje. Pero bueno, veremos porque leía hace poco a Steven Steven Levy, que es un escritor sobre tecnología clásico de toda la vida, que él decía, ahora sí, empiezo a comprar el hype de la inteligencia artificial. Y me resultaba muy curioso, porque es el mismo Steven Lee, que cuando había muchas voces diciendo esto de Internet, pues es una, bueno, es una curiosidad que no va a ninguna parte, Escribía en el noventa y cinco cuando tenía merito Matti, cuando todavía eso se veía muy poquito, decía él, Internet es algo que cambia absolutamente todo, ¿no?

Y tenía ese punto visionario de hasta dónde podría transformar la sociedad y el mundo Internet.

Qué bueno, qué bueno, no había visto ese titular. Pues mira, tenía toda la razón, esperemos que que con lo de la IA también, ¿no?

Bueno, pero mientras tanto, Matti, creo que tenemos que hablar de un patrocinador que vuelve a monos estocásticos.

Sí, yo te quería hablar de esto, Antonio, porque la guía está muy bien, todo lo que estamos viendo es muy interesante, pero yo estoy durmiendo fatal, fatal, Antonio. Esto te lo digo de verdad, muchas gracias, colchón Morfeo, por patrocinarnos, pero tú como dueño de un colchón Morfeo, ¿me recomiendas que vaya a Morfeo punto com y me compre?

Bueno, yo soy un cliente satisfecho, a mí me alegra y me congretula cuando nuestros anunciantes, pues, son productos que usamos, que utilizamos de los que somos también cliente, y así podemos hablar hablar con propiedad. Te voy a ser sincero, Mathee, a veces la compra de un colchón por Internet, pues, te entran dudas y, además, en el ámbito familiar no es fácil convencer siempre a todo el mundo, pero tienes una cosa que es que tienen cien días de prueba. Es decir, si al final es que no, si no te cuadra, si no era lo que esperabas, pues con cien días de prueba lo devuelves y

Pues sabiendo que son colchones fabricados sacado, que es la mejor tecnología, y que tienes lo de los cien días de prueba gratuitos y luego puedes devolverlo sin más si no te convence, yo me iría a a Colchan Morfeo, a Morfeo punto com, porque además tienen ahora mismo un veinte por ciento de descuento con el código mayo. A partir del viernes, el código mayo no funciona, pero podéis usar el código monos para un diez por ciento de descuento en Morfeo punto com.

Y hablando de dormir, quien creo que habrá descansado bien, Matías sabe quién es. Pues yo creo que hay una persona de la IA que no ha dormido bien esta semana, que es San Alman, que estáis tú y San Alman, los dos, dos personajes importantes de la inteligencia artificial, pero Satya, el amigo Satya Nadella creo que se ha quedado descansando después de la build, de la gran, el gran congreso para desarrolladores de Microsoft, porque ha habido muchas cositas, Paty.

Tengo mucho que decir sobre Satya Adela, pero vamos a a intentar mantener un orden, un orden cronológico, porque el build de de Microsoft, que es este evento para desarrolladores, ha tenido varias charlas, conferencias en las que ha salido Satya, también también ha estado Sam Alman, que sorprendió a mucha gente que asistiera. ¿No? En una semana de crisis de imagen. Pero la primera que presentaron, y fue un poco a puerta cerrada, no en streaming, es los PS Copilot Plus, o o los Copilot Plus, en PC. Un hombre bastante malo Horrible.

Bastante malo. Horrible. Que lo que quiere decir es que los nuevos ordenadores, empezando por los de Microsoft, van a tener el copilot integrado, de alguna forma, a nivel de hardware con nuevos procesadores neuronales, con nuevas NPU diseñadas para potenciar las funciones de inteligencia artificial de Windows once.

Exacto y demás, es un momento muy importante para el ecosistema Windows, porque yo creo que ya hace real el fin de el monopolio o de la era WinTEL, y de esa asociación entre Microsoft con Windows y Intel y sus procesadores que, bueno, ha dominado la industria de los ordenadores y la informática durante, ¿qué? Cuarenta añitos de nada. Bueno, pues realmente esta es una apuesta de Microsoft por soportar no solo la arquitectura X ochenta y seis, que es la arquitectura clásica dominada, liderada y controlada y patentada por Intel, para apostar por arquitecturas ARM, que no son muy familiares porque son las que hacen funcionar teléfonos móviles. ¿Quién pone el micro? Es Qualcomm, tiene los Snapdragon X Elite y el Elite Plus, son los dos procesadores, y como tú has dicho, bueno, como arquitectura RM, pues, se le presupone muchísima autonomía, son, digamos, arquitecturas con mucho menos consumo que las X ochenta y seis, y tienen toda esta parte de las unidades de procesamiento neuronal que potencian y facilitan esta parte, este uso del copy light, del copilot en el en el PC.

Sí, una cosa que no me ha gustado es qué necesidad había de compararse tanto durante toda la presentación con con Apple, ¿no? Al final, es cierto que es con Apple. ¿No? Al final, es cierto que es Apple la que está liderando esta transición a los procesadores a RM con los Apple Silicon, y que lleva bastante ventaja, por lo menos la diferencia hasta ahora era muy grande la brecha con con los Qualcomm y en general con los ordenadores ARM en Windows, pero al parecer han cerrado esa brecha, según las comparativas que han publicado, pero se han comparado demasiado y lo han hecho siempre en base al MacBook Air con procesador M3, que es el básico, el base de la generación actual, diríamos, porque el iPad acaba de sacar el Apple uno con M cuatro, o sea, cambiando de generación, y dice que son un cincuenta y ocho por ciento más rápidos que ese MacBook Air, los primeros ordenadores con Copilot Plus PC, que por supuesto Microsoft ha presentado nuevas Surface Pro y Surface Laptop con

sí. Hombre, para mí, como como usuario, de momento tiene buena pinta, voy a esperarme, por supuesto, a la a la review y los análisis, que la gente los toque y empiece a contarme experiencias reales, ¿no? Pero tienen pintaza porque yo soy un poco más del ecosistema Windows que del del ecosistema Mac, y toda esta parte de tener mucha más autonomía y que además, claro, no es solo puede ejecutar el copylo de una manera vaga, extraña, ahora vamos a hablar de funcionalidades concretas, ¿no? Entonces, bueno, los los Sharpheets están muy bien, tendremos que que echarle un un vistazo tanto al modelo clásico, entre comillas clásico, ¿no? Que da el más tablet, ¿no?

Y el y el modelo portátil portátil, luego tiene muy buena pinta. Pero fíjate, vamos con las funciones que que integran, porque hay una que tiene a la gente chillando, Matías, que es la función recall.

No me extraña, no me extraña, no me extraña. Lo de recall lo habíamos visto y lo habíamos mencionado también en el podcast con la como la gente de Rewind, ¿no? Que es un servicio Sí, la

de Rewind en en en Mac, pero no

es de Apple. No es de Apple, es un servicio de una empresa, que es básicamente registrar todo lo que haces en tu ordenador y luego conversar con un chatbot, con Copilot, para que, algo si se te olvida, oye, ¿dónde he visto en algún momento?

Hombre, hay que reconocer que que esto es útil, Mati, porque imagínate, tú te acuerdas, oye, qué insulto más bueno leí hace tiempo en ForoCoche, por ejemplo, ¿no? ¿No? Tú dices, este insulto era buenísimo, qué qué ingenio, qué maldad, ¿no? Que qué brillo a la hora de de ser faltón. Pero claro, luego como no sabes qué insulto era, pues no, al buscarlo no no lo encuentras más a ti, ¿no?

Vas a foro coche ¿y cómo te cómo te guías en esa maraña de mensajes diarios? Pues no puede ser.

A mí esto me pasa constantemente, Antonio, constantemente veo cosas que me hacen gracia, no las guardo de ninguna manera y luego no hay forma de encontrarlas, las pierdo para siempre y me acabo olvidando de lo que era. O sea, que esto está hecho para mí, pero entiendo la polémica, que que que que se, claro, que se ejecute el local, aunque se procese en local, aunque se compute en local, que que Microsoft de alguna forma esté registrado todo lo que haces, entiendo que cause cierto rechazo.

Ya, fíjate, yo ahí tengo dos pensamientos. Uno es las empresas de tecnología, y en esto fue Apple la la más abanderada, te dicen privacidad es igual a que se ejecuta el local, pero creo que la percepción de la gente no es esa. ¿Por qué? Por por el segundo punto. Es decir, yo ya intento vivir como si cualquier cosa la fueran a crackear.

Es decir, con todas las filtraciones de seguridad que ha habido en banca, sistema de correo electrónico, medios de comunicación, instituciones públicas, al final creo que es más razonable en términos de seguridad vivir pensando que todo se va a crear y todo se va a filtrar en algún momento, y por lo tanto almacenar todo lo que pasa en mi PC, hombre, no lo veo tan tan necesario. Puedo, creo que podré vivir sin ellos y poder con esto puesto el off, ¿no? Aunque bueno, Microsoft jure y por jurra, que lo que hace esto es captura de pantalla, captura de pantalla, que solo está vinculado a tu usuario, que ni siquiera los demás usuarios del mismo equipo pueden llegar, que no se pone a disposición de Microsoft, aunque Microsoft jure todo esto. Yo creo que va a ser verdad, pero esto sería buenísimo, ¿sabes para qué? Para entrenar una inteligencia artificial que fuera también un agente inteligente, porque estás grabando todo el rato cómo ejecutas y consigues hacer cosas.

¿Cómo contesto los correos? Pues abro, le di prioridad a este, no le di prioridad al otro, uso el cursor, lo pongo aquí. No, de repente todo eso son entrenamiento, podrían ser podrían ser, que Microsoft dice que no va a ser, podría ser entrenamiento para un agente que ejecutara Windows por nosotros.

Muy muy jugoso eso para no aprovecharlo, ¿no?

Ay, yo vamos, yo que tengo a veces una mente para genio del mal, yo me lo plantearía, No sé,

a lo mejor tiene alguna forma de anonimizar esto y y que acepten los términos y que acabe y que acabe entrenando ya, no lo sé. Pues, desde luego, no va a ser para cualquier ordenador, esto, por supuesto, va a tener unos requisitos elevados empezando porque tienes que comprar un PC con Copilot Plus, ¿no? Con los nuevos chips ARM de Qualcomm, los Elite, y con una serie de requisitos de almacenamiento

De disco, vuélvete loco, de ahí ahí ahí.

Sí, pero una cosa que no quiero que se me pase, también lo presentó Google en Google Fotos. No solo registrar, porque yo de alguna forma ya registro gran parte de mi vida con fotos que luego no vuelvo a ver nunca en mi vida, sino poder, de alguna forma, entre comillas, indexar todo gracias a a un modelo de lenguaje, a una inteligencia artificial, a un chatbot, algo que hasta ahora no teníamos, y que ahora es posible, porque en Google Photos tú puedes buscar playa, chanclas, lo que sea, ¿no? Comida. Pero es que ahora puedes hacer búsquedas muy específicas y ya se encargará la IA de ver de ver si la encuentra o no la encuentra. Y esto con Ricole, pues también va a ser posible, ¿no?

Sí, claro, todas esas fotos que tú dices, venga, fotos en las que salgo con con cara de anormal y hay un señor de fondo metiéndose un dedo en en la nariz. Ahí la IA te puede ayudar, eso es eso es inapeable. Sí, tienes razón, no no lo hemos explicado del todo. Lo interesante con estas capturas es que, además, yo creo que hay una manera de probarlo súper chula, que es a cualquier sistema de inteligencia artificial con visión, tu área le subes una foto y te la describes genial. GPT cuatro O te la describe increíble.

Le pasé una foto de un Instagramer de fotografía de la naturaleza en que salían dos lagartijas, bueno, no sé el nombre específico, que me perdonan los biólogos, ¿no? Haciendo el acto, Matías. Y me lo describió, me dijo la especie, me dijo que estaban haciéndolo. Mathi, dije, madre mía, ser que no seas buenas con los acertijos, pero en esto eres increíble, chato. En fin.

Bueno, hablando de inestabilidad, a mí me ha sorprendido, creo que el salto de Windows diez a Windows once tenía menos sentido renombrar el sistema operativo, o hacer una nueva versión, perdón, que el salto que han dado ahora. Para mí esto es Windows doce, que realmente es que el cambio es de calado, es decir, el copiloto está empezando a redefinir la experiencia del usuario con el sistema operativo. No es toda esta visión de o eres ayudante y me ayudas en algunas tareas, pero a veces eres el intermediario y hago las tareas a través de ti, ¿no? Entonces, bueno, hay un punto que es es que no sé si Microsoft la vuelve a cagar y vuelve a estar demasiado por delante, pero que tú puedas con lenguaje natural pedirle cosas al sistema operativo del tipo, cómo cambio el fondo de pantalla, cómo hago para hablar por el micro que me he comprado y no por el micro del ordenador, cámbiame la salida a la webcam. Es decir, todo ese tipo de cosas que son farragosas, son un coñazo que tienes que encontrar en un menú de ajustes infinito y horrible, que todo eso se pudiera hacer con lenguaje natural, pues eso me parece que si se consigue es una pasada.

Tienen un modo, un cocreator, que es, bueno, un modelo de de dibujo, ¿no? Que que prácticamente un tipo real me recuerda mucho a la cosa que tiene FreePick, pero esto se ejecuta el local, ¿no? De de hago un dibujito y el el modelo de inteligencia artificial me lo convierte en una imagen estupenda. Pero hay una cosa curiosa, fíjate que esto se ejecuta en local, pero se valida en remoto. Esto es muy interesante porque, dice Microsoft, claro, para asegurarnos que no creas nada inapropiado, nosotros lo chequeamos.

Es decir, una herramienta que por su naturaleza no necesita estar en la nube, porque se ejecuta de nuevo gracias a esta NPU con el copilot local, pero Microsoft va a tener un control de lo que podemos crear con estas herramientas, y esto es un tema

que puro golpe para tu carpeta reptiles fallando,

Sí, sí, sí, sí. Es que claro, hombre, es que aquí yo creo que podemos perder muchos oyentes, Matías. No voy a no voy a no voy a pasarte mi mi set de prueba para modelos de visión, porque no, uno tiene un un mínimo prestigio que todavía que salvar, ¿no? Bueno, el caso es que va a haber el caso de uso que ejemplifica de hacia dónde va Copilot, hasta dónde lo quieren llevar o hasta dónde puede llegar, es en un vídeo que se ve cómo Copilot interactúa con los juegos en Windows. La demo es demo pregrabada, ¿vale?

No es una demo en tiempo real, aquí todas las salvedades, Pero claro, ¿te acuerdas cuando iniciamos con con GPT cuatro qué potente es que la imagen sea el modelo el modo de comunicación con la inteligencia artificial, porque si la IA puede ver lo que hay en la pantalla, pues de repente puede asesorarte sobre lo que hay, ayudarte, puedes consultarle, puedes pedirle que haga acciones sobre lo que hay en la pantalla. Bueno, en en la demo está un coleguita jugando al Minecraft y conversando con la inteligencia artificial, con el copiloto, sobre lo que se ve en la pantalla en tiempo real. Esto es una pasada, Max.

Sí, esto es una pasada, pero no solo para el ejemplo de ayudarte a resolver cosas en el juego, sino porque yo, por ejemplo, siempre digo, yo nunca he jugado online, pero tampoco tengo con quién jugar online, porque no tengo no tengo un amigo que se conecte al Discord,

De hecho, a lo mejor renuevo el PC solo por eso, en esto que no salga de aquí. Y además, bueno, aquí hay hay una una jugada, ¿no? Que que que, bueno, esto realmente puede tener sentido en muchas otras facetas, ¿no? Como acompañarte en la programación, acompañarte en cualquier tarea de estudio, bueno, va a ser, yo creo que va a ser potente. Vamos a ver cuánto acierto y cuánto falla, ¿no?

Bueno, decisiones, este copilot es masculino. Esto va a ser interesante porque luego veremos que es un tema polémico. Se parece más, claro, pues, la metáfora ya no es Her, la metáfora es Jarvis, ¿no? Es ese asistente, pues con voz de de hombre, ¿no? Sí, lo

lo que no han conseguido, por lo menos en las demo que hicieron ahí en directo, es que el español suene a español de España o de México o de cualquier país que no sea español chapurreado por un estadounidense, ¿no? Eso

Madre mía, hay una una demo de, es que son cien cosas las que han anunciado. Hay una demo que es Edge como doblador en tiempo real de vídeos de YouTube. ¿No? Está hablando a alguien en YouTube en inglés, tú le das a al botón en de de Edge y te lo dobla en tiempo real a al español. Y claro, ese español es es terrible, tío, yo, pues, vamos, prefiero inglés con subtítulos cien veces que que a que me lo doblen ahí, que da un gringe

y está tremendo. Igual que los vídeos de MisterBistro, de Mark Sproutley cuando te salen

en YouTube

doblados en ese acento insoportable. Pero claro, ahora no hace falta pagarle a nadie para que lo dobles, ya te lo dobla Microsoft por ti. Bueno, es una nueva forma de navegar por Internet. Al final, yo el uno de los mayores deseos que yo siempre he tenido es poder navegar por el Internet ruso, porque el Internet brasileño también es muy bueno y me gusta mucho, pero lo controlo, ¿no? Porque se entiende, Pero el ruso me me pilla muy lejos, no soy capaz de entender lo que pasa ahí, y ahora puedo gracias a a Juan Pablo.

Un punto fascinante se abre delante de nosotros. Mira, amo amo rápido porque voy a saltarme algunas cosas. Cosa interesante, Ha puesto a disposición de todo el mundo los modelos fee tres, estos modelos, los hemos comentado en el podcast, son unos modelos de Microsoft que su mayor ventaja es que son pequeñitos. Entonces, esto es ser pequeñito, pues tiene, bueno, limitaciones en el rendimiento y en lo bien que funcionan, pero a la vez te piden poca máquina y son los que nos van a ayudar a usar menos la nube y ejecutar más el local, ¿no? Hay uno especialmente que es el Fi tres Silica, poniendo nombres, son inigualables en Microsoft, como ves.

Y hay otro también muy interesante que es Fi tres Vision, que también que es multimodal y que tiene y que tiene imagen. Entonces, este silica es muy interesante porque es muy pequeño, tres mil trescientos millones de parámetros, y claro, eso hace que se pueda ejecutar el local y es la jugada que Microsoft le plantea a los desarrolladores. Si tú quieres hacer aplicaciones Windows, de nuevo, para estos nuevos PCs con NPUs, que de entrada son los que traen los chips Qualcomm, pero luego se abrirá a Intel y, sobre todo, a todos los que tenemos un gráfico de Nvidia, que que realmente no hemos gastado la pasta en la gráfica para hacer cosas de inteligencia artificial también en local, este modelo FI es muy interesante porque le está diciendo, pues, ahora puedes integrar un montón de cosas de inteligencia artificial con un modelo en local, sin tener que tirar de una API, sin tener que irte en remoto, sin tener tú que decidir, pues, instalo también un Java en el en el ordenador del usuario, no, no, no, no hace falta nada de eso. Tú tienes un ya un modelo grande de lenguaje, en este caso de pequeño tamaño, pero pero bastante funcional instalado en estos PCs Copilot Plus.

Tengo que decir que el Sattina del Este, este señor es un genio. No solo porque desde que es CEO de Microsoft, la empresa vale diez veces más y le ha ganado mucho dinero a nuestro querido Steve Balmer, sino por cómo se aleja, cómo se mantiene ahí arriba, alejándose de sectarismo como como el de OpenAI, ¿no? Copilot es un nombre, diferencia de todos estos nombres que hemos mencionado, de Copilot Plus PC y todos estos, Copilot es un nombre muy bien elegido, porque siempre llevábamos diciendo en el podcast un año que lo mejor que puedes hacer ahora mismo con una inteligencia artificial es usarlo como como tu copiloto, como acelerador de procesos para para ser más productivo, y este hombre lo lo pilló y y ahora ha presentado doce mil formas de desarrollar Copilot con socios para, dentro de empresas, para negocios, bueno. Y por otro lado, también en una entrevista que le hicieron el otro día, que por cierto, en esta misma entrevista de Bloomberg dijo que ya había probado GPT cinco, yo eso no sé si se le escapó o si está chocheando, pero, bueno, dijo eso. Dijo que le gustaría que dejáramos de hablar de inteligencia artificial y la llamáramos, por ejemplo, inteligencia diferente, ¿no?

Es como Eso es también es también es una visión muy interesante, porque sin sin dejar de estar ahí arriba, se aleja un poco de de visiones, pues como las de las de OpenAI, que mucha gente no se cree, y y empieza a sacarle ya partido a lo que tenemos sobre la mesa. Sí,

Satya no se mancha, es decir, un tío que mantiene esa imagen como, este tío bastante guay, creo que además es una persona que cae bien, que que tiene buen carácter, que no se engancha en la polémica y que, bueno, también le va el viento a favor, le están saliendo muy bien las cosas y claro, no no está teniendo que sacar los codos para para para mantener el el éxito de su de su compañía. Vamos a ver qué tal le le le sale todo, porque, bueno, si quieres pasamos a la otra cara de la moneda, Matías, porque tenemos en OpenEye, tenemos tenemos Para Hablar tres episodios. Hay mucho drama, Matías.

Claro, es que han pasado tantas cosas que ahora mismo en el en la línea de temporal de monos estocásticos, ¿dónde nos hemos quedado? ¿Nos hemos quedado en que ya había cierta polémica con la voz de Sky y que ya la habían comentarlo? Nosotros llegamos a comentar la salida de nuestro amigo Ilia Susqueber Eso sí.

El jefe científico de OpenEye, que a los seis meses de su conspiración para cargarse a San Alma, pues justo cuando se presenta el nuevo modelo y el chatbot voz super estupendo de ChatGPT, pues ha dimitido, y con él salía también Jean Leique, que era el del equipo de alineación de de los modelos, que era de toda esta rama de todo lo que se iba a dedicar y enfocar OpenAI a los riesgos a largo plazo. Entonces, lo que empezamos a sospechar o a intuir después de estas salidas y todas las conversaciones es que, uno, todo esto de los riesgos a largo plazo, eso está muerto y enterrado para OpenAI, que esto era como una como algo que les quedaba, probablemente, el último eslabón de su época de ONG o de organización sin ánimo de lucro. Entonces, ya son full empresa, full corporativo, tienen claro que quieren llegar a la AGI, quieren verdad que en el discurso, en todos lados aparece la gente que ve la app por seguridad de OpenAI y se va, y parece que lo que queda ahí es una banda de piratas,

sales en Alman a decir, no, no, no,

no, para nosotros la seguridad es es muy importantísima, ¿no? Entonces, veréis que os voy a explicar que que que calma, ¿no? Que que todo que todo tranquilo, ¿no?

Sí. Porque además, en en medio de todo el partido político, publicó que la gente que se va de OpenAI tiene que firmar, gente que se va de OpenAI tiene que firmar un acuerdo de confidencialidad que que le impide criticar a OpenAI de por vida si quieren mantener las participaciones que que han ido acumulando de la empresa. Esto, mucha gente lo puso en duda, pero luego salió Sama Alban a decir, bueno, esto yo no sabía nada, pero es verdad y prometo que esto va a acabar.

No no sabía nada, si el CEO llegó a los contratos de la gente, de tal cosa, cláusula que copias y pegas a Internet de donde sabes dónde. Qué grande. Bueno, es que es es que es muy fuerte, Mati, es que esto es retroactivo. Es decir, toda esa gente ya le ha dado acciones, y si en el futuro hacen algo, pues pues nos nos retrotraemos al momento de de que te las di y ya no te las doy. Pero es es es mall Ford, Matías, mall Ford.

Y esto es solo al principio de la semana para Sam Alma, es que ha tenido una semana horrible Hombre,

es que esta es otra otro punto más, porque una empresa, los líderes en una tecnología sobre que con más razón o menos hay muchas dudas públicas de la seguridad y su impacto en la sociedad. Entonces, tú me dices que primero pierdes a toda la gente que era más proseguridad, y dos, dices, hombre, justo a lo que quiero confiar, la tecnología más importante de la década y posiblemente del siglo, lo que hacen es chantajear a la gente que se va o despide para que no pueda hablar ni mencionar ninguna crítica. Esto te da un montón de confianza, Matías. Se te da, dice, jolín, es que además de confianza, ¿qué open es todo esto, ¿no? De open eye.

Es que es tremendo, es tremendo.

Sí, de de hecho, la reportera de Vox menciona a Elon Musk en el hilo de sobre la noticia y le dice, ¿qué? ¿Qué piensas de? ¿Cómo de open es Open AI, no? Este, Como buscando ahí cizaña para que él lo amplifique el alcance de la noticia, que al final los periodistas también juegan mucho con con el poder.

Bueno, ¿quieres hablar de tu admirada Scarlett Johansson Martínez?

Joder, joder, es que aquí aquí de verdad, que qué bien me lo ha pasado, es que ha sido la semana grande de Twitter para mí. Mira, ¿y sabes quiénes se dieron cuenta primero de lo que estaba pasando? ¿Los usuarios de Reddit? Yo los he definido como los cajeros, pero vamos a vamos a llamarlo usuarios de Reddit que estaban un poco enamorados de la voz de Sky, porque la voz de Sky ya estaba disponible en el modo antiguo de voz de de ChatGPT

Que es el que podemos usar todos, es decir, es decir, nadie ha usado el modo nuevo, a lo mejor a lo mejor Satinabel así, pero todo esto que te dice no, he alucinado con lo bueno que es el modo nuevo de chat GPT de voz, No, todavía no está implementado. Si os está gustando mucho, pues es el antiguo y el nuevo es mejor todavía.

Exactamente, y ahí ahora mismo no se sabe cuándo va a salir de nuevo, Entonces, en Reddit, los usuarios de su Reddit ChatGPT se dieron cuenta de que la voz de Sky había desaparecido y la habían reemplazado por la de Juniper. La voz de Sky es esta que decíamos en el episodio anterior, o el anterior o la anterior, que era como muy muy seductora, que parecía que estaba ligando contigo, que, bueno, que le gustaba mucho hablar. Pues en realidad se dieron cuenta de que había desaparecido, dicen, no quiero perderla, es la mejor, voy a llorar. Tío, he estado hablando con con Sky tres meses, se siente como si mi novio hubiera roto conmigo, me hubiera bloqueado, ¿Estoy muerta por dentro? Bueno, efectivamente, después OpenAI confirmó que habían pausado, creo que fue la palabra que usó.

Yo creo que esto es como cuando vuelves a a la a la heladería Inma, Mati, ¿no? Después de un curso de un duro de un de un duro invierno sin helado de la Inma, vuelves y tu sabor favorito, que era de los mejores, pero minoritarios, ha sido eliminado de la carta. Eso es un revés del que no te recuperas, Mati.

A mí me ha pasado. Había uno que se llamaba crema de leche con caramelo, que ya no lo hacen más.

Es un momento bajón.

Me ha pasado, me ha pasado. Bueno, y de repente, pongo aquí un tweet de Bernardo Quintero, porque está muy bien hilado, dice, parece que Black Widow le ha dado un sopa para esa Maltmann. De repente, creo que fue un reportero de NPR el que publica un comunicado de Scarlett Johansson, o del equipo legal de Scarlett Johansson. Y aquí yo yo al principio intenté verificarlo, solo solo este hombre lo había publicado, pero claro, como es un reportero de NPR, pues te lo crees, porque vivimos en el mundo de la fake news, pero si alguien escribe de tecnología en la en NPR o en la radio pública de Estados Unidos, pues te lo acabas creyendo. Y, efectivamente, el equipo legal, Scarlett Johansson, la acabas creyendo.

Y, efectivamente, el equipo legal, Scarlett Johansson, había publicado que Sam Allman contactó con Scarlett Johansson para que fuera la voz de ChatGPT, diciéndole, de hecho, la le habló dos veces, diciéndole que creía que era importante que su voz estuviera en ChatGPT para conectar más con los Scarlett Johansson se negó y, según este comunicado, después buscaron a una actriz que se parecía, una actriz de voz que se parecía a ella, y sacaron, de todas formas, una voz llamada Sky, aparentemente basada en la Scarlett Johansson de Her.

O sea, aquí hay mucho que comentar, Matty,

Sí, ¿por qué? Porque, lo más importante de todo, ¿dónde tiene el caso legal el equipo abogados de Scarlett Johansson? En que el idiota borracho de poder de Sam Altman, en el el mismo día del evento de la nueva modo de voz de changel pt twittean, twittea publican x, her. Eso es todo el her, ¿vale? Her, tres caracteres que podrían costarle muy caro, ya hay gente por ahí diciendo, a lo mejor este es el tweet de menos caracteres que más dinero va a costar a una empresa.

Creo que quien más habéis disfrutado esta semana sois tú, y Elon Musk, que Matías.

Y Gary Marcos. Podéis

quedar un día los tres. Es que hay muchos muchos capas de debate. Primero, un consejo para todos los hombres, atención, que nos estáis escuchando. Si una chica os dice no, pues hay que asumirlo y seguir adelante con la cabeza alta y viviendo la vida. No os dediquéis a simular su voz en modelos grandes de lenguaje distribuirlo en aplicaciones de inteligencia artificial.

No hagáis eso, tenéis que aprender a convivir con el no de una mujer, no seáis como San Eso, por un lado, una enseñanza importante de de este de este caso. Y luego lo que has dicho del caso legal, pues hay jurisprudencia. De hecho, en el episodio con Andy Ramos sobre el propietario intelectual, el caso de Tom Waits, que le sacó a dos cuarenta y ocho millones de dólares por daños y perjuicios a Fritos Lays, por utilizar una voz grave que entendió el juez, imitaba la voz grave de Tom Waits en un anuncio de Doritos. Y, bueno, hay otras casos como el de Midler contra Ford, es decir, cuando una marca utiliza una voz que no es igual, no es copiada de un famoso, Cuando una marca utiliza una voz que no es tampoco, y tú la has explicado muy bien, Matty, no es que hayan cogido la voz de Carla Johansson y la hayan simulado con inteligencia artificial, sino que han buscado una voz bastante parecida para que de cara al usuario pudiera parecerse que lo era Scarlett Johansson, entonces hay un caso legal claro de la famosa, de Scarlett, contra la empresa, contra OpenEye, y además con dos agravantes.

Uno es que le ofrecieron claramente, sé tú la voz, por favor, entonces, estaba claro que la querían a ella, y dos, el tuit que tú has puesto, Her, es que lo único que yo, en el caso de Johansson, hubiera hecho es dejar que saliera el producto, dejar que empezaran a facturar y después yo le pido una indemnización más grande. Yo creo que ahí a lo mejor ha perdido algo de pasta, Scarlet, pero bueno, abogados tiene.

Yo te te, primero te traigo la contestación de Samarman, dice, la voz de Sky no es la de Scarlett Johansson y nunca fue nuestra intención que se pareciera a ella. Hay gente que esto se lo ha creído porque ha ha hecho comparaciones al lado a lado de la voz de Her, de con la voz de Sky, y han dicho no, no es la misma, no sé qué. Para mí hay una clara intencionalidad y y esto es complicado. Entonces, te traigo una serie de takes, ¿vale? Voy voy a ser breve.

Primero, Álex Barredo, Satia y Adela viendo cómo OpenAI se gasta sus miles de millones de dólares en abogados, en vez de Nasure. Efectivamente, esto es una distracción para para OpenAI.

Ah, por cierto, qué qué qué alegría Ale Barredo, que ha vuelto con Mixio, ¿qué más? Ha vuelto también a Twitter, se ha cansado de hablar solo en Mattodo, está bien.

Mark Gourman, y esto no me había dado cuenta, diciendo faltan tres semanas para la WWDC de Apple. Porque claro, Apple supuestamente acaba de cerrar un acuerdo con OpenAI para integrar Chat GPT, ¿no? André Carpazzi, que lo he dicho muchas veces, he dicho muchas veces este tuit era brillante, os creíais que la la Killer App de los modelos de lenguaje eran las matemáticas o lo que sea? No, es Scarlett Johansson, efectivamente. Luego, A.I.

Breakfast, que publicó Scarlett Johansson y Sol you need, en honor a aquel famoso paper de

la otra forma, atención a

todo lo que necesitas. Y luego, para mí, el enfoque más brillante, que es Anthropic, necesita fichar a Ana de armas. Es es claramente lo que tiene que hacer Anthropic para competir.

Bueno, no sé, en España, ¿a qué ponemos? ¿Tú quieres una inteligencia artificial que la voz sea Aitana? No sé yo, No, en serio hay hay siempre, ha habido siempre debates y demás en un en el podcast hicimos inteligencia artificial de chat acá hace muchos años, ya ya tratamos este enfoque, que era que los asistentes de voz solían tener más voces femeninas que masculinas, y que las preferencias de los usuarios, tanto de hombres como mujeres, eran mayor por la voz femenina que la voz masculina. Esto levantaba varias debates sobre si era porque culturalmente está integrado en nosotros lo de darle órdenes a las mujeres, y de en ese momento, pues se levantaba una posición, pues desde el feminismo diciendo esto no puede ser. La empresa tecnológica, aunque suelen dar opciones, tú puedes cambiarle la voz a la setente, casi siempre por defecto la voz es femenina.

Y, bueno, también en algún caso he escuchado a algún miembro de estas empresas decir una posición al contrario, que es esta existente que es tan inteligente, lo sabe todo o te responde, es brillante y te, ¿no? Y tiene ese punto de como de, pues una inteligencia incluso superior a la tuya, que sea femenino, no debería verse como algo negativo. Pero bueno, el debate está está sobre sobre la mesa y y realmente vamos. Yo lo que estoy deseando es que saquen ya el GPT cuatro con con voz, porque ese rollo te lo anunciamos o decimos que va a estar en semanas, pero luego se retrasa mucho, es es muy de bajona.

Yo lo que lo que ahora estoy viendo con otros ojos y con otra perspectiva, desde la ventaja del del presente, es el intento de echar a Sam Alman, ese intento hace seis menos sincero que que te rechace Scarlett Johansson, menos sincero que que te rechace Scarlett Johansson y luego por despecho imitarla de alguna forma?

Oye, pues mira, una voz de Rosalía, ahora que hablas desde el despecho. Bueno, vamos a otro tema porque tenemos, pues, los dos que tenemos que tratar, Mati. Uno es, España tiene una estrategia de inteligencia artificial, la estrategia inteligencia artificial dos mil veinticuatro, con tres ejes y un enfoque, eso sí, responsable. Bueno, es una de las noticias que hemos leído esta semana en paréntesis, ya sabéis que es nuestro partner, nuestro nuestro medio compañero, que además con ellos grabamos ese fantástico episodio, que no os perdáis, por favor, de con con Xavier Villana y con Carlos Santana, y que, bueno, en paréntesis lo explicaba, ¿no? Que la inversión total es de mil quinientos millones de dólares, porque, bueno, hay una parte de eso por conmutación de de, bueno, de de invertir en el en el en el mar en Ostrum de este de Barcelona y ampliarlo, modelos de lenguaje, que ya lo hemos hablado de de ese desarrollo con IBM en español, y luego otras cosas en el área de implementación y adaptación para la empresa, la investigación y la educación.

Mi impresión es que mil quinientos millones de euros, viendo la pasta que se mueve en inteligencia artificial es que es que esto es muy poquito, Mati, es muy poquito.

¿Mil quinientos millones para cuántas? Para qué te dan?

Claro, la la GPU, la tochaca gorda de Nvidia son treinta mil pagos. Hombre, a lo mejor el amigo Juan se te hace un descuento, ¿no? Y dice, bueno, tú sabes, tú llevas a esta gente, la llevas, las llevas de marcha por Barcelona, le pones una paella así medio fake y algo le rascas, ¿no? Pero, claro, es decir, es una posición que yo creo que se queda a medias, porque están los la visión de el Estado no debería hacer esto, ¿no? Siempre estos proyectos del Estado salen mal, es perder el dinero y blablablá, ¿no?

Y te tienen esta visión como siempre el Estado no no desarrolle. Y creo que van a ganar esta discusión porque es muy poco muy poca pasta para hacer algo con ambición. Probablemente tendría más sentido los proyectos europeos coordinados y toda Europa a una, pero Europa a una está solo para regular, ¿no? Entonces, bueno, no sé, no sé, Matty, veremos, veremos el modelo cuando salga, porque va a ser otra semana divertido en Twitter, seguramente, ¿me entiendes?

Bueno, mientras tenga mejor acento en español, si es que se puede hablar con el modelo que que todos los modelos estadounidenses, yo me confundo.

Vale, pues te doy dos opciones antes de rematar el episodio y un poco de puerta grande también, pero las dos opciones es cuando pagas por el servicio, pero el producto sigue siendo tú, es un camino que podemos tomar. Y el otro es minuto resultado en el Metaverso.

Pues no sé si ha habido mucho avance en el Metaverso, así que elijo la otra, creo.

La otra, bueno, bueno, bueno, pues tenemos noticias. Quien ha estado también bajo los focos es Slack. Slack es, pues, esta aplicación de mensajería empresarial que en todas las empresas de Modernos se adoptó en su momento y ahí sigue, la compró Salesforce. Y claro, hay una parte en que en los términos y condiciones de Slack, bueno, en esas políticas, pues, por defecto, dice que pueden utilizar los datos de los datos financieros, todo, pues, en principio, la política les permite entrenar modelos de lenguaje de inteligencia artificial con esos datos. Entonces, claro, esta semana ha sido la semana de poner a Slack a caer de un burro porque, claro, es que es un servicio que se está pagando, que se paga por usuario, que se paga caro, en el que pones los datos de tu empresa y los términos y condiciones son muy vagos como para permitir esto.

En principio, no, pero a mí me da un poco de miedo que, sobre todo por mis mensajes privados con mis compañeros, sobre todo con Eduardo. Si me escuchas, Eduardo, como se está entrenando una y ahora mismo con nuestros mensajes privados, cuidado con lo que puede salir de ahí. En principio, creo que no hay que seguir.

Bueno, ha salido ingenieros de la compañía diciendo que no, es que esto es nuestro medio de condiciones vago porque lo usamos para poder hacer un buscador y ayudar a la empresa, y no vamos a entrenar una IEA. IA. Pero la la alarma, la alarma y la preocupación está ahí, y fíjate, se ve en otra cosa que es que OpenAI llegó a un acuerdo con esta Overflow. Esta Upperflow, el foro famoso de programadores, el sitio donde más gente ha hecho copy paste desde la historia de Internet. En un momento dado, dicen, aquí estos datos son buenísimos para entregar modelos grandes de lenguaje para la programación, pero a la vez te están nutriendo de los todo lo que suben, los foreros, ¿no?

Todos los usuarios. Llega a un acuerdo con OpenAI y empieza a hacerse viral o a adoptarse una cierta conducta, que es que los propios usuarios de PowerFlow empiezan a sabotear sus propios post, borrándolos, modificándolos, metiendo errores, diciendo, oye, yo el acuerdo que tenía con Stopflow es que tú tienes un negocio de foro, subo información y colaboro, pero en el momento en que ayudas a programar inteligencia artificial, conmigo no cuentes. Verás que esto es una minoría de los usuarios hasta ahora, pero que yo lo conecto con lo anterior, que es, oye, de repente este uso de mi información que yo estoy subiendo para entrenar a inteligencia oficial o no me cuadra en absoluto o si me cuadra, me tienes que pagar pasta a mí también.

Claro, es que si te fijas, está Goverflow y este tipo de sitio vive de gente que viene a demostrarte lo estúpido que eres, y a esta gente que vengas a, de alguna forma, a robarle o o a vender su contenido, pues es lo peor que puedes hacer. Eso es gente que realmente se enfada y creo que te van a sabotear el contenido.

De verdad, Matías, porque ahora, a partir de ahora, quien te dirá lo estúpido que eres será una inteligencia artificial Con la voz, con la voz Claro, ahí se conecta todo, con la voz de Scarlett Johansson diciéndote, pero qué qué imbécil eres que no sabes manejar un puntero diez años después de acabar la carrera, es inútil. Bueno, el el el punto, fíjate, para mí, en mi cabeza, yo creo que los stuw overflow de la vida tienen que decidir si son Netflix o si son una productora que sube su contenido a Netflix. Es decir, el, hemos, ¿qué hemos que hemos vivido en el mundo over the top? En el streaming, ¿no? Pues que todo el mundo se ha creído capaz, ¿no?

La la Warner, pues tienes ahí a a la Paramount, tienes ahí a Disney, ¿no? Nosotros tenemos algunas IPs muy buenas, algunas películas o series muy vistas, por lo tanto, podemos ser Netflix también, podemos hacer una alternativa y la gente vendrá y nos verá. Pero claro, los económicos de esos se le está pegando con un golpe de realidad a la mayoría en forma de perder miles de millones que, claro, ahora muchos se replantean, no vivíamos mejor siendo un proveedor de Netflix y que todo lo demás y toda esa complicación de montar el servicio la hagan ellos. Creo que con los sitios de Internet de contenido de usuario, pues están los dos caminos. Twitter se cree que puede ser Netflix.

Twitter dice, no, yo voy a tener mi modelo, yo soy Elon Musk, a tener mi inteligencia artificial a partir de mi contenido, voy a montar un Netflix y le voy a competir a OpenAI. Sería voy a montar mi Disney y le voy a competir a Netflix. Staubelflow he dicho no, Staurohed ha dicho, yo no voy a dar para hacer un chaGPT de un un modelo incluso especializado de programación, nunca voy a tener su nivel, mejor le vendo los datos vivo dependerle datos a ellos.

Pues no sé si es una derrota o es ser listo y coger el dinero y huir, la verdad, suena Bueno. Suenan bien las dos opciones.

En fin, Matías, pues, es que se nos está yendo de tiempo, pero hay temazos que vamos a dejar, vamos a dejar aparcados, tendremos que volver sobre ellos. Algún día, por fin, hablaremos de alfa fall tres, que es lo más chulo que ha pasado en Ia, en lo que llevamos de años, de verdad, amigas y amigos de monos, pero, bueno, lo siento, pero creo que solo nos queda tiempo, Mathey, para una cosa, nos queda tiempo para puerta grande o enfermería.

Venga, te doy unos minutos para que me sorprendas, porque ya esta semana yo me he estado divirtiendo mucho, así que a ver qué me traes.

Pues, Matías, yo la verdad es que me ha sorprendido que entre tus mensajes y tus diversiones en Twitter no hayas llegado al mundo de las famosas fiestas sexuales llenas de drogas de los primeros empleados de OpenEye.

No me he enterado de esto.

Claro, al parecer aquí Sonia Joseph, ¿no? Que es una doctoranda en machine learning en Prixton, se autodenomina la madre de la ágil de la inteligencia artificial general, pues dice que en sus años veinte ella se ha relacionado con la élite tecnológica y de la inteligencia artificial, y que había visto algunas cosas complicadas en los primeros empleados de OpenEye, sus amigos y emprendedores alrededor, que hasta ahora ella no había hablado. Entonces, hay rienda suelta de que, claro, ella dice que eventos consensuados con fiestas sexuales y LCD entre la IT y de la inteligencia artificial, pues son una idea, una un tema de que, a lo mejor, no hay que hablar tanto, pero por eso hace un post de de como de ochocientas palabras en Twitter. No tiene NDA, o sea, que yo creo que acepta ofertas, básicamente, ¿no? Y que y que aquí, Mathy, se puede anticipar que va a haber muchas cosas curiosas sobre el mundo de OpenAI.

Pero, claro, la pregunta es, Matthew, ¿tú de verdad esperabas que hubiera fiestas sexuales y bacanales en los primeros empleados de OpenAI plagadas de drogas ILCD. Pero

no, en absoluto. Tú lo has visto la cara de fracasos que tienen casi todos, ¿no? Y y lo y lo que más me ha hecho, gracias, que aquí un ingeniero de deep learning de Google lo haya retuiteado diciendo, no es ninguna sorpresa. ¿No? Esto es curioso, pero claro, ahora entiendo un tuit que borró Sam Alman, porque le preguntaban, y y qué hay de las orgías, ¿no?

Y Sam Bankman contestaba, te has equivocado, de Sam, y y refiriéndose, entiendo, a Sam Bankman-Fried, el de FTX, que ese sí hace de orgías, pero borró ese tweet, y que a lo mejor, al mismo tiempo que descubrió que que hay un acuerdo de confidencialidad que te impide te impide hablar una de las personas, descubrió que ahí estamos apoyando todo el Se nos llega uno por detrás, mira, Sam, una

cosa que no te habíamos invitado

por lo

que sea, ¿no? Porque no surgió. Claro, claro, a lo mejor había hasta la garganta. ¿Pero qué está pasando

con los informáticos, Matías? No, no, no, no,

no, no, no, no, no,

esta lagarteza.

¿Pero qué está pasando con los informáticos, Matías? En mis tiempos en la UMA, en la en la Escuela Técnica Superior de Higiene Informática, estas cosas no pasaban, no pasaban.

No, no, no. No, y yo de y en mis tiempos tampoco, o sea, yo era amigo de todos los informáticos y no tenían esa pinta. Bueno, alguno hacía sexo tántrico.

¿Está? Bueno, pues ya. A lo mejor por ahí empezó todo. En fin, otra otro tema interesante, menos sexual, porque hoy el podcast se nos está yendo mucho a hacia esas latitudes, Matías, es que Corea del Sur tiene un problema de natalidad, no hay juventud, no nacen los niños y, claro, eso hace que escase la mano de obra. ¿Cuál es su apuesta?

Pues la apuesta es que los camareros y los sumerieres a partir de ahora sean robots. Entonces, Seúl se está tomando muy en serio la creación de una economía K robot, no K de Corea, para compensar el descenso de su población activa, y se espera que la venta de robots de servicios se dupliquen con respecto al año pasado hasta alcanzar los mil millones de dólares. Entonces, si no puedes tener niños, ten robots, Matías, son los nuevos perrillos.

Lo veo muy bien, lo veo muy bien. Hoy me ha llegado un email que dice oportunidad de entrevista al robot spot de Boston Dynamics. ¿Cómo quieren cómo quieren que entreviste al robot de Boston Dynamis? Yo lo sé. Bueno, la cuestión es, yo, en los sumerieres, es un trabajo que eliminaría, porque no hay nada más incómodo que ir a un restaurante pijo y que venga un tío, primero te eche un chorrito de vino, te haga olerlo y te y y y le diga, perfecto, sigamos.

Y luego y luego te te siga echándolo, y que se ponga ahí como en la esquina de la mesa mirándote y y que veas cómo abra el vino, no hay nada más incómodo en el mundo que eso, y yo este trabajo lo habría eliminado, no entiendo por qué lo tienen que reemplazar con con robots.

Totalmente. En fin, enfermería para los los robos sumergida, los que ponen papas bravas y cervezas creo que no tiene problemas con ellos, eso lo ves bien, ¿no?

Eso por

ahí, ¿bien? Pero fíjate, esto es una realidad económica, es decir, hay un una tesis que a mí me interesó mucho en en cierto momento, que era por qué la Revolución Industrial sale en en Gran Bretaña y sale en esa época, y una de las tesis más persuasivas que que que a mí me convencía, ¿no? Postulaba que gran parte de varias epidemias y y varios sucesos habían disminuido mucho la mano de obra disponible, y que ante esa escasez aprovecharon los trabajadores para conseguir aumentos de salario. En el momento que los salarios son más altos, tiene el empresario más incentivo para innovar, introducir tecnología y pasar parte del capital a esta parte de la innovación, eso fue parte del combustible que dio lugar a a la revolución industrial, y que es posible que la Revolución robótica pase en países como Corea, en la que no hay mano de obra barata. Entonces, necesitas o o pagarle cinco mil euros a un camarero o meterte en estas en estas batallas.

Pero bueno, no no vamos a a bondad, te voy a dejar un último portal grande de enfermería, que es algo que puede abrirnos un mundo nuevo, Matías. Verás, los los interfaces cerebro ordenador, ahí tenemos a Neuralink, Elon y mucha más gente investigando, se utilizan para personas, pues, que tienen parálisis, por ejemplo, que tienen algún tipo de de, bueno, de minusvalía, ¿no? El caso es que académicos han hecho estudio, lo que están consiguiendo ver es con estas interfaces de cerebro ordenador puedes, como usuario, controlar un robot que no solo ejecuta un cada tarea, no como agarrar un vaso, pero sino que ya están consiguiendo que tu, acción Matías, tú tienes tu tu cerebro, ¿no? Y tienes un chip para manejar al robot. Entonces, ya cada vez puedes hacer más tareas, le puedes conseguir ejecutar hasta veinte tareas cotidianas.

Fíjate esta innovación, porque tú puedes estar en el salón de tu casa repanchingado en el sofá y, sin tener que moverte, con tu solo cerebro, podrás controlar el robot que está en casa, y de repente puedes, ¿no? Con, cerebralmente, mandarle a por una Coca Cola a la a la nevera, que la abra, te la eche en hielo y te la atraiga. Todo solo con la mente, Matías. ¿No es bonito vivir en el futuro? ¿No quieres un futuro así?

Es que es que no lo entiendo, por yo tengo que hacer un esfuerzo de ondas gamma y todo esto para que el robot se mueva. Yo prefiero que el robot proactivamente me traiga la cerveza. No entiendo por qué tengo que instalarme un chip y para manejar el robot.

Vas por delante.

Va por delante, Matías.

Vas por delante, Matías. Es que es que, claro, y fíjate el, claro, el el el esfuerzo de energía de tu cuerpo de verdad. O sea, tienen que tener un modelo predictivo y adivinar cuando tú quieres algo. Yo lo traía con toda mi ilusión, pensé que iba a ser un un una innovación que a ti te te animaría a abrirte la cabeza y que Elon Musk te introdujera un un chip, pero bueno, se ve que que va por delante, María, no no puedo decir.

Pues nada, aquí repasando Twitter, acaba de cerrar Open, hay un acuerdo con News Corp, el Washington, el Wall Street Journal y toda esta gente, o sea, que cada vez tienen más más medios integrados en en ChatGPT. Pero que integran con una buena suma de dinero monos estocásticos, hoy sigue siendo un podcast muy interesante de inteligencia artificial.

No, no lo vamos a poner barato,

En fin,

hombre yo creo que si vienen compacta de regalo le podemos dar parsec, ¿no, Mati?

Bueno, parsec tiene un extra. Es amigo de de astronautas, de verdad. Y, ah, bueno, y nos sigue Jeff Bezos, cosa que no puede decir, Monos.

Oh, bueno. Entonces, cuando vendáis parsec, vámonos, bonus regalo.

Nos vemos la semana que viene en otro episodio de Bonos.

Chao, amics.

Episodios recientes

Programas relacionados