FAMA MUNDIAL: pierde el trabajo sustituido por una inteligencia artificial

00:00 /1h00

Explicamos el Gizmodogate y cómo llega a YouTube una foto de Matías con un sombrero de paja de Cruzcampo.

Seguimos con las asignaturas 2023-24 de la IA:

ECONOMÍA

YouTube ha explicado su estrategia de inteligencia artificial en colaboración con las discográficas https://www.linkedin.com/feed/update/urn:li:activity:7099696832615755776

OpenAI lanza GPTBot con detalles sobre cómo restringir el acceso https://www.searchenginejournal.com/openai-launches-gptbot-how-to-restrict-access/493394/

Google ha creado una marca de agua para las imágenes de IA que no se puede eliminar https://www.theverge.com/2023/8/29/23849107/synthid-google-deepmind-ai-image-detector

OPEN SOURCE

Meta sigue publicando modelos de código abierto https://ai.meta.com/blog/code-llama-large-language-model-coding/

¿Pero son modelos libres o no? https://www.businessinsider.es/nueva-ia-codigo-abierto-meta-no-tan-abierta-como-parece-1277872

Llama 2 está tan censurada que no vale para el fanfic https://www.reddit.com/r/ChatGPT/comments/1560r1z/i_didnt_think_it_was_possible_to_have_a_more/

EJECUTAR LLMs EN EL MÓVIL

Qualcomm trabaja con Meta para permitir aplicaciones de inteligencia artificial en los dispositivos mediante Llama 2 https://www.qualcomm.com/news/releases/2023/07/qualcomm-works-with-meta-to-enable-on-device-ai-applications-usi

Karpathy sigue haciendo servicio a la comunidad https://twitter.com/shxf0072/status/1683508670263595008

GRANDES EMPRESAS VS. STARTUPS

Duet AI de Google ya está disponible en Gmail, Docs y más por 30 dólares al mes https://www.theverge.com/2023/8/29/23849457/google-duet-ai-docs-slides-gmail

Otra nueva función de Meet permite a Duet "asistir" a una reunión en tu nombre https://www.theverge.com/2023/8/29/23849056/google-meet-ai-duet-attend-for-me

PUERTA GRANDE O ENFERMERÍA

¿Competencia desleal? Las aplicaciones que prometen imágenes sexuales y compañía generadas por inteligencia artificial publican cientos de anuncios en TikTok e Instagram. Los trabajadores sexuales humanos suelen estar prohibidos https://www.nbcnews.com/tech/social-media/ai-girlfriend-ads-instagram-tiktok-chat-pics-chatgpt-dose-rcna97547

Grimes publica "I wanna be software" https://www.youtube.com/watch?v=qnk9ovzMLy8

Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com

Transcripción

Hola a todos, segundo episodio de la segunda temporada de Monos Estocásticos. Seguimos avanzando. Antonio, muchas novedades. Sí, sobre todo, Mati, creo que la novedad más importante, lo más trascendental que ha pasado la inteligencia artificial en España, y me atrevería a decir en el mundo entero, es un tuit que te ha parecido gracioso, que tú has seleccionado especialmente por lo oportuno y bien tirado que estaba el tuit, ¿verdad, Matías?

Sí, lo voy a compartir para nuestros amigos del YouTube. Me hizo mucha gracia este tuit de Cabano, Andrés. Dice, arranque impresionante de la nueva temporada de Monos Estocásticos. Bueno, Antonio, dos puntos. La IA todavía no le ha quitado el empleo a nadie. Matías, puntos suspensivos. ¡Puntos suspensivos! Bueno, la gente que me sigue en Twitter, ya se habrá enterado del cierre de Gizmodo en español,

que, bueno, cierre a medias, porque realmente despidieron a toda la plantilla, yo me encontraba entre los redactores, y a las dos horas empezaron a autopublicar contenido. Ya sabes que los nuevos dueños de, bueno, dueños llevan ya unos años, pero los dueños actuales de Gizmodo le dan mucho a esto del contenido autogenerado, ¿no? Generado por IA y, por otro lado, ahora han empezado con las traducciones.

Nada, como ya tienen traducciones automáticas, ya no les hacemos falta los redactores. Y, claro, ha tenido mucha cobertura, porque lo puse en Twitter, lo puse con un poco de sorna de una IA me ha quitado el trabajo. Aunque, honestamente, no sé qué están usando para las traducciones, pero es mucho peor que un DPL o un Google Translate. Es un, citando a Yaddoz, es un fucking disaster, Matías, el nuevo Gizmodo.

Qué manera de convertir un site, pues, bueno, competitivo, con marca, conocido, con audiencia, con comunidad. Convertirlo, pues, en una especie de pequeña basurita que mete, coge boletos para intentar salir en Google, que es el único camino por el que entiendo que puede tener esto algo de recorrido. Porque, claro, tú llegas a la portada y, claro, además, iba a decir en Gawker Media, en Gizmodo y en todos los sites de vuestro grupo,

había un estilo muy marcado para hablar con cierta jerga, con cierto tono, con doble sentido, con juegos de palabras. Las traducciones son, por el momento, esperpénticas, Matías. Sí, se ha perdido un poco ese estilo sarcástico que teníamos también todos los redactores de Gizmodo en español. Me sacaron en The Verge. La primera vez que salgo, creo, de The Verge es con un tuit metiéndome con mis anteriores empleadores.

Y no sé si esto me facilita las cosas o las empeora a la hora de encontrar trabajo, pero te quería enseñar, Antonio, lo que más gracia me ha hecho. Es un vídeo de YouTube de un canal que tiene 420.000 suscriptores que se llama Demente, ¿vale? En el que hablan del tema, tú sabes, con ese tono de YouTuber de una inteligencia artificial está reemplazando a las personas. Ese tipo de acento y ese tono así como catastrofista.

Pero estuve como 15 minutos riéndome porque para hablar de mí, escogieron estas fotos. No sé si las estáis viendo, pero soy yo. Para nuestros oyentes, aparece un contrapicado de Matías. Matías muestra un rostro serio. Yo diría que incluso desafiante. Mientras se ajusta un sombrero de paja con la marca Cruzcampo en él. Y así es como se pasa la posteridad, amigos. Efectivamente. La verdad es que no podría yo

haber pasado al paro de una forma más dramática que con esta foto en un canal de YouTube que, por cierto, tiene decenas y decenas de comentarios. Voy a ver luego si alguien habla de mi sombrero. Pero vamos a lo que nos ataña. Un último apunte de GimodoGate. Matías no lo ha dicho, pero están empezando a llegar las ofertas. Esto es como el final de mercado en la Liga de Fútbol. Ojo a la Liga Saudí. Ojo a las ofertas de fuera.

Este mercado de los editores y redactores de tecnología está globalizado. Atención al asunto. Así que el que quiera tener alguna oportunidad de que Matías colabore en su proyecto, que se vaya dando prisa. Solo digo eso. Que luego vienen los lloros y lamentaciones, Mati. A mí todavía de Oriente Medio no me ha llegado ninguna oferta. A ver si llegan esos petrodólares, Antonio. Bueno. Si viene, atención.

Yo creo que uno de los episodios o de las disputas más intensas de este curso sin duda va a versar sobre la economía de la inteligencia artificial. ¿Quién gana pasta con esto? Ahora mismo, digamos, tal como está planteado, pues los OpenAI, Google, Meta, Facebook, o Androfis, cualquiera, crea un modelo. Y en esa creación de un modelo hay un dataset siempre. Hay unos datos con los que el modelo es entrenado.

Digamos, en la época pre-Chats GPT, en la que esto iba un poco más fuera del radar, en la que había una mezcla de aproximación entre, sí, lo empresarial, pero también la investigación, pues se arrastraba una cultura de entreno el modelo con cualquier cosa que me encuentre por ahí. Bueno, cualquier cosa. Se intentaba seleccionar siempre con la máxima calidad, pero sin, digamos, pedir permiso o sin plantearte posibles problemas

con el copyright y los derechos de estos creadores de los contenidos. Ahora que está sonando la campanita de que aquí hay pasta y de que estas empresas, pues reciben inversiones millonarias, tienen modelos comerciales, empiezan a facturar a lo grande, como vimos en el episodio anterior, los que han puesto el contenido para ese entrenamiento están empezando a decir, oye, tenemos que hablar, tenemos que hablar.

Y, bueno, digamos que tenemos como dos vías ahora mismo alrededor de esto. Una en la que se judicializa, es decir, estos creadores empiezan a interponer demandas, imponer reclamaciones a los que han hecho los modelos, los creadores del contenido, que es Delta Z, a los que desarrollan el modelo de inteligencia artificial. Y también estamos empezando a ver otras vías que son más conciliadoras o de acuerdos comerciales

entre los desarrolladores del modelo y los propietarios de los derechos de propiedad intelectual, de copyright, de los contenidos. Un ejemplo de esto, Mati, lo tienes por ahí anotado, es el acuerdo entre Google y Universal, la discográfica. De hecho, tú estuviste hablando este verano, que te vi hablando mucho por el LinkedIn y por el Twitter, del tema copyright y canciones, porque YouTube es uno de los actores

más importantes en la industria musical. Mucha gente escucha música en YouTube o ve los videoclips. Y, como dices, tienen esa postura conciliadora con las discográficas, que son un poco los villanos, porque cuando nosotros hablábamos de canciones generadas con inteligencia artificial, estos memes que surgieron de Quevedo cantando de todo, o Daytana cantando otras cosas, pues siempre lo veíamos desde el punto de vista

de, oh, qué divertido, un meme aprovechando estos nuevos deepfakes. Pero, ¿qué pasa si una canción acaba petándolo, como pasó con la de Drake o con la de The Weeknd? Que la gente, de repente, empieza a escuchar canciones autogeneradas o generadas con estos modelos de inteligencia artificial, con estos tipos de deepfakes, y empieza a quedar atrás otro tipo de música hecha de la forma artesanal. Pues aquí es donde Google

se está acercando a Universal. Sí, ellos han publicado como tres principios sobre los que van a articular su propuesta, ¿de acuerdo? Google, YouTube, Universal, con las discográficas que quieren abrirlo. Y, bueno, básicamente dicen la inteligencia artificial está aquí y, por lo tanto, tienen ese aire de, esto no se puede parar, esto de la tecnología no le puedes poner puertas al campo, a lo mejor hay que tirar para adelante.

Es un poco el principio muy conveniente, de hecho, para que Google y YouTube pues puedan seguir creciendo. Básicamente lo importante es aquí que se cumplan los derechos de los propietarios del copyright, que es algo que ellos también anuncian en estos principios. Entonces, bueno, aquí lo que el plan es, por un lado, uso de la IA y creación de canciones basadas en los creadores y los músicos, cuyos derechos tiene Universal Music Group,

¿vale? Eso por un lado, pero con muchísimo control del copyright, de manera que ese nuevo negocio generado a partir de esto redunda en beneficio de atención los propietarios de los derechos. Aquí siempre hay dos asteriscos que hay que observar siempre. Una parte es el creador y otra es el propietario de los derechos de explotación de esa canción, que no tienen por qué ser los mismos. De todas maneras, han insistido mucho en que

esto beneficiará también a los cantantes y creadores de estas canciones, de alguna manera, aunque los derechos de explotación pertenezcan a la discográfica. Eso por un lado. Por otro lado, hay una cosa muy importante, que hay una divulgadora de temas de propiedad intelectual que insiste mucho siempre, que es Ainara Legardón, que además ha sido música muchos años y yo la he escuchado mucho y ahora la escucho como podcaster también.

Habrá que traerla al podcast. Hay que traerse a la podcast, es una maravilla. El tema es que ella insiste mucho en un punto que tiene razón, que es que las canciones tipo Drake realmente tienen que ver mucho más con los derechos de imagen, ojo, de los artistas, que con los derechos de propiedad intelectual. Como hicimos en el episodio con Andy Ramos, para quien quiera profundizar en este tema, realmente como tú con esa voz de Drake

no estás distribuyendo, no estás copiando, no estás digamos vulnerando ninguno de los derechos de propiedad intelectual ni estás diciendo que una canción de Drake ahora es tuya, no estás haciendo nada de eso, pero sí estás usando la imagen de Drake, imagen en sentido muy amplio. La voz de Drake también forma parte de los derechos de imagen de Drake. Entonces, claro, las discográficas van a tener una necesidad fuerte

de capturar no solo los derechos de propiedad intelectual de los artistas, sino también sus derechos de imagen para este tipo de explotaciones. Entonces, hay una ventaja que siempre tiene la discográfica a la hora de hacer sus acuerdos con YouTube o con Spotify o con cualquiera de estos, que es que YouTube y Spotify o Apple Music o cualquiera no puede renunciar al catálogo antiguo de la discográfica. Tú no puedes lanzar un Spotify

o no puedes triunfar en YouTube renunciando a Madonna, U2, Meccano, etcétera, etcétera. Es decir, la posición fuerte de la negociación de la discográfica siempre está en que, oye, si quieres tener el catálogo antiguo, tienes que darme ventajas a la hora de negociar con lo nuevo. Por eso, así, de esta manera, se protegen contra la disrupción de nuevos modelos. Es que con la IA se podría hacer una disrupción

o con Spotify, con YouTube, con YouTube, etcétera, etcétera. Bueno, siempre la discográfica tiene mejores acuerdos y tiene una posición de ventaja negociadora porque todas estas plataformas necesitan el histórico cuyo poder y cuya representación cae en manos de la Universal o de la Warner o de cualquiera, Sony o quien sea. Entonces, claro, ese tema en concreto tiene unos pipes, tiene unas, digamos, vibraciones de dos de los grandes

modelos de música. Vamos a intentar que la IA provoque cambios, pero unos cambios que no nos impacten en nuestros negocios. Bueno, lo que está claro es que las grandes empresas como Google están tendiendo a proteger los contenidos originales, como ya comentábamos, de Firefly y de Adobe y también de Meta con AudioCraft, que es este modelo que creo que lo llegamos a comentar, ¿no? Que es uno de los modelos de audio más completos

que existen y que es de código abierto y está disponible para todo el mundo. Puedes crear cualquier tipo de melodía o de música o de efecto de sonido y, bueno, se también entra dentro de ese esfuerzo de Meta por hacer sus modelos un poco más abiertos. Aunque ahora también comentaremos algo sobre la apertura de Meta, ¿no? Sí. Donde también hay movidas en este tema de quiénes tienen los datos de entrenamiento

y quién los explota y la propiedad intelectual es con los textos, los medios de comunicación y los webs y los creadores de contenido. OpenAI anunció un, bueno, un GPT-Bot. GPT-Bot es como el bot de Google. Va, pues, rastreando y leyendo páginas web con el objetivo de que, bueno, esos datos que rastrea puedan servir para entrenar inteligencia artificial, ¿vale? El caso es que, al igual que el bot de Google, los administradores de páginas web

pueden impedirle el acceso. Siempre tienes tu ficherito, digamos, tu robots.txt que le dice a estos bots a qué tienen permiso acceder y a qué no. Entonces, el GPT-Bot está planteado de manera de que si tú tienes una web le puedes decir a OpenAI si puede leer tu web o si, al contrario, tú deseas que no. Es un mecanismo que se llama de opt-out, es decir, de que te puedes salir. Nadie te pregunta si quieres entrar,

eso sí, pero tú te puedes salir de este tipo de indexaciones, ¿no? Bueno, y también está pensado un poco para filtrar contenido de muros de pago que ya OpenAI tuvo problemas con esto que tuvo que desactivarnos a los usuarios de chat GPT+. Bueno, la versión de GPT-4 con acceso a Internet y ahora tenemos que conformarnos con plugins de terceros, ¿no? Como el WebPilot que comentabas en el episodio anterior. Sí, por cierto,

el WebPilot se ha vuelto tonto. Porque ahora tú cuando, por ejemplo, usas un plugin puedes ver qué prompt le mandan al plugin y le ponen algo así. Si el usuario no ha hecho ninguna pregunta concreta, plantea tú tres preguntas. Es como, resúmeme esta web y al final se hacen tres preguntas sobre el contenido de la web sin venir a cuento, ¿no? Y me da coraje, me da coraje. Yo no quiero que se haga preguntas. Las preguntas las hago yo.

Vamos a ver qué es esto. No, ahora en serio lo veo un poquito más flojo. Ahora estoy probando otro que se llama Scrapper. Entonces, bueno, esto es salto de uno en otro. También uso mucho, ya lo hablamos, el integrado en Edge con Bing que suele resumir muy bien. El caso es que muchos editores ya han puesto a GPT-Bot la señal de stop, de no entres. Pero, claro, no se quieren quedar ahí porque GPT-3, GPT-4, muchos de estos modelos

han usado contenidos, se presume, porque los datasets de los últimos modelos de PNI son secretos, secreto industrial de la empresa, no lo quieren compartir. Pero muchos editores sospechan de que, claro, gran parte del dataset son contenidos de medios de comunicación con copyright y están dispuestos a pasar a la demanda. El New York Times, por ejemplo, está muy agresivo, ha cambiado sus términos y servicios para indicar que no permite

ya expresamente, pero aún así, junto a Axel Springer, que siempre le envuelan mucho estas cosas, están planteándose demandar porque, claro, los acuerdos que ahora mismo OpenAI está negociando con los editores de medios es, bueno, de compartir algunos milloncillos de euros o de dólares, en su caso, con los grupos de medios, pero parece que los medios tienen una ambición bastante más grande a la hora de cuánto

pueden facturar por este hecho. OpenAI, en alguna de las demandas que ya tiene, está contraatacando, se está defendiendo y está diciendo que chatGPT no es una obra derivada. Esto es uno de los puntos clave que va a estar en cuestión a la hora de judicializar los modelos de inteligencia artificial generativa y dice que entrenar chatGPT no es una infracción del copyright, sino que realmente, como no se guarda una copia

de las obras y solo se le enseña a los modelos las reglas del lenguaje, pues, de alguna manera, no infrige los derechos de copyright de las obras originales presentes en el dataset. Esto va a ser uno de los, digamos, puntos nucleares de la discusión de la propiedad intelectual y la inteligencia artificial. Sí. He visto muchos tweets sobre esta demanda que se plantea importante, porque, por lo visto, OpenAI se mete muy filosóficamente

en lo que tiene copyright y lo que no tiene copyright, por ejemplo, en una obra escrita. También hemos visto ahora en YouTube el titular de Semaphore de los editores quieren billones, no millones. Claro. Del área. Bueno, todo el mundo quiere billones de la AI últimamente. Claro, es que, si lo piensas en términos económicos, si a ti te pagan por haber entrenado a GPT-4, te pagan, eres de New York Times, un millón de dólares.

Tú pagas un millón de dólares, pero todo el valor que se genera a partir de GPT-4 que sea transformador de tu industria, que en algunos casos puede incluso llegar a menoscabar tus modelos de negocio, pues, no, no compensa. Entonces, mi opinión, no tengo una opinión judicial, ¿vale? No tengo una opinión de realmente deberían pagar, han infringido el copyright, no, no lo tengo claro, pero como carta negociadora seguramente

los grupos de medios más potentes querrán un porcentaje. Entonces, con un porcentaje tú te aseguras de que capturas gran parte del valor que has ayudado a generar. Es decir, si al final GPT-4 es el negocio del siglo en la nueva electricidad y transforma las industrias, bueno, esto es un negocio de, ¿no? Como dicen, ponen ahí en Semaphore, billions, de miles de millones. Por lo tanto, aquí van a ir muy fuerte los grupos de medios.

Bueno, ya hemos visto antes que hay que actualizar el robots.txt con un disallow para el GPT-Bot, pero de lo que no os vais a librar si sois usuarios de Twitter para entrenar los modelos de inteligencia artificial de la empresa del señor Elon Musk XAI, porque, efectivamente, como ya sospechábamos que pasaría, han actualizado los términos de privacidad de Twitter para permitir esto, ¿no? Para permitir que se puedan entrenar

modelos de IACOM con los tweets. Sí. Lo comentamos en alguno de los capítulos de Monos. El que tiene una plataforma para entrenar una inteligencia artificial para su usuario tiene ahora una base económica importante. Si tú no tienes plataforma, como puede ser OpenAI, tienes que ir rascando de webs de otros sí o sí, o de libros o de cualquier otro contenido. Twitter y la vocación de Elon de tener esta empresa de inteligencia artificial,

pues, son un buen punto de partida como dataset para enseñar el lenguaje a las IA. Y, bueno, si tú tienes una plataforma para entrenar una inteligencia artificial con tu usuario, pues, tienes que ir rascando de webs de otros sí o sí, o de libros o de cualquier otro contenido. Y, bueno, las plataformas de contenido de usuario son muy bien para entrenar modelos de IA. Y, bueno, si tú no tienes plataforma, pues, tienes que ir rascando

de webs de otros si o si. Entonces, el mejor punto de partida que tienes es tener una plataforma que te gusta y te guste y te guste y te guste y te guste y que te guste y te guste y te guste Sí, tenemos esta parte de Google que ha anunciado la marca de agua Synth ID, que al final es una base criptográfica, por lo cual, al hablar de generar la imagen, está cifrada la marca de agua dentro, dentro de los bits que también representan la imagen.

Y en teoría, según Google, no se puede modificar la imagen para eliminar esta marca de agua. Es decir, siempre se sabrá que esa imagen, incluso aunque se modifique, tiene un origen o ha pasado por una inteligencia artificial generativa. Esto, de alguna manera, puede dar un poco de tranquilidad a los que están muy preocupados por las imágenes falsas y que estas imágenes falsas y los vídeos que vendrán puedan

servir para la desinformación, para mentir en internet, etcétera. Pero a la vez puede fastidiar un poco a esos creadores, por ejemplo, tú entrenas una inteligencia artificial con tu propio contenido y que te ayuden con tu propio estilo a plantear y a generar imágenes y que estén en tu workflow de creador. Además, luego puedes hacer un montón de cosas encima y tal, pero al final el cliente de tu obra podría decir, no,

pero aquí indica que está hecho con inteligencia artificial, por esto no te voy a pagar tanto. Bueno, para ese caso de uso probablemente sea bastante fastidioso. En todo caso, de momento solo lo ha adoptado Google, que como además no nos deja generar imágenes con sus modelos, pues tampoco da un poco igual ahora mismo. Pero puede haber un futuro en que por ley se imponga que las IA generativas todas añadan un sistema parecido y que las

plataformas tipo Twitter, Facebook, LinkedIn señalen cuando una imagen ha sido generada con IA o no. Por cierto, mucho este proyecto no lo conocía, C2PA, Coalition for Content Provenance and Authenticity. Authenticity, perdón, es una palabra difícil. Que llevan dos años intentando crear un protocolo de internet de código abierto basado en criptografía para codificar detalles sobre los orígenes de un contenido y luego poder hacer

el seguimiento de su procedencia. Más de un meme me han robado a mí, Antonio. Atención, atención, denuncia aquí. A lo mejor, fíjate, se puede resolver uno de los grandes misterios de la cultura humana y de nuestra evolución cultural, que es quién inventa los chistes. Porque, claro, siempre es un misterio quién inventa un chiste, que luego se repite. Esos memes de éxito del mundo offline, claro, y que son capaces de ocupar nuestra cabeza y que nos

incitan a ser reproducidos y a contagiar a otros con ese mismo meme, uno de los grandes problemas culturales es que no sabemos quién inventa los chistes. Pero con este protocolo es posible que lleguemos a saber a los inventores de cada chiste y cada meme digital. Yo siempre me pregunto esto porque los refranes entre Argentina y España hay como ligeras diferencias en estos refranes antiguos. Por ejemplo, en casa de Herrero, cuchara de palo o cuchillo de

palo, la gente lo dice de diferentes maneras. Me gustaría saber cuál es el original. Un cuchillo de palo igual no tiene tanto sentido como una cuchara de palo. Ahí dejo esa reflexión. Pues ya está. No mucho más que contar sobre marcas de agua, pero parece que, bueno, por lo menos Google está dando mucha importancia. Así que, ¿qué más? ¿Qué más asignaturas? Pues tenemos que hablar de open source.

Open source. Bueno, hemos metido un poco la patita en open source antes para hablar de meta porque al final es meta la que está haciendo el esfuerzo más grande o el impulso más grande en esto de abrir el código de sus modelos a medias, ¿no? Porque no son totalmente de código abierto, no son proyectos de free software. Bueno, Matías, con la gente del software libre hemos topado. Es decir, la gente del software libre son muy exigentes a la

hora de poner su sello en un proyecto como libre o no libre, abierto o no abierto. Al final casi siempre es más práctico hablar de qué licencia tiene el código para más que ponerle ese marchamo de libre abierto que en ocasiones, a veces, se usa más como una estrategia marketingiana que otra cosa. Entonces, bueno, hay un debate sobre si el modelo de Yama 2 meta planteado como de código abierto es muy abierto o no es

muy abierto. Hay un artículo en Business Insider, creo que se lo estás enseñando un poco a la gente de YouTube. Bueno, el caso es que la open source initiative no está tan convencida de que esta licencia a medida que se ha inventado meta para Yama 2 sea abierta. Esto tiene que ver un poco con las restricciones, acuérdate, que, por ejemplo, Yama 2 no podría usar a alguien que tuviera más de 700 millones de usuarios mensuales.

De hecho, no he mirado al detalle cómo hay que medir esto de los usuarios mensuales, porque en analítica tú cambias la herramienta y ya los números te cambian por completo, porque, bueno, hay muchas decisiones discrecionales a la hora de ejecutarla, ¿no? Claro, es un ejemplo de, oye, si esto es abierto de verdad, sea abierto, pero no puedes imponer restricciones contractuales extras en el momento de la descarga del

modelo para, pues, eso, protegerte de que no la use un rival directo de Facebook. Bueno, el caso es que es verdad que, siendo estrictos, no cumple con las normas de la open source initiative, pero que, bueno, que tiene un valor incalculable para la innovación abierta, para que pequeños proyectos, pequeñas empresas puedan trabajar sobre un modelo carísimo que no se podrían permitir. Eso creo que hay que defender que Meta sí lo está haciendo.

Y como antes he hablado, Matías, están liberando otros proyectos, no solo Llamados, es la filosofía de la empresa. Y aquí, vamos, yo muy a favor, muy en el barco de SAC en este caso. Sí, porque no solo liberaron ese del modelo este de audio navaja suiza multipropósito del que hablábamos antes, sino también un llama específico para la programación, ¿no? Que se llama Code Llama. O sea, si ya habíamos visto virguerías de la gente que se

descargó el llama filtrado y empezó a implementarlo en procesadores móviles, pues, me imagino que este Code Llama también va a ser, pues, eso, muy aprovechado por la comunidad, ¿no? Ahora que Facebook también, perdón, Meta también lo ha liberado. Sí. Aquí el debate, aparte de que Llama haga esto o no lo haga, es doble con los modelos open source, con los modelos abiertos, y tiene que ver mucho con la

regulación que va a traer la Unión Europea. Que ya recordamos que todavía no está implantada y que probablemente hasta final 2024 o 2025 no la vamos a ver en vigor, pero en el que ya hay una propuesta firme, esta Ley de la Inteligencia Artificial Europea, porque, digamos, al considerar los modelos grandes de lenguaje como de alto riesgo, digamos que añadían bastantes costes a la hora de poder ponerlos en producción y poder

trabajar con ellos, a todas las pequeñas presas, mucho riesgo de sanciones millonarias, la prohibición de testarlos en el mundo real, digamos, en abierto. Entonces, incluso empresas muy alrededor del mundo del open source, como GitHub, Hugging Face, están pidiendo a la Unión Europea que lo reconsidere. Una cosa a favor, por ejemplo, de Saint Alman, que ha ido cerrando y cerrando OpenAI hasta hacerla totalmente cerrada, pero que en su discurso, de alguna manera,

defendió en algún momento que los modelos abiertos no deberían tener tantas restricciones como los modelos propietarios. El caso es que en Reddit he estado viendo las conversaciones de gente que ha empezado a montar cosas con Yama 2 y hay algunos que dicen, no he visto una inteligencia artificial más censurada y más controlada hasta que empecé a utilizar Yama 2. Claro, meta lo que no, claro, ¿qué es lo que ha hecho meta?

Pues, esa forma de lo que llamamos la lobotomía que se les practica a los modelos de inteligencia artificial, es decir, la fase de aprendizaje por refuerzo con feedback humano, le han restringido muchísimo, muchísimo, muchísimo, muchísimo, cualquier cosa que tenga que ver con la sexualidad, con la violencia, con cualquier expresión que no sea super Flanders, es decir, si GPT-4 era Flanders, esto es el Flanderismo al máximo, Matías.

Entonces, claro, ellos dicen, lo damos a Open Source, lo damos por ahí, la gente puede empezar a montar barbaridades. Entonces, nos vamos a sobrepasar, nos vamos a de alguna manera supercontrolar lo que puede salir de este chatbot. ¿Quién lo diría, no? Al final todas estas herramientas tan potentes se iban a convertir en el vecino Ned Flanders que habla así como con diminutivo. Pero esto me hizo mucha gracia porque un usuario de Reddit

quería crear un fanfic de las ardillas chip y chop, en concreto, de las ardillas chicas, las ardillas femeninas. No sé cómo se llama en español, pero en inglés es gadget hack wrench. Y Llamados le contestó que no, que eso requeriría crear un escenario ficticio y que, bueno, es importante que cualquier trabajo creativo que presente un personaje de una franquicia preexistente como chip y chop no infringa el trabajo original y

sus derechos de autor, bla, bla, bla. O sea, que no sirve ni para crear un fanfic guarro. Es que controlas hasta lo que puede decir de chip y chop. Es decir, aquí en el fondo va a haber un debate. Es decir, ¿aceptaríamos una máquina de escribir? La cosa viejura, ¿no? Que cuando tú le dijeras, escribe estas palabras, ¿no? Tú estás tecleando se negar. ¿Aceptaríamos un pincel, no? Que tú vas y dices, voy a pintar, pues no sé,

voy a hacer un fanfic de los personajes de Futurama, pero lo voy a poner en pelotas. Porque mi obra creativa es hacer eso. Pero el pincel se niega y el lienzo se niega a reflejar lo que tú estás pintando. Nuestras herramientas creativas vienen con la censura previa de las grandes empresas tecnológicas, que es una censura previa para cuidarse de la presión gubernamental y el poder que tienen las organizaciones y las

grandes empresas propietarias del copyright. Entonces, estamos aceptando con herramientas para la creatividad que no deberían tener, en mi opinión, ningún límite. La creatividad artística no debería estar limitada, debería ser cualquier cosa que pienses la puedo contar. Pues estamos empezando a aceptar y a convivir con herramientas creativas que vienen con una censura previa. No, es que al final todas las grandes tecnológicas que

entrenan estos modelos tienen sus límites. Mice, muchas gracias. Bueno, ya sabemos, por ejemplo, que en la App Store no puedes poner absolutamente nada mínimamente sexual, desnudos, etcétera. Bueno, Elon Musk era la Dalí de la libertad de expresión. Anoche tuiteó que él defiende al máximo la libertad de expresión, salvo contenido antisemita, ¿no? Por ejemplo, cada uno tiene sus límites que son lógicos,

como el antisemitismo. Pero al final vamos a estar encajonados en esas directrices de las grandes empresas que entrenan estos modelos. Bueno, en todo caso, el mundo pensor te abre la puerta a que este control no exista. Aunque venga llamados así, tenemos ejemplos como el de Stable Diffusion. Tu Stable Diffusion lo puedes seguir entrenando, añadirle otras obras y enseñarle otros estilos que no vengan en el original.

Es muy famoso, ¿te acuerdas? De que al principio Stable Diffusion, muchos de los creadores que utilizaban la herramienta ponían a Greg Rutkowski como tu pueblo en el pron que te salen imágenes guapísimas, ¿no? Entonces, la gente usaba mucho Greg Rutkowski. Greg Rutkowski le tocó la moral que todo el mundo estuviera generando imágenes con su estilo. Y en las últimas versiones de Stable Diffusion ya no venían

trabajos de Greg Rutkowski que no se habían utilizado para entrenar Stable Diffusion. Por lo tanto, poner Greg Rutkowski no hacía que no pudieras generar imágenes como con las versiones previas. El caso es que como Stable Diffusion te permite ampliar, no usas LoRa, hay distintas técnicas para ampliarlo y enseñarle más cosas, pues, puedes volver a descargar de internet 100 imágenes de Greg Rutkowski, se las metes y,

de nuevo, los vuelves a tener. Y, además, no es que eso tenga que hacerlo cada usuario, es que tú puedes compartir ese modelo, te vas al Civitae de turno, lo subes y todos los usuarios de Stable Diffusion se pueden descargar ese modelo que es Stable Diffusion más Greg Rutkowski. Pues, te lo vuelves a bajar y ya lo tienes. Por lo tanto, el mundo abierto sigue siendo un desafío al control de las empresas tecnológicas,

el control de las empresas del copyright, etcétera. Es el mundo, pues, ese, que te da, que da al creador, no al creador original de Dataseq, al que no le preguntan, pero sí al nuevo creador si le dan la libertad de poder elegir lo que él quiere crear realmente. Entonces, bueno, este mundo del software libre va a estar metedísimo en el debate hoy día. Está muy bien que hayan encontrado una solución,

pero mi pregunta es, ¿estos artistas de IA que reclaman tanto su propiedad intelectual, sus derechos de autor, etcétera, pueden ser menos originales? Que se copian unos a otros sus prompts y sus ideas, en fin. Bueno, fíjate, para rematar el tema de propiedad intelectual, ha habido otra ascendencia en Estados Unidos de que si tú generas una imagen con delente artificial, no la puedes registrar, no puedes arrobarte el copyright.

Ya lo hemos discutido mil veces, nos remitimos al episodio con Andy Ramos en que profundizamos y ya teníamos en qué casos sí, en qué casos no, cuál puede ser un poco ese escenario futuro. De hecho, bueno, la Oficina de Propiedad Intelectual de Estados Unidos ha abierto una consulta para ver cómo puede meter mano a todo esto. Va a estar supermovido, pero bueno, que si tú creas con una IA, si tú tienes un prompt y lo pasas

a Meet Journey, esta es la difusión o cualquiera, que sepas que no tienes el copyright directamente por eso es lo que sale de esa herramienta. Y, por favor, yo tengo un llamamiento, compartid los prompts, no seáis, no habéis descubierto la forma de enviar un cohete a Marte, le habéis puesto una cosa para dibujar guay a una herramienta, o bien, muy bien, pero compartid los prompts. Si todos habéis aprendido de copiar a otros, ¿qué más os da?

Pues, compartid los prompts. Y vamos a otra asignatura matemática, que es una asignatura, a ti que eres fan del iPhone, que tienes ese podcast cupertino sobre Apple, te va a interesar porque uno de los retos de este curso es llevar los modelos grandes de lenguaje al teléfono móvil. Un tema que también hemos comentado mucho aquí y que siempre comentamos, a ver qué hace Apple, a ver qué hace Apple, porque Apple lleva tiempo filtrando

que son muy potentes en modelos generativos, pero todavía no han presentado nada. Y a mí hay una cosa que me ha pasado y no sé si te pasa también. Yo siempre he sido muy heavy user de Alexa y de Siri y de todos los asistentes de voz, pero desde un tiempo a esta parte, lo que hago es abrir la aplicación de ChatGPT, mandarle un mensaje de audio y esperar la respuesta de GPT-4 porque siempre va a ser mucho mejor y mucho más convincente.

Incluso, aunque le tengas que preguntar cuántos días hay desde tal fecha a tal otra fecha, te llama al Wolfram Alpha y te lo responde sin problema. Y Siri no sé si es que ha retrocedido, pero cada vez me parece más tonta y quizás que lo estoy viendo con esa mirada en retrospectiva de, oye, usuario de un modelo de lenguaje más serio. Mira, hace poco todavía no he salido, pero grabé con Alf de FactMac un podcast.

Pronto estaremos ahí en el podcast de FactMac, el gran clásico de la temática Apple en español. Y me preguntó sobre el tema y mi visión es clara. Yo soy Apple y creo que lo que tengo que hacer es coger Siri, tirarlo a la basura y empezar de cero. Pero radicalmente. Es decir, es como decir, oye, mantengo estas imprentas en la era de que ha empezado internet, que hago una imprenta un poquito mejor. No, no, no.

Tíralo y tira todo. Bueno, tíralo, pero que se entienda la imagen. Puedes quedarte en el negocio de las imprentas y apurar todo el tiempo que le queda a ese modelo tecnológico. O si realmente quieres competir en estar lo último, pues, mira, ve mirando también la otra parte. Mi punto con Siri es, realmente tienes que empezar de cero. Los desafíos, lo hemos comentado alguna vez, los modelos grandes de lenguaje tienen latencia,

sobre todo si llamas una API externa, que tú haces con chat GPT, tarda un ratito. No es tan inmediato como la respuesta rápida que te da un Alexa, un Siri, un Google, todos estos modelos. Y también Apple tiene una posición muy fuerte de privacidad. No quiere que cuando tú hablas con Siri, salga del teléfono la conversación. Entonces, ¿cuál es el reto? Aquí tienes, por ejemplo, el anuncio de Qualcomm con metal,

intentando llevar llama 2 al dispositivo, a que se ejecute dentro del móvil, dentro de un chip Qualcomm y que no salga de ahí. Eso se puede hacer. Ha habido gente que ha llevado modelos de llama a teléfonos móviles. Claro que son las versiones más comprimidas y recortadas. Por lo tanto, de lo que estamos lejos ahora mismo es del rendimiento de GPT-4 con un modelo que se ejecute en el móvil y no salga de ahí.

Y que encima tenga una latencia pequeña, de manera que no tengas que esperar en la respuesta. Para eso todavía no hay tecnología. Bueno, y matarías 2 pájaros de un tiro si lo consigues, porque cuántos titulares de cuánta agua y cuánta energía que consume cada consulta al echar GPT, pues quedaría un poco en el olvido si consiguiéramos ejecutar esto en el móvil. Por cierto, creo que lo llegamos a mencionar la temporada

anterior, pero Andréi Carpati, que ahora está en OpenAI, tenía la tarde libre y en 2 horas escribió o reescribió llama en lenguaje C. Y ahora hay gente ejecutándolo en un Android barato, ¿no? No sé qué Android será este. Cualquier Android de 200 euros y es un modelo de 44 millones de parámetros, ¿no? O sea que nada mal, nada mal este genio de Carpati. Sí. Estas cosas, bueno, las cosas de los modelos abiertos.

Aunque Carpati ya no esté en ese negocio, pero mira, el hombre en su tiempo libre se ve que no le ha dado por ver series de Netflix y que está con la AI a tope, ¿no? Otra asignatura, tenemos que ir rápido con las dos últimas, Mati. Bueno, ¿quieres que vayamos con las dos últimas o que vayamos con Puerta Grande o Enfermería, Matías? MÚSICA MÁRIO LÓPEZ SELA A TRAVÉS DE INTÉRPRETE No podemos hacer otra cosa que ir a nuestra sección favorita y

repasar las ideas locas de la semana. Pues déjame que seleccione muy bien esto porque, atención al éxito que puede tener un país entero gracias a la inteligencia artificial. La fiebre de la AI convierte el dominio punto AI de Anguila en una mina de oro digital. Atención porque este pequeño país insular podría, una isla tropical, ingresar o aumentar el 10% de su PIB en venta de dominios. El gran negocio de Anguila es que, claro,

que es el Estado el que gestiona los permisos de los dominios y, claro, como todo el mundo quiera un dominio punto AI, Anguila está haciendo el agosto. Podría ingresar hasta 30 millones de dólares este año. Claro, el 10% del PIB de Anguila tampoco es una barbaridad ni una locura. Y Bloomberg dice que, bueno, claro, 30 millones de dólares al año más para este país es el gran negocio. Entonces, el gran negocio de los países puede ser tener el

nombre adecuado para que te toque el dominio adecuado, Matías. Esto no le pasó a Tuvalu, creo que se llamaba el país insular este del dominio punto TV. Y ahora como nadie ve la tele, pues me imagino que se estará hundiendo con el crecimiento de los oceanos y todo el mundo se olvida de Tuvalu. Es curioso esto de la mala suerte y la buena suerte de los países porque tienes que aprovechar tus 5 años de brillo

de tu dominio. Y claro, el punto es no le veo mucho futuro, Mati. No, es que ya debería haber alguna tecnología que su crónimo fuera ese, pero seguro que luego para contratarlo hace falta autofirma o algo así y nadie lo puede contratar. O sea, quedaría igual en España. Tienes que acordar el del pin de clave y así no podemos ir a ninguna parte. Claro, es que, bueno, tampoco lo pone muy caro. El dominio ahí vale 140 dólares los 2 años, 70 al año.

Bueno, sí, sí es caro, más caro que los.com y que todo esto. Yo le veo una opción aquí a Cataluña. Es decir, que con la fiebre con los gatos, el.cat. Yo creo que ahí puede tener algo de recorrido y que ahí puede estar en la negociación de Putemont. Yo lo dejo aquí, que la explotación del dominio.cat puede ser un gran éxito. Entonces, Matías, puerta grande de enfermería a los países con nombre adecuado para esta época.

Viendo lo que le pasó a Tuvalu, que está en el olvido, pues enfermería, supongo. Me estoy dando cuenta que.ar de Argentina podría ser en realidad aumentada, pero como Apple ha cambiado el nombre a .xr, pues ya no sé. Qué mala suerte. Pues ahí dejamos esta parte. Y bueno, ya comentamos a nuestros lectores que vamos a tener dos secciones nuevas y una es Genios Comprendido de nuestro tiempo. Y viene nuestra musa, Matías, nuestra referencia,

la gran artista de la que todavía no se habla lo suficiente, que es Grimes, que ha publicado una magna obra, su single, del que ya anticipamos, pero que realmente yo creo que ha superado al menos mis expectativas, Matías. I want to be software. Pues mira, dos cosas que no esperaba de esta temporada. Uno, que me despidieran por una IA y dos, que te volvieras fan de Grimes. Está muy bien, está muy bien el tema.

Espero que lo hayas escuchado varias veces, Matías, porque ella quiere ser software, applaud my mind, toma todos mis datos que encontrarás, batería corazón, opciones infinitas, estado del arte. Quiero ser software, quiero ser código. Quiero ser software, quiero ser código. Es la canción que yo creo que tenía que llegar en este tiempo, esa liberarnos de lo natural para pasar completamente a una vida artificial, Matías.

Bueno, y ella está posicionada para conseguirlo, ¿no? Porque como ha cedido la mitad de sus derechos para la gente que genere nuevas canciones con su voz, pues podría seguir creando canciones indefinidamente, ¿no? La gente a la que le guste su voz podría crear obras tan fantásticas como I want to be software y ya podría seguir existiendo de una forma un poco virtual. O sea, que si hay alguien posicionado para convertirse en

software, esa es Grimes, ¿no? Sí. Además, fíjate una cosa curiosa que, bueno, está todo este punto del artista y su paso a la historia, ¿no? De la trascendencia del artista, de que los grandes pasan a la historia del arte y son recordados por generaciones. Hace poco veía un reportaje sobre Bolaño y Bolaño decía que esto era una chorrada, ¿no? Que esto pasará en los años, pasará las décadas, pasará los siglos, te olvidarán.

Entonces, no te obsesiones con eso porque es inútil. Pero fíjate que el camino de Grimes, que es todo el mundo puede crear cosas con mi voz y con mi imagen, puede ser un ticket a pasar a la historia, a la trascendencia y que la gente con el tiempo siga viéndote y siga contigo con tu voz y con tu nombre porque se seguirán creando obras dentro de un siglo al estilo de dentro de un siglo con la voz de Grimes, tal vez.

Es posible porque ya lo permite. Bueno, ahí yo lo dejo porque ingenios incomprendidos de nuestro tiempo, Grimes, yo creo que empieza a competir con Martín, nuestro primer referente de esta sección. Y, bueno, ya llevamos 2. Yo creo que puede ser fecundo esta línea del podcast. Y te traigo una consulta, Matí, porque creo que en tu caso eres una persona especialmente posicionada para responder. La competencia injusta de la inteligencia artificial con

respecto al ser humano. Atención. Un tema muy de actualidad en mi casa. Sí. Las aplicaciones que prometen imágenes sexuales y compañía generada por inteligencia artificial publican muchos anuncios en TikTok e Instagram. Sin embargo, las trabajadoras sexuales humanas y los trabajadores sexuales humanos suelen estar prohibidos a la hora de anunciarse en estas mismas plataformas. Entonces, claro, no hay una ventaja injusta para la IA en

este caso porque, hombre, si competimos de igual a igual, pues, bueno, ahí ya pues hablamos, ¿no? Pero, oye, es que tú puedes poner un millón de anuncios en Instagram y, en cambio, este chico o esta chica que tiene su, bueno, su OnlyFans o sus cositas, pues, no puede anunciarse ahí, tiene que estar todo el día en Reddit, ahí o en Forocoches o donde sea que haga la promoción. Además, otro caso, un sistema de inteligencia artificial vence

a los mejores pilotos humanos en carreras de drones, de drones. Vale, vale, vale. Atención. Yo he visto alguna competición de drones con la gente de DJI, los chinos que tienen estos drones tan chulísimos, ¿no? Y es un espectáculo curioso, ¿vale? A mí se me hizo un poco largo cuando fui a una competición de drones, pero es verdad que es una cosa tecnológicamente digna de ver, ¿vale? Bueno, el caso es que hasta hace poco los humanos eran mejores

que los robots pilotando drones, pero un grupo de integradores suizos venció a 3 grandes campeones en 15 de 25 carreras, lo cual es un hito de la robótica según este equipo de investigación. Según The Guardian dicen que estaban en igualdad de condiciones, pero he leído algunas críticas y me he ido al paper de Nature, donde cuentan todo esto. Y claro, los drones en competición usan dos tipos de información que los humanos no tienen.

Los datos inerciales, ¿vale? De a bordo, que les permite sentir, entre comillas, o tener en cuenta las aceleraciones sobre el drone. Y ahora como los humanos no están montados en el drone, no tiene esta información. Y claro, también tiene una estimación de la posición y la orientación del drone a lo largo del circuito por la atención de las puertas de carreras en las imágenes de a bordo. Es decir, como tienes cámara de a bordo, puedes verlo mejor.

En fin, que atención han ganado la carrera, pero que tienen ventaja, Mati. Por lo tanto, en esta consulta ética, ¿tú crees que debería igualarse en todos lados los derechos y la competición entre humanos e inteligencia artificial? Un ministerio de igualdad frente a la IA sería, ¿no? Podría ser, podría ser. A mí lo que me fascina de todo esto es lo impredecible de a quién le quitan el trabajo las IAs.

Si tú me hubieras dicho hace unos años que las trabajadoras sexuales, por ejemplo, iban a sentirse desprotegidas frente a la IA, pues me habría llamado mucho la atención. Y esto de las carreras de drones controladas por IA, me parece un poco como los Scalestris, ¿no? Que son súper aburridos, ¿no? Porque al final están dando vueltas, pero no hay ningún tipo de emoción. Perdón para los fans del Scalestris.

Scalestris, perdón. Es una palabra difícil, Scalestris. Scalestris. Y me recuerda, claro, una frase típica sería, Matías, te has quedado sin trabajo, hazte aceitunero, vete a la vendimia o a recoger oliva, etcétera, etcétera. Pero tampoco, porque no sé si viste lo que pasó en Kenia, que se han revelado contra las máquinas recolectoras de té y las han quemado y pues yo ya estoy pensando que no hay

trabajo que quede indemne ante esta revolución, ¿no? Sí, sí, sí. Bueno, pues si tenías consideración por tirar por OnlyFans, Mati, piénsalo dos veces, porque una vez te ha jodido, pero si te pasa dos veces, te veo, no sé, quemando robots que reparten cobidas y cosas así, Matías. Es que no sé qué es mejor inversión, teniendo en cuenta lo que dijo Martín Barsaski y lo que me estás diciendo tú del OnlyFans.

Sí, hacer un bootcamp de programación por la estabilidad de ese mercado o centrarme en el CrossFit, ir, por ejemplo, cuatro horas al día al CrossFit y nada, esperar que en el futuro el futuro sea más agradecido conmigo por mi estado físico. Claro, es que a lo mejor alguien no ha escuchado el episodio anterior y se perdió los grandes consejos de Martín. Martín anticipó un mundo en el que los nerds y los freaks que

hemos dominado las últimas décadas y hemos impuesto con nuestra inteligencia y hemos subido en la cúpide social del prestigio y el dinero, pues, volveremos a hundirnos porque habrá tanta inteligencia artificial en el mundo que el futuro es de los fuertes, fuertecitos y los guapos. Este era un poco el resumen de la posición de Mr.

Barsaski. Y claro, yo he estado pensando en esto, Matías, y dicho, claro, hay mucha gente que se mete a estudiar cosas de inteligencia artificial por curiosidad para mejorar su carrera. Es decir, estás ahí, te lees los post, sigues a gente en redes, escuchas este podcast y claro, ya eso no vale porque saber cosas no te va a ayudar según la vía Barsaski. Por lo tanto, tienes que escuchar el podcast pero en el minuto 10, 10 lesiones.

En el minuto 20, 20 abdominales. En el minuto 30, 30 sentadillas. Hay que hacer un entrenamiento para, por un lado, apuesto por formarme y saber más de la inteligencia artificial para por si esto de los nerds y de saber cosas, pues sigue valiendo para algo. Pero por otro lado, me tengo que poner fuertecito y ya no puedo escucharlo ahí repanchingado en el sofá con el bote de helado hacendado. No, no puede seguir así.

Claro. ¿Tú crees que lo que nos pasa a nosotros de, por ejemplo, estamos tan acostumbrados al teclado que no tenemos que mirar el teclado, esto es típico, eso puede llegar a pasarme a mí con los burpees? ¿Tú crees que yo puedo hacer un burpee sin pensarlo con la práctica? Claro, yo creo que si mezclas los burpees con un momento de exaltación mística que te evada de tu propio yo, puede ser que en algún momento no te estés cagando en la

familia del entrenador o diciendo, ¿qué hago pagando por hacer esto? Que son los pensamientos habituales que se pueden tener cuando tienes que entrenar y hacer burpees. Pero bueno, dicho esto, nos queda de las asignaturas, yo me voy a quedar solo con una, porque hay una de avances tecnológicos que, bueno, lo discutiremos en otro capítulo aparte. Pero están que Google y Microsoft han avanzado en sus propuestas, Mati, de añadir inteligencia artificial.

Hace tiempo comentamos que Microsoft a su suiza oficmática para empresas lo incorporaba, oficmática de trabajo, productividad, etcétera. Por $30 su usuario al mes. Y curiosamente, fíjate qué coincidencia más rara y extraña, Matías, es una cosa que uno no esperaría nunca que sucediera, Google lo acaba de añadir, se llama Duex, el de Microsoft Veracopilot. Pues este Duex ahí de Google está disponible para Gmail,

Google Docs, etcétera, todas las aplicaciones, por justo $30 al mes. Rarísimo. Esto, pues, bueno, ya pues presentar diapositiva, crear hojas de cálculo, resumir documentos, etcétera. Y una funcionalidad muy curiosa y pintoresca que es, como está integrado en Google Meet, puedes asistir a una reunión sin asistir. Va Duex por ti y te hace un resumen de lo que se ha hablado en la reunión. Así tú no tienes que presentarte y puedes quedarte jugando al

GTA, por ejemplo, o lo que te petezca, Mati. Bueno, espero que esto lo acaben pagando las empresas, porque como lo tenga que pagar cada trabajador, se te suba una IA con la otra. Y esto me va a pasar como con las nubes, ¿no? Que yo tengo toda mi información repartida entre la nube de Apple y la nube de Google y al final estoy pagando 10 euros al mes en las dos. Y no sé ni por qué. Encima lo comparto con mi familia, que no sé por qué.

El WhatsApp de mi padre son como 80 gigas. ¿Qué guarda mi padre en WhatsApp? Oye, hace poco había un loop infinito de Javier Lacor que me gustó mucho, que es que si algo te gusta mucho, descárgalo. No cuentes con que se va a quedar en internet para siempre. Entonces, yo creo que lo que le pasa a tu padre es que les vean memes tan guapos y tan buenos por WhatsApp que hay que guardarlos todos como una especie de archivero digital de

los memes familiares, lo cual es una buena función que yo creo que hay que valorar, Matías. El caso es que hay un punto de debate, y con esto yo ya termino, con los movimientos de Google y Microsoft. Aquí, como con cada cambio tecnológico, hay dos caminos. Es decir, ¿qué es lo que va a pasar con la inteligencia artificial? ¿Va a ser algo que mejore las herramientas de productividad que hay de trabajo que ya tenemos?

Esa es la posición de Google y Microsoft. Metemos IA, las mejoramos y nos hacemos todavía más valiosos y más necesarios. O la vía de la IA realmente es tan transformadora que habría que repensar la hoja de cálculo. Habría que repensar por completo la herramienta de presentación. Incluso puede ser que esos conceptos ligados a otra era tecnológica dejen de tener sentido y tengan que surgir nuevos conceptos de herramientas de creación, productividad,

trabajo. Y ese es el campo para las startups y los disruptores. Entonces, Google y Microsoft están siendo muy rápidos y son muy potentes a la hora de integrar IA en sus servicios. ¿Los protegerá de esos disruptores y nuevas generaciones? ¿Estamos entre una tecnología que no va a hacer cambios tan transformativos, sino que van a ser añadidos a las herramientas que ya existen? ¿O estamos entre una tecnología que obligue a repensar todo

aquello donde la queramos poner? Y, por lo tanto, esto de, oye, es que seguiremos teniendo editor de textos en las que con un teclado le escribimos o con voz le escribimos a una hoja en blanco. ¿Con la inteligencia artificial eso es lo que tiene realmente sentido? ¿O si la pensamos desde cero sabiendo que tenemos una IA, será una cosa completamente diferente? Bueno, pues eso yo creo que es parte del debate.

Un punto a favor de Google y Microsoft es que estos modelos son muy caros de entrenar y es muy difícil tener la mejor tecnología. Por lo tanto, eso es un punto a favor de Google y Microsoft para mantener el status quo. Y un punto a favor de las startups es que pueden tomar más riesgos y en las que pueden ser mucho más agresivos en precios, condiciones, etcétera. Y, por lo tanto, ahí puede haber un campo de pequeños proyectos

que emerjan y triunfan. Lo veremos. Pues interesante y prometedor. Aunque luego todas esas startups las acabéis comprando las mismas 3 empresas, pues siempre prometedor que pueda haber un cambio disruptor, como tú dices. Espero que las reuniones empresariales no se conviertan también en vídeos de 30 segundos porque ya estamos hartos de ese formato. Así que nada, a ver qué llega en el futuro en este nuevo curso

en la industria de la inteligencia artificial porque vaya repaso de 2 episodios le hemos dado y seguramente se nos hayan escapado cosas que van a ser determinantes del curso que entran. Así que, Antonio, si te parece, lo dejamos aquí porque hemos llegado a la hora reglamentaria y volvemos con mucho más la semana que viene en el tercer episodio de la segunda temporada de Monos Estocásticos. Chau, chau, chau, chau.

Chau, chau, chau, chau. Chau, chau, chau. Chau, chau, chau.

Episodios recientes

Programas relacionados