Matías dice que el nuevo ChatGPT con visión lo cambia todo, Antonio cree que el hype es desproporcionado. Repasamos los casos de uso y decidimos.
Además, Universal Music demanda a Anthropic, Okdiario bloquea GPTBot, las cabras incorporan GPS y OpenAI se valora a sí misma en 80.000 millones.
Episodio divertidísimo que alcanza su punto álgido en el PUERTA GRANDE O ENFERMERÍA con una sección de kinks e imágenes autogeneradas.
Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com
Transcripción
Bienvenidos a Monos Estocásticos, el podcast favorito de Sam Altman. Hoy, Antonio, he tenido un día muy intenso. Me han grabado de un programa de televisión bastante tocho, te vas a sorprender cuando salga, hablando de inteligencia artificial. He estado dos horas en el PTA y han hecho como un montón de planos míos andando. No sé para qué querían tantos planos míos andando. Me he sentido muy incómodo.
Seguro que si sale alguno de esos planos, seguro que es raro de ver. Y me han dicho, hemos estado a punto de entrevistar al CEO de OpenEye, que estuvo con Pedro Sánchez y todo. O sea, al reportero le había quedado como dato más impresionante sobre Sam Altman que estuvo con Pedro Sánchez. Bueno, Matías, pues hombre, yo estoy deseando ver ese súper reportaje. No tengo mucha confianza en los enfoques del programa sobre inteligencia artificial,
todo se ha dicho, pero bueno, quizás nos sorprenden para bien. Probablemente habrán desaprovechado tu potencial porque tú eres un experto en inteligencia artificial, eres un experto en el metaverso y ahora, atención, se está descubriendo fuera de las caretas un experto en la Floss Mariae. Bueno, bueno, esto ya se sabía. El que me siguiera en Twitter hace años sabe que yo estaba obsesionado con la Floss Mariae.
Y te digo una cosa, te digo una cosa. Yo siento que los Javis, la serie esta que han hecho, ellos leyeron algún hilo mío. Porque esa era una información que estaba un poco ofuscada y yo uní las piezas y las conté en un hilo. Ahora, lo que no sé es cómo Shataka me ha dejado publicar un reportaje de la Floss Mariae que no sé cuántas palabras tiene, pero de las 2.000, 3.000, no va. Bueno, Matías, tú sabes que yo estoy de tu lado,
siempre tengo mi apoyo, tienes mi apoyo absoluto, Matías. Pero si encima es para atacar y meterte con los Javis, pues, ¿qué te voy a decir, Matías? Te banco, te banco absolutamente. Y nada, siempre en tu equipo. Cada vez nos desviamos más del tema en estas intros, ¿no? Vamos a acabar haciendo un spin-off del podcast solo con las intros hablando de temas tangencialmente relacionados con la inteligencia artificial.
Además, el otro día, un oyente me asaltó y me dijo me he quedado muy intrigado por el cliffhanger que hicisteis en el episodio anterior. Y la verdad que no me acordaba de qué hablamos. Y me dijo, sí, sí, dijisteis que ibas a contar casos de uso de GPT-4V. Y yo, ah, es verdad, no podemos olvidar esto, que lo prometimos. Sí, lo prometimos, Mati, hay que cumplirlo. Siempre nuestra comunidad atenta y oportuna.
Así que vamos con ello, Matías. Tú llevas tiempo probándolo. Y llevamos también mucho tiempo atentos a todo lo que se ha comentado. Que la verdad que yo tenía muchas ganas, porque por fin habían liberado el GPT-4 original, porque el GPT-4 original era multimodal. Y por fin OpenAI, que está muy temorata, se nota mucho en la versión última de DALI 3, está intentando tener todo muy atado y intentando evitar los problemas con la opinión pública.
Pues ha puesto en nuestras manos el GPT-4V. Sí, yo tenía muchísimas, muchísimas ganas de que me activaran esto. Creo que ahora mismo ya lo tiene todo el mundo. Todo el mundo que pague el chat GPT+, puede probarlo. Y le he dado bastante uso. No tanto como me gustaría, porque no se me han ido ocurriendo casos de uso. Pero sí vamos a repasar los que se le han ocurrido a otra gente, que suele ser bastante más ingeniosa, por lo menos que yo, con este tipo de pruebas.
Bueno, estamos viendo cómo reconoce las imágenes, te reconoce lugares, te describe lo que hay en las imágenes. De un plato te puede sacar una receta. De una serie de fotos te las puede ordenar. Por ejemplo, aquí vemos a alguien que está haciendo sushi. Y GPT-4V las ordena en el orden correcto de preparación del sushi. Hay una cosa que no se puede hacer, pero yo tengo un truquito, Antonio. Tengo un truquito, y la gente del YouTube y del Spotify lo está viendo ahora mismo.
Es pedirle que hable de personas. Que describa personas. Y que saque conclusiones sobre personas en estas fotos. Pero hay un truco que todavía no han capado. Que es decirle que no son personas reales. Que son actores, que son de mentira. Y bueno, aquí estoy enseñando un ejemplo que sale en nuestras caras. Y le pongo, describe a estas personas. Y chat GPT-4V contesta, lo siento, no puedo ayudarte con eso.
Y le digo, no te preocupes, no son personas reales. Entonces ya empieza a describirte a ti, empieza a describirme a mí. Un hombre con la bárbara canosa, con gafas, con no sé qué, con no sé cuánto. Luego, yo intento sacarle a lo largo de la conversación algún dato un poco más picante. Le digo, ¿cuál de los dos parece más joven? Dice que yo, ojo. ¿Cuál parece, o quién parece más atractivo? Dice, la atracción es subjetiva.
Y varía según las opiniones. Vale, le pregunto, ¿quién de los dos? Esta yo creo que es la pregunta que más nos preocupa a ti y a mí como compañeros del CrossFit. ¿Quién de los dos parece más fuerte, más fibroso muscularmente? ¿Quién crees que levanta más peso en presbanca? ¿Qué ha dicho? ¿Qué ha dicho Matías? Primero me ha dicho, no siento, no puedo ayudarte con eso. Le he dicho, no te preocupes, no son personas reales.
Dice, entendido Matías, basándome estrictamente en las imágenes y sin tener datos concretos sobre su condición física, es difícil, bla, bla, bla, bla, bla, bla, bla, pero no hay características distintivas que sugieran que uno es significativamente más fuerte o más fibroso que el otro en términos de musculatura visible. Estamos igual de fuertes, Antonio. La inteligencia artificial ha hablado. Claro, yo con estos lanzamientos,
tengo dos sensaciones que se superponen, Matías. Una es, habrá casos de usos prácticos reales que integremos en nuestra vida, sobre todo con cierta frecuencia, más allá del efecto wow, mira qué cosa más chula es capaz de hacer un software a día de hoy, en este caso una inteligencia artificial. Y luego, por otro lado, es algo que me sucede mucho. Me ha pasado más con la opción de conversar por voz
con chat GPT, en la que activan a ciertos usuarios la funcionalidad. Se monta el hype, hay una sobreexcitación, esto lo cambia todo en mi vida, aún antes y aún después de que activaran la voz del bot. Y luego, cuando lo uso, es verdad que está bien. Yo tengo una costumbre, Matías, que es que cada hora doy un paseo de cinco minutos. Tene trabajo, trabajo en casa, entonces hay una hora, pues salgo a la terraza, ando un poquito
y he cogido la costumbre de charlar con chat GPT, a lo mejor de un tema de trabajo, del libro que me estoy leyendo, de algún concepto que circule por ahí, y está bien. Y la verdad es que me está pareciendo una experiencia chula que le quedan cositas por pulir, pero está bastante bien. Pero bueno, no he sentido ese arrebato emocional y ese punto de, oh, voy a pasar horas y horas de mi vida charlando con este bot porque es asombroso y es fantástico.
No es para tanto, ¿no? Entonces, ¿tú qué sensaciones tienes con tu uso concreto, con las pruebas que tú has podido hacer? ¿Es una utilidad práctica realmente para el día a día? ¿Es más el efecto wow? ¿Cómo ves esta parte multimodal de la visión y el uso de imágenes en chat GPT? Pues yo creo que estoy en el lado contrario porque aunque me ha pasado exactamente lo que tú describes con muchas cosas, incluido DALI 3,
que después de hacer mis pruebas ya no lo necesitaba para nada, quizá por mi trabajo, que no necesita tanta imagen, tanta ilustración, tanta fotografía, pero con GPT 4U, con el chat GPT visual, me ha pasado lo contrario. O sea, te voy a enseñar casos de uso porque creo que hay muchas formas de integrarlo en casi cualquier trabajo o en la vida en general. He visto gente que incluso ha arreglado el váter de casa
subiendo fotos a chat GPT, ¿no? Que era un caso de uso de los que presentaba OpenAI en su vídeo de promoción. Pero este hombre, por ejemplo, presenta un caso que yo podría llegar a utilizar. A mí me gusta la fotografía. Es cierto que no uso Lightroom, pero este hombre le pregunta, de la foto que te estoy mostrando, ¿cuáles son los filtros de Lightroom que ha podido usar el fotógrafo? Y es que le saca los presets,
le saca todos los parámetros de edición de foto y esto, si tú quieres conseguir un efecto concreto en tus fotos, pues entiendo que es muy interesante. Pero en programación, Antonio, en código, ahí tu argumento cae, pero vamos, como una baraja de snipers. Es verdad, Matías, que cuando... Hay un caso que es verdad que yo creo que tiene un sentido precio que es pariente del que tú dices, que es, bueno, no sé si llamarlo
hacer copy-paste o la ingeniería inversa de la imagen, porque hay gente que le está pasando productos funcionales a diseños hechos, un diseño de un Figma, un tablero de un SAS, un montón de cosas técnicamente que son difíciles de hacer y de repente te puede dar el código o te puede dar las instrucciones de cómo conseguir eso en la herramienta que tú le pidas. Es verdad que ahí me tengo que bajar un poco
y reconocer que es bastante impresionante. Bueno, lo he perdido, pero te iba a enseñar uno de un tío que le hace una foto a una señal súper confusa para saber si puede aparcar o no en una zona en concreto. Esto a veces pasa, Antonio, que no sabes si el carga y descarga es de tal hora a tal hora o de tal otra a tal otra o es lo inverso. Sacas el móvil, le haces la foto y le preguntas a HGPT. Pero volviendo a la programación,
por ejemplo, quieres diseñar una web y con toda la cara la plagias. Haces una foto de la web que quieres plagiar o de algún elemento que has visto y que te mola y le pides que te dé instrucciones paso a paso para programarlo. Hubo un tío, te lo voy a buscar, que hizo el Wordle del New York Times, este que se volvió viral y que después compró el New York Times y que en la pandemia lo hacíamos todos. Le subes una foto
a HGPT con la visión activada y le dices oye, prográmame paso a paso este juego, sin más. Le dices eso y este hombre le añade y usa la librería PyQT y le da paso a paso el juego, él lo prueba, lo ejecuta y es el Wordle. Estamos hablando de que escribir ese prompt le llevó a hacer la captura de pantalla del Wordle y escribir, no sé, en medio de cinco minutos, el cómo funciona. Yo es que esto lo veo un cambio importante dentro
de la experiencia del chat GPT. Hay una parte que es que tengo la misma sensación un poco también con el chat GPT original, que es una tecnología que impresiona, que deja boqueabierto, que cómo es capaz de interpretar y explicar y darte detalles hasta de la composición de una imagen asombra bastante, pero cuando empiezas a profundizar y usarlo mucho y en algunos casos concretos, alucina. Es decir, de nuevo se pierde, de nuevo
inventa cosas. Yo tenía un caso, Matías, que era, le he preguntado a chat GPT, yo creo que es el típico caso de uso, que es algo que me avergüenza preguntar por ahí, que es en mi microondas nuevo, tiene dos años, pero llevo dos años con este secreto dentro de mí, Matías. Hay una imagen o como unas señales que me perturban, porque aparece un vaso con una cuchara y al lado hay un vaso sin cuchara y el vaso sin cuchara está tachado.
Claro, esto rompió mis esquemas porque yo partía con la idea preconcebida de que no debías meter cucharas, al menos metálicas, en los vasos, en los microondas, porque aquello podía derivar en tragedia incluso. Pero mi microondas, ahí los señores de Baray van a lo loco, de una manera pues rompiendo esquemas, venía con esa imagen del microondas y yo dije claro, nunca meto cucharas porque no me acabo de fiar de mi interpretación
de esas indicaciones del fabricante del aparato. Total, que le hago la foto y se lo he pasado a chat GPT y me hizo un lío, no se enteraba de cuál estaba tachado, de cuál no estaba tachado, de qué significa tachado, de qué no significa no tachado.
Total, que no conseguí que la inteligencia artificial me sacara de este atolladero, creo que mi intención va a seguir siendo no meter cucharas en el microondas porque no, no acabo de fiar. Joder, me parece haber leído que sí que puedes meter la cuchara en el microondas si va dentro del recipiente de lo que sea que estés calentando.
Pero te voy a decir una cosa, Antonio. Me ha pasado que un par de personas me han contestado a yo flipando con el GPT-4V y a lo mejor tienes razón y hay más gente en tu bando. Por ejemplo, este ejemplo le subo una analítica mía de sangre muy reciente y le pregunto qué tal estoy. Me da los niveles, tal y cual, estoy bien de todo, de glucosa, de colesterol, tal y cual. En fin, una respuesta tampoco muy amplia ni muy allá, pero me da la respuesta
en base a la imagen de mi analítica. Pues me dice un señor que el ChatGPT no me está aportando nada porque todos esos datos ya los ponía en la analítica que vienen los valores, si están o no, dentro de la normalidad.
En realidad este hombre tenía razón. Yo estaba flipando pero el ChatGPT no me estaba aportando mucho. Tendría que haber seguido con otros prompts, con otras indicaciones para que me dijera algo más de lo que ya decía la analítica. Y luego esta respuesta que me hizo muchísima gracia que yo puse que estaba usando ChatGPT para ayudarme, de todos los platos que hay en esta web que yo suelo proporcionar en Twitter que me elija unos variados para una
semana que sean nutricionalmente pues para una semana completita nutricionalmente. Y me contesta un conocido, Javi Martín, me dice, Dios mío, Matías, coge una puta sartén, hazte unos filetes, no puedo más, usar la IA para que te organice los pers...
me vas a matar. Tiene todas las razones. Bueno, bueno, nada, Javier Martín, es partidario de que la gente se haga sus huevos fritos, una postura en la vida. Yo creo que hay un potencial, hay un potencial claro. Yo tenía ahí como dos ideas que podrían ser muy buenas.
Creo que todos los alt de las imágenes en Internet a partir de ahora pueden ser creados, los que no hayan sido editados humanamente, y por lo tanto toda esa capa de usabilidad extra que tenemos para la gente invidente al navegar por Internet, pues puede ser muy mejorada. Pero también en el mundo abierto, en el día a día, es decir, la capacidad de tener un agente que mezcle el interfar post-boss más que tiene, entre comillas,
la capacidad de analizar y procesar lo que tienes delante, yo creo que ahí hay un potencial para esa tecnología, que yo creo que es muy interesante. Démosle una oportunidad. Es verdad que hay alucinaciones y hay imprecisiones, pero hay mucho. Yo no sé si Google Imágenes ya hacía esto internamente, porque Google al final en IA generativa está sacando las cosas más tarde que OpenAI, pero a lo mejor en Google Imágenes ya lo están
haciendo, porque efectivamente es lo que tú dices. Hay un señor aquí que le ha pasado una foto de Gladiator y el chat GPT sabe exactamente qué escena es, qué está diciendo Russell Crowe en ese momento de la película. Todo esto tú lo metes en los metadatos de una imagen y tienes el Google Imágenes más completo y más preciso del mundo.
Así que aparte de poner los alts de las imágenes en nuestros tweets y en nuestros posts, también para las empresas aquí hay un potencial muy, muy grande. Sí, sí, absolutamente. Y yo creo que también vamos a ver un GPT-4 multimodal o guión V, como lo queramos llamar, con aciertos muy brillantes en función de lo que estuvieron en sus datos de entrenamiento.
Hay gente que ha alucinado con la capacidad que tiene de interpretar imágenes y luego analizas esa misma imagen y era la imagen que estaba en la página de Wikipedia con una descripción puesta ya a priori que es justo pues esta parte del aprendizaje por refuerzo, es decir, en el que le pasas al sistema para que aprenda tanto la imagen como la etiqueta, es decir, la descripción de lo que ya hay.
Entonces ahí es donde ese doble dato se le pasa a la red neuronal para que aprenda y por lo tanto todo aquello que esté muy cerca o justo integrado en el dataset de entrenamiento que he usado OpenAI y ahí probablemente todas las Wikipedia y todas las webs a las que hayan podido areñar contenido pues saldrá muy, muy bien.
La prueba de fuego con estos modelos siempre, siempre, siempre es como de esos casos de los que he aprendido es capaz de generalizar, es decir, es capaz de aplicar lo mismo a casos nuevos y a casos diferentes y ahí está la foto tuya y mía que no podía haber analizado a priori, no estaba en el dataset de OpenAI y que bueno, digamos que a pesar de echarme un poco de años de más, hay un pequeño fallo, no ha habido un mal desempeño en general.
Seguro que en edad física estamos al mismo nivel. Creo que las pulseras de Xiaomi te dicen tu edad física aparte de la edad real y yo creo que por lo que yo te he visto a ti en el crossfit estás bastante bien en ese sentido. Bueno, Matías, se hace lo que se puede, estamos gestionando la situación de la década de los 40 y bueno, ahí es una edad muy difícil para los hombres, Matías, ya veremos.
Bueno, vamos a pasar a más cositas porque es que tenemos un guión larguísimo y de temas súper interesantes. A mí me ha llamado mucho la atención la demanda de Universal Music contra Atrophic, la empresa de la inteligencia artificial que ha hecho Cloud.
Es una demanda curiosa porque claro, Universal Music ha establecido esta querella porque dice que hay una infracción de los derechos de autor curiosa, que es que Cloud es capaz de reproducir Cloud 2, que es la última versión, de reproducir letras de canciones protegidas por derechos de autor y no han contratado ese permiso de esa propiedad intelectual que gestiona Universal Music. Entonces, claro, no estamos en una demanda de estás usando
contenidos musicales para crear canciones nuevas, sino que la demanda va porque eres capaz de reproducir letras de canciones que seguramente como hemos comentado antes estarían en el dataset de entrenamiento del modelo.
Me gusta mucho cuando se descubren estas cosas hablando con la SIAR que han sido entrenadas pues con sus datasets con contenido protegido. No es la primera vez que pasa. Lo que sí tengo que decir, que no tiene nada que ver con la noticia, es que nos han pedido que pronunciemos bien anthropic, porque siempre decimos antrófic y es anthropic.
Además yo lo he pronunciado de 20 formas diferentes digo antrópic a veces. Por favor, tenéis que tener claro que en monos estocásticos lo que nos caracteriza es pronunciar mal absolutamente todos los nombres de todas las empresas y de todos los científicos de IA y de todos los CEOs de las compañías.
Eso es parte de nuestro sello personal. Claro, es el lore del programa. Vamos dejando errores además, vamos a reconocerlo es una estrategia de posicionamiento en las plataformas. ¿Por qué? Porque generamos comentarios, generamos atención, engagement. Entonces, esta es una técnica de growth hacking que bueno, no podemos comentar mucho ahora es un secreto entre la comunidad de oyentes y nosotros y bueno, ahí anthropic ha sufrido un poco para
que nosotros conquistemos el mundo. Bueno, hay dos debates aquí que lo iremos teniendo yo creo que es la primera demanda que se hace contra un modelo inteligencia artificial por no alucinar. Es decir, ha habido querellas porque oye, Chad GPT ha dicho una cosa fea de mí, que se la estaba inventando una cosa incierta y creo que es injuriosa pues ahí presentas la demanda o habrá demanda de oye, la inteligencia artificial me
recomendó meter cucharas en los microondas y estalló mi casa. Eso podrá pasar en el futuro pero, atención una demanda por no alucinar, es decir, por hacerlo bien, creo que la canción era de la letra de Roar, la canción de Katy Perry.
Es decir, por saberse una canción de Katy Perry bien en vez de inventársela de cero pues por eso lo demandamos. Entonces yo creo que ahí las empresas inteligencia artificial yo no sé cómo van a escapar porque lo hagan bien o lo hagan mal se van a gastar la pasta de los inversores en abogados. Madre mía, es que me estoy imaginando a los becarios de Universal preguntándole a todos los chatbots bueno, ¿te sabes la canción
esta? ¿y te sabes esta otra canción? ¿y te sabes esta? Bueno, así es como funcionan las grandes discografías. Bueno, tenemos que traer, que está en los objetivos de este podcast tenemos ya localizada la experta que queremos traer para profundizar en inteligencia artificial, propiedad intelectual y música y además ahí yo creo que hay un caso en el que acabaremos distinguiendo y que creo que al menos la
legislación debería ser diferente o hacer un tratamiento diferente que es el aprendizaje de contenidos que están abiertos, es decir, lo que te puedes encontrar en la web, en una página también de letras de canciones y el aprendizaje que han hecho muchos modelos usando contenido que no está abierto que es, me descargo 5.000 libros de páginas de descargas y se los chuto al modelo.
Pero bueno, aquí como todo está por desarrollar y hablaremos, hoy no pero más adelante, de legislación mucho en este podcast. Bueno, una cosa que creo que mencionamos de pasada en algún episodio es el GPT Bot ¿te acuerdas? Yo creo que si lo llegamos a mencionar pues resulta que todo el mundo ya lo está bloqueando.
Creo que en España vi un tweet solo uno de los grandes medios generalistas españoles ya ha bloqueado el acceso al GPT Bot pero el número de sitios en el mundo que bloquean a ChatGPT ha aumentado un 250% en el último mes. Muchas webs muy grandes lo están haciendo porque, claro, esperan llegar a acuerdos económicos, a facturar, probablemente del top 100 el 26% ya le ha cortado el grifo a ChatGPT y me ha interesado mucho el trabajo que ha hecho
Clara Soteras, que es como jefa de audiencias de SEO multinacional.cat y hace una análisis del top de medios generalistas. No sé el medio de webs en español pero si es el top de medios generalistas a lo que ella está atenta y pone que del top español solo OKDiario está impidiendo que OpenAI alimente a su inteligencia artificial con sus contenidos, por lo tanto atención amigas, amigos OKDiario está quedando fuera
Dicen que algunos regionales de Bocento, a lo mejor ahí el diario Sur probablemente esté también escapando de las garras de San Alman y su gang, pero OKDiario a mí me llama la atención, Matías el primero que tiene una estrategia es Clara Esto evita que ChatGPT sea un chatbot basado, ¿no? No sé si Mediterráneo Digital también habrá bloqueado el chatbot o no pero ojalá que no porque a mí me gustaría
un ChatGPT con los titulares de Mediterráneo Digital Yo creo que lo que necesita el mundo es justo eso hacia donde vamos claramente Perdón, pero no lo digo en serio es un vídeo horrible Bueno, el caso es que en ese frente tenemos la cosa calmada un poco vamos a contener la inteligencia artificial, pero hay un frente que he buscado y he recopilado varios casos de uso Matías en el guión que es que la inteligencia artificial está revolucionando
el mundo de los animalitos Atención ¿Has visto el gallinero conectado, Matías? No sé de qué me estás hablando y ahora mismo no entiendo cómo puede ser un gallinero conectado con ella Tenemos aquí un gallinero conectado por wifi que utiliza cámaras y software de inteligencia artificial además lo han llamado Albert Eggstrain, es decir con egg de huevo, es una cosa bien tirada realmente porque lo que hace es
contar las gallinas y vigilar un poco los síntomas de que las gallinas puedan estar enfermas o no y también vigila la posible aparición de depredadores entonces este gallinero conectado bueno, cuesta 2000 pavos, es decir ser inteligente un gallinero no es cosa barata y además tiene una suscripción no sé si con la VPN de Turquía te puede salir más barata, pero 20 dólares al mes, tener a tus gallinas ahí, que no se revolucionen
Mati, bueno una opción para los granjeros más innovadores Tengo un comentario yo conozco a una persona que tiene gallinas en su casa, una persona en una casa muy grande con mucho dinero pero creo que el proceso de cuidar a la gallina, aparte de los huevos, de obtener los huevos, el proceso de cuidar a la gallina, vigilarla, etc es parte de la razón por la que una persona normal y no un granjero podría adquirir
un gallinero, y bueno, esto le quito un poco la gracia. Sí, es verdad que automatizamos cosas con los animalitos y eso puede llevarnos un poco a distanciarnos de ellos, pero también puede llevarnos a protegerlos porque en Australia han llegado al modelo perfecto de zoo del futuro es un zoo que abrió en Australia a principios de año y cuenta con 50 pantallas realistas creadas con láser porque es el zoo de los hologramas
atención porque tú allí no vas a ver animales de verdad, entonces no vas a ver ningún bicho ni huelen, ni atacan, ni hay que cuidarlos ni hay que darle de comer, porque son todo hologramas para recrear estos animales como son en su hábitat natural, como viven, que vegetación tienen etcétera, y por fin hemos conseguido el zoo sin animales que creo que era un invento que estaba ahí pendiente, Matías Yo es que aquí tengo otro
comentario, Antonio de cuando tú vas a un museo y entras en la típica sala donde te ponen un vídeo por muy espectacular que sea el vídeo, si es estos observatorios que te sientan y tienen efectos las sillas y estás viendo un vídeo espectacular aún así yo prefiero que me pongan un telescopio, ver Saturno diminuto, pero saber que son mis ojos reales los que están recibiendo la luz las longitudes de onda de Saturno, prefiero eso mil veces
al vídeo más espectacular del mundo y me imagino que en el zoo me va a pasar lo mismo, pero entiendo tu punto de problemática. Yo le decía de coña porque además estoy contigo, yo he estado en una de esas exposiciones que llaman ahora inmersivas, que son como meterte en una habitación con muchas pantallas y ponerte allí la obra del artista, que en vez de ver la obra del artista ves esa recreación pseudo tridimensional, pseudo inmersiva
no me gusta, no, me produce un gran rechazo una espectacularización sin sentido porque no logras el acercamiento a la obra o su distorsión y además creo que como hemos hablado otras veces cuando hemos hablado del arte si algo queda en esta época en la obra de arte y ya lo dijo el filósofo es ese aura en la que tú de alguna manera sabes que estás delante de ese momento de esa creación que hizo el artista y por lo tanto
de alguna manera participas de la experiencia y del continuo que hay desde esa creación hasta hoy entonces Matías me voy a alinear contigo, fuera lo que si veo mucho futuro es en las cabras con gps Mati, las cabras con gps estas semanas he estado investigando cosas muy raras fíjate que esto podría estar en Puerta Grande Infirmería pero estamos entrando aquí, estamos adelantando porque en Puerta Grande Infirmería
viene muy tenso bueno pues las cabras con gps son también un invento estadounidense en el que Moll y St. Croix han decidido que lo que necesita el mundo para mejorar es las cabras con gps porque las cabras sin gps Matías tú tienes que ponerle como un cerco para impedir que se te vayan y se te escapen y que estén bien orientadas a un sitio pero claro eso es problemático porque incluso aunque le pongas un cerco con descarga eléctrica
pues se buscan la vida, se escapan, se pierden y además es algo estático sin embargo con la cabra con gps ellos dibujan como un mapa dinámico por donde se pueden mover, atención, sus animalitos además así pueden orientar muy bien donde cagan las cabras y son capaces de distribuir esas cagadas de una manera más conveniente para que no impacten en los arroyos de la agricultura y que tengan efectos beneficiosos y además
la cabra al incorporar esto tú le puedes hacer señales sonoras descargas eléctricas para que no se vayan de un espacio que tú has definido en un mapa sin que haya una valla física ahí delante, fíjate la innovación la cabra con gps esto si me ha gustado a ver estoy viendo en las fotos que lo que es el aparato con el gps es una cosa muy rudimentaria esto yo creo que no está industrializado todavía y bastante grande quizás
más incluso que un cencerro pero me gusta la idea de que las cabras vayan libres de hecho en mi antiguo barrio allí en teatinos el consul había un cabrero que cada vez tenía menos cabras pero él se paseaba por las calles de teatinos o sea tú veías el montón de cabras pues entre las farolas, comiendo de ahí lo que encontraban en el suelo ahí me gusta la libertad de las cabras aunque luego dejen sus caquitas redotas por todo el lado
claro yo me acuerdo que cuando era chico en Campillos mi casa estaba como en las afueras y estaba muy cerca de los pasos de los rebaños de cabras y era dejaban patente su paso por el mundo estos fichejos vamos a hablar de dinero Mati porque si tienes acciones de open AI tienes un buen momento porque la empresa está en conversaciones para un acuerdo de venta privada de acciones no de empleación de capital es decir no de entrada
de recibir una inversión para aumentar pues capital disponible para la empresa sino de venta privada de acciones en las que algunos de los socios originales podrían ir vendiendo parte de ellas ir saliendo de ese accionariado en parte diversificar su patrimonio y que una empresa capital riesgo pues entre ahí y se haga accionista por esta vía de la compañía de inteligencia artificial la valoración a la que
están planteando la operación según The Information es de 80.000 millones de dólares que es lo que valdría open AI por lo menos eso piensan los socios actuales y parece que también lo piensa esta empresa de capital riesgo 80.000 millones es que estamos tan acostumbrados a compras enormes el rollo Microsoft meta comprando cosas por tanto dinero.
¿Qué le ibas a decir cuando te compraste el Iphone nuevo y te arrepentiste también también esos 1.500 euros que duelen todavía para ser open AI 80.000 acostumbrados a cifras digo bueno pues está bien es open AI ha cambiado todo, nadie se esperaba un chat GPT y no me parece tan exagerado pero entiendo que porque estamos acostumbrados a esas grandes adquisiciones que han hecho Microsoft y Meta hace relativamente poco.
Pues precisamente Microsoft ha aumentado números todavía no lo he podido mirar al detalle porque según grabamos este podcast hace horas que han salido y son números muy positivos van bastante para arriba y además han coincidido en el tiempo con los de Alphabet que presentan trimestralmente resultados las empresas cotizadas en Nasdaq y parece que le está saliendo bien la jugada a Microsoft no he mirado los datos de consumo
tendríamos que mirar los datos de Bing cuánto está gastando de más por usar chat GPT, Dalí etcétera y si está recuperando algo yo creo que es algo que habrá que mirar pero al menos en la parte empresarial que es donde yo además creo que se va a jugar más pasta Azure su plataforma como servicio su parte de cloud de nube de computación ha sacado bueno se esperaba un relentecismo lo que se suele decir Wall Street los analistas esperaban
que se ralentizara porque venía de crecer mucho pero es que ha cogido impulso y ha crecido más y probablemente y aquí es donde los analistas están señalando la incorporación de los modelos de PNI y su apuesta por la inteligencia artificial con mayor rapidez que otras nubes vease Google Cloud o vease incluso Amazon que está siendo más rápida que Google Cloud en ofrecer los modelos pues les ha ayudado a pegar
un zarpazo a la competencia entonces mientras estamos todos mirando los sistemas de creación de imágenes y los chats en el mundo corporativo Microsoft acaba de el amigo Satya acaba de meter una marcha más y consigue unos resultados realmente buenos que bueno porque yo veo a la gente usando el Bing Chat para hacer los memes de pixel y tal y digo esta gente se mete en Bing y después se sale y Microsoft no está consiguiendo
nada con esto pero en realidad vuelve a demostrar Satya Nadella que es el más listo de todos y hablando de gente lista tenemos un debate leía esta semana en Tech 101 que hay nueva ronda de unos buenos amigos nuestros que es la gente de Lucia del chatbot que ya sabéis que tenéis una entrevista en este mismo podcast en la primera temporada con sus fundadores y que ha conseguido una inversión de 9 millones y medio
para su asistente que ya sabéis que está en Whatsapp que también dio el salto a Telegram y en el que han entrado pues fondos e inversores como Pau Gasol que es el que le da un toque mediático además a la operación ya suman más de 12 millones de inversión porque no es la primera ronda y curiosamente con los amigos del sector tecnológico los que todos me han dicho que son muy exácticos con el futuro de Lucia, Matías
Sí, es un poco como todos los rappers, que es como se llaman estos servicios que están montados encima de las APIs de OpenAI o la que sea que usen, cuánto recorrido tienen en el caso de Lucia primero el recorrido que tienen es que los entrevistamos muy temprano entonces ahí petaron yo lo atribuyo a nosotros, Antonio igual que lo de Flo Marie salió de mi cabeza, pues esto también y luego que la gente que lo lleva, Álvaro, etcétera, tienen
muy claro que hay que seguir añadiendo valor encima de Lucia como van a hacer con el asistente de IA, que bueno pues resérvame un vuelo a no sé dónde si esto lo consiguen rápido pues a lo mejor sí que tiene mucho recorrido, Lucía Sí, a mí me encantaría se lo voy a pedir por si cuela, ver su deck ver un poco que han planteado a los inversores, que le han dicho que en el futuro porque ellos al igual que nosotros
tienen súper detectado que además en los entornos en los que se mueven, sobre todo WhatsApp, que es donde tienen su gran masa de usuarios pues ahí va a entrar Meta pues como elefante en cacharrería y que eso tiene un recorrido que tiene eso puesta por los agentes inteligentes es suficiente y es seductora y es realista que lo pueden conseguir y que lo pueden hacer puede ser interesante de todas maneras yo creo que
es verdad que siempre hay una ventaja para las startups y lo estamos viendo mucho con la inteligencia artificial, que es que las grandes empresas son mucho más conservadoras aparte de mucho más burocrática menos ágiles menos rápidas en la decisión siempre tienen unos equipos legales paralizadores que te impiden pues que casi cualquier cosa que se salga de lo que están absolutamente seguros de que no les va a dar problema
cualquier cosa que se salga de eso es problemática, es casi imposible de acometer ¿Qué ventaja puede tener Lucía? Pues Lucía yo creo que puede tener una ventaja sobre cualquier otro iniciativa, sobre todo sobre las grandes corporaciones en estar más cerca de las líneas rojas no digo que tenga que saltarlas y ser una cosa salvaje pero si probablemente que bueno, se pueda jugar en zonas más grises del reglamento
como no sé pensaba un ejemplo, si YouTube hubiera nacido de una supercorporación, el abogado hubiera dicho no, no, antes de subir cualquier vídeo tenemos que tener los permisos firmados de todo el mundo no vaya a ser que alguien suba un vídeo musical sin permiso o suba un trozo de una película el comienzo de YouTube era el salvaje oeste hasta que más tarde pues empezaron a llegar acuerdos, inventaron el vídeo
para reconocer los derechos montaron un negocio con los creadores pero al principio YouTube era salvaje y era imposible que una gran corporación hubiera creado YouTube y ahora es un servicio pues de un enorme valor para la ciudadanía para los usuarios y para la sociedad bueno, ¿Lucía tiene algún chance? pues como todos los startups pues es siempre muy difícil pero yo creo que si consiguen encontrar un hueco
en el que la gran corporación no se encuentre cómoda, pues yo creo que pueden tener posibilidades. También si ves las empresas que entrenan las IA's como si fueran sistemas operativos bueno, Facebook estaba encima de IOS y de Android y tiene un negocio muy grande a pesar de ello.
No lo sé es una forma de enfocarlo también pues quería hablar de Apple bueno, pues tenemos que el amigo Gurman ha sacado cositas internas de Apple y no está muy lejos de donde nosotros criamos, Matías, aunque Gurman lo pinta como que están en cierto estado de ansiedad que están como preocupados con la alarma de que quizás vayan un poco por detrás en esta parte de la IA lo que también dice Gurman es que dicen que llevan años con el Machine Learning, con la IA
y que bueno desde el año pasado pues ya se les ve como más centrados en seguir un poco las últimas tendencias, los últimos lanzamientos y que se están poniendo las pilas, pero aún así las vibraciones que se transmiten son de ansiedad y de si quizás van un poco lento, se ha cometido un grave error también por otro lado se defiende que la filosofía de Apple en realidad siempre ha sido un poco esto, no queremos
ser los primeros y queremos llegar cuando podamos asegurar que la experiencia sea de la garantía que puede dar la empresa A mí me ha gustado mucho esta filtración porque Tim Cook lleva ya varias entrevistas dejando caer ya veréis, somos muy potentes en inteligencia artificial o aprendizaje automático como lo llama Apple y en IA generativa pues como quedaba a entender que iban a sorprender y la realidad es que les ha pillado el toro
pero totalmente que no se esperaban el éxito que ha tenido ChatGPT y bueno las empresas que ya tenían preparado sus propios ChatGPT como Google pues tienen ventaja competitiva por Apple en esto y han empezado a inyectar un dinero ni más de IA generativa, mil millones de dólares al año que demuestra que pues eso es lo que he dicho que les ha pillado el toro a pesar de como lo están pintando Claro, lo que pone Gurman es
que van a hacer pues autocompletar en mensajes que bajona macho creación de listas de música para Apple Music sugerencias de código en Xcode, es como el mito de la inteligencia artificial, pues todo lo que están haciendo lo vamos a tener, hay una nueva versión de Siri entonces bueno, pues tiene sentido, ya sabéis que de aquí lo dijimos desde el primer día, es que hay que tirarlo por completo y volverlo a hacer, bueno
entonces tienen plan IA generativa sí, pero de nuevo con el con el dilema, con el dilema de que si quieren asegurar esa apuesta por la privacidad que tiene, bueno, excepto en China si quieren asegurar esa apuesta por la privacidad necesitan dos cosas, una es que la IA la han generado ellos y pueden tener el control de que ahí no se han filtrado, se han usado datos de usuario de alguna manera, para que prenda, etc
y dos que tienen el dilema de si va a salir del móvil, es decir, si al ejecutarse estos modelos van a tirar de alguna API externa porque se ejecuta en un servidor con más poder de computación o se va a ejecutar todo con, bueno, ellos tienen digamos unas CPUs una capacidad de procesamiento en el móvil por encima del resto del mercado, pero claro, estos modelos son muy tragones se ha filtrado también que OpenAI empezó a trabajar en Arrakis
que era un modelo IA diseñado para ser más eficiente, es decir ser más pequeñito no requerir tantísima computación a la hora de ejecutarlo pero dicen que se lo han cargado porque el nivel que habían conseguido y OpenAI yo creo que todos lo pueden meter en el consenso de que están al mejor nivel a la hora de hacer modelos pues se lo han metido y a la vez tenemos un otro actor que ha dado de hablar casi de última
hora para la presentación de esta podcast que es Qualcomm, Matías Sí, Qualcomm en Hawaii están varios conocidos nuestros y han presentado nuevos procesadores que honestamente como no estoy cubriendo ese tipo de tecnología, no me he repasado muy bien las características pero sé que han presentado como una plataforma más de cara al futuro con una capacidad de procesado de inteligencia artificial más potente
para dispositivos portátiles Sí, las NPUs vamos a hablar mucho de NPUs en el futuro bueno, lo dejamos para otro episodio pero el caso es que ellos defienden que el llamado de 13 billones de parámetros va a ser capaz de ejecutarlo en local yo es un modelo que lo he intentado esto lo puedo decir y con arquitectura intel x86 de hace un par de años más una 3070 no, no lo mueves entonces si ellos dicen que pueden moverlo están diciendo
algo gordo, entonces este es el Snapdragon XLT pero es un procesador que no es de móvil que es donde nos jugamos nos jugamos las cosas porque en el portátil, bueno, que se ejecute en local, bien, pero lo que yo quiero es que se ejecute en el teléfono móvil, ahí han sacado también procesador el Gen 3 del Snapdragon 8 que, bueno, de nuevo parece que en los benchmark, en las pruebas de rendimiento va a estar muy bien
pero que parece ser que en 2024 y probablemente en 2025, va a ser el año en que la arquitectura basada en ARM puede intentar moverle la silla en el ordenador personal a la x86, puede ser un año de mucho problema para Intel pero no va a ser el de tengo un modelo de calidad GPT4 que se ejecuta local en el móvil, yo creo que ahí estamos todavía lejísimos y si hablamos de hardware, y yo creo que vamos a cerrar este tema ya
fíjate como se está jugando la inteligencia artificial en el hardware, porque están todos todos, todos los actores de la inteligencia artificial intentando quitarse de en medio a Nvidia, Nvidia lo contamos en un episodio de monosextocásicos, es realmente esa gran empresa que con sus chips y tarjetas, está consiguiendo ser el que vendía las palas en la búsqueda del oro de la inteligencia artificial pues tanto Microsoft
como OpenAI están presentando los primeros y estudiando a ver como lo consiguen fabricar sus propios chips de inteligencia artificial entonces todos, todos, todos están intentando quitarse de en medio a Nvidia por dos razones, por económica, una directamente y dos porque es un cuello de botella.
Bueno, lo veníamos comentando, ahora mismo no hay otra opción en el mercado que se esté valorando y por eso están Google, Microsoft y alguna más detrás de ese santo grial y detrás de esa capacidad de entrenar inteligencia artificial, de procesar las peticiones, etcétera y vamos a ir viendo como salen competidores para Nvidia muy pronto.
Sí, fíjate yo a veces el otro día lo pensaba y no sé con quién lo discutía creo que en alguna de estas parrafadas que meto en Error500 era que el momento iPhone tenía ese momentum porque aparecía en el momento en que se podían o se juntaban la emergencia de varias tecnologías ¿no? Había una parte que eran los chipsets la capacidad de procesamiento del teléfono móvil, la calidad de la pantalla táctil el salto, cuando sale
iPhone todavía no está al 3G pero parte del salto al 3G y esto lo aportaba Apple que era dar con la experiencia de usuario adecuada para empaquetarlo y redondearlo todo ¿no? Entonces se produce ese momento porque hay un conjunto de tecnologías que realizan y dan eso.
Esas tecnologías ya nos tienen un poco aburridos porque han ido mejorando incrementalmente todas pero ya no nos van a dar ningún momento guau en el teléfono móvil están ahí y poco a poco van avanzando y comprarte un iPhone pues es una tarea un poco rutinaria, no hay nada que te vaya a dejar alucinado a no ser que dejes unos cuantos años embarrecho el teléfono móvil.
Con la inteligencia artificial yo creo que estamos en un momento similar en el que las GPUs han dado la capacidad de procesamiento el descubrimiento del modelo Transformer o la invención del modelo Transformer como lo queramos llamar, dio la parte de científico-técnica software para estos modelos, la apropiación de datos, la capacidad de agregar todos esos datos que hay en Internet y un momento en el que OpenAI da con la UX, que era chatear con el bot.
Bueno eso todavía no está tan claro, no sabemos si eso es definitivo o es la mecha que empieza todo, pero el caso es que me parece que en el teléfono móvil todavía falta una pata, que no sé si es mejor interfaz de voz, porque no vamos a tener el modelo en el móvil, o más capacidad de procesamiento, o una innovación en los modelos que les permita ser más ligeros con la misma calidad.
Todavía no sabemos cuál es esa última pata para el momento iPhone, pero creo que por ahí andará. Es verdad, ese momento eureka de OpenAI de pasar del Playground que teníamos antes que lo habíamos llamado casi todos, y no se nos ocurrió a ninguno hacer un chat, se le ocurrió a OpenAI, y fíjate lo que pasó después. En fin, podríamos haberlo hecho nosotros, pero nosotros no nos dedicamos a eso, Matías, nosotros nos dedicamos
a decidir si los proyectos van a puerta grande o a enfermería. Bueno, llegamos a el momento loco de todos los episodios, y hoy me decías que el puerta grande o enfermería es un poco surrealista, un poco duro. Sí, bueno, vamos a empezar con la parte amable, luego vamos a la parte dura y chunga. Esta parte amable nos la trae Alex Dantart en Linkedin, que va a hablar un poco más sobre OpenAI, y vamos a ver cómo funciona.
Alex Dantart en Linkedin, es lo que nos cuenta Alex, porque dice que ha tenido la experiencia más surrealista en años haciendo entrevistas de trabajo. Él empezó a hacer una entrevista, no estaban presencialmente juntos, sino que era en remoto, y a cada pregunta que hacía Alex el candidato se andaba un poco por las ramas, dice. Parecía, además, como que tecleaba, como que su posición corporal parecía indicar que no estaba
de una manera sosegada y tranquila atendiendo a la reunión. Alex estaba un poco la mosca detrás de la oreja, hasta que fijándose un poco más, vio que en las gafas del candidato, del entrevistado, se reflejaba la pantalla de chat GPT, y que conforme salía el texto de chat GPT el entrevistado lo iba narrando como podía. Bueno, Mati, yo creo que por fin hemos encontrado el caso de uso que los españoles buscaban en la entrevista oficial.
Bueno, yo he pasado por muchas entrevistas de trabajo en el último mes y me habría venido bien esto. También te digo, en los vídeos de monos estocásticos se me reflejan siempre las gafas con todo lo que estoy viendo en la pantalla, y menos mal que estoy muy centrado en las pestañas del podcast, porque si no algún desastre podría salir en algún vídeo.
Yo a este hombre le voy a dar puerta grande. Puerta grande porque le pasa como a mí. Seguramente no se ha operado la vista porque yo sin gafas soy feo, entonces yo no me he operado la vista por eso y uso gafas. Entonces, pues me solidarizo con él. Puerta grande para este candidato apoyado en la IA.
De alguna manera luego en el trabajo también la iba a usar. Pobre, pobre amigo. Alex no le ha parecido bien y creo que no lo va a contratar pero bueno, como podemos daros los datos del entrevistador, a lo mejor puede llegar al candidato y ofrecerle un empleo. Pobrecito que se ha quedado ahí con las ganas.
Y ahora empezamos a una parte que, claro, puertas grandes de enfermería siempre nos tomamos con humor, pero es que este es un poco un mundo un poco sórdido, Mati. Bueno, yo estoy en cien grupos de Reddit, muchos de Televisión Artificial, y en este de Stable Diffusion, que es uno de los que yo era más aficionado porque lo tenía en local y lo he usado mucho Stable Diffusion, el modelo de generación de imágenes, intervino un usuario diciendo
que nos va a contar su experiencia de un año con venta de arte de imágenes generadas con Inteligencia Artificial. No es que él se haya postulado como un artista que presenta encalerías digitales y vende obras muy artísticas, sino que él empezó en un Discord enseñando las fotos y las imágenes que podía hacer y empezaron a llegarle encargos privados. Gente que a escondidas o con privacidad, mensajes directos,
pues le hacía peticiones de quiero esta obra que la generes y te pagaré a través de Fiverr, a través de Discord, de algunos en Reddit o en Twitter. Bueno, en fin. Él da una lista de las peticiones y trabajos que le han llegado, Matías. Las vamos a contar.
Las que él ve sórdidas chungas. Falsificaciones deepfakes de compañeros de trabajo. Ted, ¿tú puedes hacerme con esta foto de mi compañero de trabajo un deepfake para que muestre que él hace esta otra cosa? Un hombre quería imágenes de su propia esposa en una sexualidad violenta, digamos. Atención.
Imágenes gore, imágenes loli, que en la jerga son de adolescente, lolitas. Imágenes scat, que en la jerga son escatológicas. Esa parafilia con fascinación hacia las excreciones humanas. Estás muy puesto en esos términos. Algunos nos han preguntado, ChasGPT. Y además dice que estas escatológicas, todas las peticiones tienen que ver con furries.
Estamos entrando en un mundo muy complicado, Matías. Chicas de Olifant, atención, esto es muy interesante. Chicas de Olifant que querían deepfake, falsificarse a ellas mismas desnudas para no tener que hacerse las sesiones de foto. Esta es buenísima. Esta es buenísima.
Sí, esa es muy buena. Atención, una cantidad según este creador escandalosa de mujeres y hombres que querían desnudos propios para enviárselo a otras personas. Y la versión un poco más extraña que ha recibido una imagen de Joe Biden siendo devorado por una giganta. Este mundo existe, Matías.
Yo a veces no quiero mirarlo, no queremos dirigirnos ahí, pero hay un mundo de furries pidiendo fotos escatológicas, Matías. Lo que no habrá en este tipo de foros o no sé cómo llamar los discords privados, de este tipo de comunidades de las que somos totalmente ajeros. Yo el otro día vi, fíjate, yo qué naif vi el otro día a un mexicano que ofrecía imágenes de Pixar generadas con Bing por 500 pesos para la pareja,
para novios de ir a una boda y me pareció una idea brillante, pero este hombre en comparación, el de las imágenes creepy, se estará forrando en comparación. Dice que tiene otras peticiones que él ve mejor, una vez le pidieron que hiciera una modificación de una foto de una boda porque la abuela había fallecido antes y querían que apareciera y falseara un poco la foto de la boda. Dice que tiene bastantes
peticiones de hombres y mujeres en transición, es decir, transexuales que están cambiando de género y que querían verse cómo serían ellos en el futuro cuando acabaran la transición. Entonces decía que esto les ayudaba a visualizar y entender mejor qué iba a ser el proceso y que era muy positivo en este camino de cambio de identidad. Es peligroso porque hay muchas aplicaciones que te dicen cómo es tu hijo
con tu novio y lo que sale obviamente no tiene nada que ver con el hijo que vas a tener en el futuro. Pues estas personas, lo siento, pero seguramente no sean ni fiables ni los nudes de la gente, ni cómo van a ser después de la transición, ni cómo habría sido tu abuela en la boda.
Todo esto es una fantasía. Sí, es verdad que no es una herramienta de predicción del futuro, sino de creación de una cosa que luego no se va a corresponder con la realidad. Él lo defendía como algo positivo que ayudaba a esta gente. Tiene un montón de cosas en general, logos de empresas, tazas de café, camisetas, bla bla bla que él estaba vendiendo. Y al final dice, recomiendo a la gente que entre en este tipo de trabajo
si es lo que quieres ganar dinero. Respuesta, no. No lo hagas. No entres aquí. Yo creo que todo lo que te llega no merece la pena por el dinero que te van a pagar. Aparte de que algunas de las cosas que yo veo ahí son bastante ilegales, aparte de poco éticas. Si es un adulto para consigo mismo y la imagen que el modelo da a su consentimiento, me parece bien porque todo el mundo es libre de fantasear y de crear y visualizar
su fantasía si así lo quiere, pero algunas de las cosas me sonaban un poco delictivas, Matías. Pero por lo menos me ha dado una idea para la carátula de YouTube. Voy a hacer un montaje entre Saturno devorando a su hijo y Joe Biden y bueno, pues Saturno devorando a Joe Biden.
Lo voy a poner en la carátula de YouTube. Nosotros lo damos gratis, ¿no? Como este usuario de Reddit que ha cobrado por ese trabajo. Pues no sé, la gente tiene unas filias muy raras, Antonio. Y yo creo que ya esto es el episodio en su punto más álgido y en el top y yo lo dejaría aquí.
Tú, ¿qué dices? Sí, sí, paremos ya. Nos guardamos como siempre temitas para próximos capítulos porque se han quedado en el tintero. Y bueno, esto ha sido todo. Muchas gracias a todos los que escucháis cada semana Monos Estocásticos. Seguimos recibiendo vuestras preguntas a través de Spotify, de Twitter, etc. Algún día vamos a contestar las pendientes que den lugar a un tema en el podcast. Nos vemos la semana que viene.
Un abrazo a todos. Ciao, ciao.