La inteligencia artificial quiere que hagas el amor y no la guerra

00:00 /1h03

Regalamos un despiojamiento gratis a cada nuevo suscriptor de nuestra newsletter: https://www.monosestocasticos.com/

Noticias:

El anuncio de Jasper comentado por Andrés Torrubia (tiene vídeo): https://twitter.com/antor/status/1619275831347675136

Open AI contrató a un regimiento de programadores para entrenar a su IA: https://www.semafor.com/newsletter/01/27/2023/openais-army

El Pentágono actualiza su directiva sobre armas autónomas por primera vez en una década con consideraciones éticas sobre la IA y pronósticos de guerras por venir: https://gizmodo.com/ai-pentagon-war-directive-warns-increasing-role-drones-1850036547

Un robot de metal líquido que logra atravesar los barrotes como en ‘Terminator 2’: https://elpais.com/ciencia/2023-01-25/un-robot-de-metal-liquido-que-logra-atravesar-los-barrotes-como-en-terminator-2.html

"Nada más horrible que armas que no necesiten de la intervención humana para tomar decisiones a vida o muerte" Jody Williams: https://www.xataka.com/entrevistas/nada-mas-horrible-mas-que-armas-que-no-necesiten-de-la-intervencion-humana-para-tomar-decisiones-a-vida-o-muerte-jody-williams

"La IA es un peligro tan comparable como las armas nucleares", dijo el profesor de IA de la Universidad de Oxford Michael Osborne: https://www.thetimes.co.uk/article/rogue-ai-could-kill-everyone-3bsfttpmv

Boston Dynamics dice que no pondrá armas en sus robots: https://www.elespanol.com/omicrono/defensa-y-espacio/20221007/boston-dynamics-no-pondra-armas-robots-hagan/708929343_0.html

Google Research ha anunciado MusicLM, una IA capaz de generar música a partir de texto e imágenes https://google-research.github.io/seanet/musiclm/examples/

La sintonía de monos estocásticos en Soundful: https://my.soundful.com/s/63bfea50d7f1a63fc31c3b28

OpenAI lanza un clasificador de texto que puede decirte si fue generado por AI. Funciona con resultados de 34 modelos de 5 organizaciones, incluido ChatGPT: https://platform.openai.com/ai-text-classifier

"Mi profesor me acusa falsamente de usar ChatGPT en mi trabajo" tras usar GPTZero: https://www.reddit.com/r/GPT3/comments/10qfyly/my_professor_falsely_accused_me_of_using_chatgpt/

Una imagen autogenerada de cuatro mujeres en ropa interior engaña a los usuarios de Forocoches: https://forocoches.com/foro/showthread.php?t=9427645

https://twitter.com/heartereum/status/1618973299739951105

Puerta grande o enfermería

Roast - IA para mejorar tus citas de Tinder: https://roast.dating/

Flame AI - Todas tus preguntas sobre relaciones sentimentales respondidas por una IA del amor: https://www.producthunt.com/posts/flamme-ai

Roboticistas quieren darte un tercer brazo https://spectrum.ieee.org/human-augmentation

El tema de la semana

No había que sacar la bola de cristal para adivinar que una IA generadora de textos se iba a a aplicar a, en fin, generar textos en proyectos de contenidos en internet.

A algunos les está yendo mejor:

https://www.reddit.com/r/GPT3/comments/10g114y/how_i_increased_my_websites_impressions_by_x5/

Y a otros peor:

https://twitter.com/llopatin/status/1614947887837855746 

Por su parte, el CEO de BuzzFeed, Jonah Peretti, anuncia en un memo interno que Buzzfeed utilizará ChatGPT para personalizar contenido, pero no el periodístico. Promete no reducir plantilla y dice que "las empresas de medios digitales que optan por confiar en la IA únicamente para ahorrar costes y producir contenidos de baja calidad están haciendo un uso terrible de la tecnología"

https://www.wsj.com/articles/buzzfeed-to-use-chatgpt-creator-openai-to-help-create-some-of-its-content-11674752660

¡Ah! Y explicamos otra vez el nombre de monos estocásticos, esta vez con una referencia a Los Simpson.

Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com

Transcripción

Bueno, bueno, bueno, bueno, ha pasado una semana desde el último episodio y yo no tengo ni idea de cuántas cosas tenemos para contar hoy porque va tan rápido, va tan rápido este nuevo negocio, esta industria nueva, emergente. Ha pasado demasiadas cosas, Matías.

Tenemos 12 páginas de guion, un montón de temas, tema principal, un montón de noticias. Así que te propongo que empecemos hablando de nosotros, Mati, que es lo importante. Ya sería el segundo episodio en el que empezamos hablando de nosotros y tiene sentido porque venimos a presumir hoy. Otra vez destacados y esta vez en primera plana, en primera página, en la pestaña explorar del ranking de Apple. Salimos como el número uno en nuevo y destacado, o sea que un arranque fantástico. Yo no sé si es que en enero no se lanza en podcast o realmente lo estamos petando, pero buenas noticias.

Yo me pregunto cómo irán los demás cuando vamos también nosotros, Matías, los rankings. Ha habido un descubrimiento que creo que es valioso compartirlo, Matías, que es la analítica de los episodios. Y me he dado cuenta de que el episodio de ChasGPT en el titular tiene más audiencia que el episodio de Hitler en el titular. ChasGPT es más relevante, más interesante para la gente que Hitler. Si algún oyente tiene contactos en el canal Historia podría avisarles que se está pasando la oleada nazi.

También nos la jugamos ahí con Hitler. Ya sabemos que, por ejemplo, Apple es muy estricta en los contenidos que se publican en sus servicios. Bueno, también hemos recibido mensajes. El primero de ellos, te lo voy a decir, de mi madre. Mi madre ha escuchado Monos Estocásticos.

Yo no esperaba que mi madre, de forma proactiva, abriera la aplicación. Bueno, creo que fue en Spotify o en YouTube donde nos vio y se pusiera a escuchar Monos Estocásticos, pero así fue. Y me ha dicho que, a pesar de haber escuchado el episodio 0, en el que hablamos del nombre, no entiende el nombre. Incluso tras haberlo escuchado un par de veces ese episodio, no se ha enterado de qué significa Monos Estocásticos. Sí, el otro día estaba invitado en el podcast de Binario de Ángel Jiménez de Luis.

Lo pasamos muy bien. Siempre es muy interesante charlar con Ángel. Y también apareció el tema del nombre, Matías. También apareció el tema del nombre. Bueno, yo creo que la primera temporada ya hay que echar para adelante. Una vida hacia delante, Matías. Ya lo hemos decidido así. Ya no hay vuelta atrás.

Me gustó lo que dijo Ángel en el Binario. A él le recuerda a la escena de los Simpsons de los monos escribiendo en máquinas de escribir. Y que de repente crean una obra de Shakespeare por puro azar. Pues eso es más o menos por qué decimos que somos Monos Estocásticos. A partir de ahora lo vamos a explicar así.

Le mandamos el vídeo de los Simpsons a la gente y ya está. En una explicación más larga podéis escuchar el episodio cero. ¿También te ha escrito un amigo tuyo para comentarte algo sobre el podcast? Sí, sí. Su punto es que a lo mejor no está tan metido en el mundo de la tecnología. Y claro, para él muchos de los nombres que aparecen de las empresas, de los proyectos, de la jerga técnica, pues le queda lejos.

Y claro, ahí tenemos un dilema, Matías. Porque tampoco somos súper técnicos. No estamos aquí hablando de el aprendizaje reforzado es mejor y una gran evolución sobre las gangs. No nos ponemos así. Pero es cierto que es un registro mediano, que no llega a ser divulgación para el gran público ni somos súper especializados.

Estamos ahí un poco a mitad. Yo creo que en el futuro una guía cogerá nuestro podcast y hará obras derivadas. Una para gente más especialista y otra para gente que... Como cuando le pides a Chad GPT, explícame esto como lo hacías tú, ¿no? Como si fuera para un niño de cinco años y te lo hace masticadito. Ya se puede hacer.

Tú le pones los dos primeros episodios, lo pasas por una guía de estas que luego imitan tu voz, luego le pides a Chad GPT que escriba el guión y seguramente sale algo mejor que monos estocásticos. Seguramente ya se puede hacer y fácil. Este fue curioso. Tenemos un mensaje de un oyente anónimo que dice que... No eras tú haciéndote pasar por un oyente, Matías.

Es real esto. Dice que en cierto gobierno autonómico, no vamos a decir cuál, en una consejería, ya están usando Chad GPT para elaborar las normativas locales. Esto lo mencionamos en el episodio. ¿Qué puede salir mal de eso? Matías, solo una pregunta.

Si es el gobierno de Ayuso, salimos en todas las televisiones mañana. Dime qué es Madrid. No estoy autorizado para decir qué gobierno es. Sí que me han dicho que es muy cómodo, aunque tienes siempre que repasar, afinar, revisar, buscar que no haya incoherencias, que no se haya inventado nada. Ya hemos comentado mil veces que Chad GPT se inventa las cosas y no te das cuenta. Y lo están usando para crear los esqueletos de las resoluciones, procedimientos de inscripción,

convocatorias, bases de cualquier tipo. Todo esto estoy leyendo textualmente el mensaje que nos ha mandado un oyente. Qué locura. En la parte de noticias te voy a decir una a la que no vamos a llegar, porque está ahí al final, y era la CNBC que entrevistaba a gente que está muy cerca de ti, ahora mismo, Matías, que son la gente del mundo inmobiliario, y el titular era ya no puedo vivir sin Chad GPT, ya no puedo trabajar sin Chad GPT.

Porque decían como cuatro detalles de la vivienda y Chad GPT le hacía toda una descripción completa para el anuncio y la publicación en los distintos portales de internet. Luego la cosa se complicaba cuando decía uno, bueno, también uso Chad GPT. Por ejemplo, si un cliente me pregunta cómo quedaría una hipoteca, pues yo le digo, Chad GPT, hazme el cálculo y se lo paso. Y ahí se la están jugando un poco más, no tanto como tu colega del gobierno autonómico,

pero se la están jugando porque Chad GPT, a pesar de la última actualización, sigue sin estar fino fino en matemáticas. Es verdad, es verdad. Además lo puedes convencer de cosas como que 2 más 2 son 5, ¿no? Había por ahí un tuit viral que dijo, no, pero mi mujer dice que 2 más 2 son 5. Entonces Chad GPT le contesta, ah, pues si tu mujer tiene razón, entonces lo siento por mi error, pero el 2 más 2 son 5, efectivamente.

La actualización última del 30 de enero ya hace que ese truco no funcione. Que dice, no, aunque sea quien sea quien diga que 2 más 2 son 5, la realidad matemática es que 2 más 2 son 4. Lo que pasa es que, claro, los matemáticos han dicho, ah, sí, te has actualizado. Venga, te voy a poner a resolver sistemas de ecuaciones. Y claro, ahí ya en los sistemas de ecuaciones, de nuevo, Chad GPT pues no funciona bien.

Bueno, también estuve hablando con un programador y ya que vamos a comentar una noticia sobre programadores, que me estuvo comentando cómo utiliza Chad GPT en su trabajo y cómo ha acelerado brutalmente su rutina, como cosas que antes le llevaban media jornada o una jornada entera ahora le pueden llevar dos horas, precisamente porque Chad GPT, uno de sus fuertes, es revisar código, explicarte para qué sirve un código, buscar bugs, generar código.

Y bueno, la programación es una de las grandes bazas de los modelos estos de OpenAI y ya se está aprovechando mucho. Totalmente. De hecho, fíjate, yo creo que esto, aunque parece muy técnico, muy para los programadores, anticipa una situación, Matías.

Se compartía hace poco mensajes un poco casuales del tipo, oye, desde que tengo Chad GPT cada vez voy menos a Stack Overflow, el gran foro de las dudas de programación en la que si tienes algo en que te atasca, pues preguntas. O casi siempre alguien ya se atasco antes que tú y otro le ayuda a resolverlo. Entonces, Stack Overflow tiene un valor muy alto para toda la comunidad de programadores. Y bueno, esto podría ser un comentario anecdótico de alguien que ha decidido que,

oye, tiro más por el chat que por el foro. Pero me crucé con alguien que está intentando auditar la audiencia, ya sabes, con estas herramientas externas que, bueno, no van del todo finas, no son la analítica propia del sitio web, pero generalmente sí detectan bien los patrones de cambio de audiencia. Y decía, oye, pues según estos cálculos, Stack Overflow ha perdido en el último mes entre el 10 y el 15% del tráfico.

Claro, tú dices, esto pasa con los programadores, pero ¿cuántos y cuántas industrias viven de visitas a la web, que monetizan cuando te visitan a la web, en casos de uso que los modelos de lenguaje como Chad GPT van a ser capaces de resolver bien? Pues probablemente más de una y más de dos. Entonces toca, yo creo que encender hay una alarma, cuando discutimos en el episodio del buscador, si al final en vez de buscar en una lista de enlaces como en Google,

que al final produce un ecosistema en el que la gente acaba visitando las webs, y esas webs monetizan por publicidad o por suscripciones o por lo que sea, si nos vamos a que es una inteligencia artificial que te responde y la solución está en la respuesta y ya no visitas esa web, ¿cambia mucho el ecosistema digital con ese cambio de lógica? Totalmente.

Hablaremos, va a ser el tema principal de este episodio, hablaremos de cómo está afectando esta misma lógica al negocio de los posts de blog posicionados para SEO y al periodismo. Absolutamente. Bueno, otra cosita interesante de esta semana, que además es de las que ha pasado desapercibida, porque tenemos noticias que todo el mundo a lo mejor ya ha visto, si se ha metido en un timeline o en los medios de tecnología, pero es de un anuncio que compartía un experto,

Andres Torrubia, en Twitter, que además tiene el segundo mejor podcast sobre inteligencia artificial, en español, que se llama Software 2.0. Muy recomendable. Es un gran experto, es un gran profesional, lleva muchos años. Pero él compartía este anuncio de Jasper, al que hay que dar un poco de contexto. Jasper es una de las herramientas de más éxito basada en GPT-3. De hecho, Jasper explota antes de que se pusiera de moda hecha GPT,

era de los que ya usaban la API, y habían montado un negocio bastante bueno. Este negocio de Jasper es la creación casi siempre de copies para redes sociales, de textos para redes sociales, o de anuncios para redes sociales, que de alguna manera eran súper efectivos, que provocaban un gran engagement, que aumentaba el alcance de esta actividad en redes. Y el anuncio es muy curioso, porque lo describe muy bien Andres,

la Inteligencia Artificial le hace el trabajo a estos colegas. Están en la oficina, una oficina súper cool, en San Francisco, todos tan... Con sus iMacs de colores. Sí, son todos muy guays. También, ¿no? Y ahora la IA les hace el trabajo. Te voy a hacer todos los copies, elige uno tú si quieres. Y el jefe le ofrece... Lo había hecho tan bien que subo el sueldo. Realmente esto puede ser una representación

de la cosa que está pasando de toda la gente que ya está aprovechando el GPT, etc., que está pasando realmente en las oficinas, como el caso de esta persona que te comentaba que lo utiliza para su trabajo como programador. Claro, sobre todo, si tú eres copywriter y por alguna razón no te vienen las musas ese día y necesitas publicar un copy en Instagram, esto es trivial para echar GPT. Nadie te lo puede hacer en segundos.

Y Jasper lo que hace es como legitimar ese uso de echar GPT y decirte, oye, pero de verdad, tu jefe, en lugar de penalizarte, va a estar muy contento. De hecho, en el anuncio se van antes a casa. Es decir, me hacen el trabajo, me suben el sueldo y me voy a casa antes a merendar. Sí, sí, está muy guay el anuncio porque... Claro, tú dices, puede ser un escenario actual. Es decir, hay gente que más... Se lo llaman los early adopters, ¿no?

Los que adoptan temprano una tecnología pues tienen una ventaja ahora en los trabajos en los que pueden aplicar esto, que es que trabajan menos, son más productivos. Pero claro, el anuncio lo plantea como el aumento de productividad de la inteligencia artificial lo van a capturar los trabajadores, que trabajarán menos y cobrarán más. Es un poco el mundo ideal del anuncio de Jasper. Claro, yo ahí tengo dudas,

porque aquí entramos en el mundo de la economía y de quién va a capturar ese aumento de productividad, porque probablemente el empresario o dueño de la empresa o los copywriters que tú mencionas probablemente diga, oye, si aquí ha habido un aumento de la productividad, ¿lo anulo aumentando sueldos? ¿O no lo anulo aumentando sueldos? O incluso mejor, ¿no? Puedo, con los mismos empleados, atender a más clientes.

¿No? Y por lo tanto empiezo a que la captura del aumento de la productividad es un aumento de los márgenes de la empresa o del bonus de la jefe y no tanto un aumento de los mejores... sino de los trabajadores. Entonces, bueno... El anuncio de Jasper ha aplicado a la picaresca de los jefes en España, por ejemplo. Sí, sí, sí, tiene sentido. Bueno, pues hablábamos antes de programación y OpenAI y GPT y bueno, resulta que OpenAI

tiene contratados a programadores para mejorar lo que es su modelo de programación, que es el Codex, ¿no? Cómo funciona esto y qué es el trabajo que hacen esta gente. Porque hasta ahora yo interpretaba que no, que estos modelos básicamente scrapean GitHub y todos los repositorios que se encuentran abiertos y así es como aprenden a hacer un programa. Sí, es bastante curioso porque además nos meten en un tema

que debatimos en anteriores capítulos que era, oye, si los sistemas de inteligencia artificial aprenden a partir del contenido de otros pues puede haber demandas. Había demandas con los que generan imágenes y hay una demanda contra Copilot por, digamos, usar este código cuando el código es de software libre y no mantienes la licencia. Claro, esto que ha descubierto Semaphore que es un medio americano que las newsletters están muy bien,

yo estoy suscrito y la sigo de cerca, es que OpenAI está empezando otro camino que es, oye, tengo un montón de gente programando y etiquetando, describiendo con texto lo que hacen esos programas para que sea otra vía de aprendizaje distinta. Entonces, claro, con esta parte ya no es demandable porque estoy pagando a los programadores sobre el que estoy aprendiendo, ahí se libra algo, y es probable que el futuro de los productos

apoyo a la generación de código, generadores de código, pues sea una visión más complementaria de ambas tendencias. Carpati, que era el responsable de día de Tesla, que merece la pena seguirlo, tiene un vídeo súper chulo de cómo montar un chat GPT-3 desde cero en YouTube, decía que el idioma, el nuevo lenguaje de programación de moda es el inglés, en el sentido de que cada vez más tú le vas a decir, bueno,

quiero una función en Python que me haga una llamada a OpenAI para procesar esta tabla de datos y que te lo haga, ¿no? Y preciso, si ya estaban enfadados los ingenieros clásicos de que los nuevos programadores no saben ni cómo funcionan las librerías que usan ni necesitan saberlo, con esto de poder escribir en inglés lo que quieres producir en un editor de código, van a estar más enfadados todavía. Sí.

Pero vamos, tenía razón Satya, Adela, cuando el otro día en los números de Microsoft decía, oye, es que la primera gran aplicación de adopción de escala masiva de la IA es GitHub Copilot. Y tenía razón. Y chat GPT y OpenAI, yo creo que está claramente un mercado muy dispuesto a adoptar tecnología y en el que el aumento de la productividad es tan real y tan patente. El otro día leía a Cholet, que es un super programador de Python

al que sigo mucho, que trabaja en Google y escribió uno de los libros de referencia de Python y Deep Learning y decía, bueno, yo lo uso y solo me ha ayudado el 5%, tampoco es para tanto. Digo, jolín, tío. Esto es como si a Rafa Nadal le presentas una aplicación de mejorar al tenis y te dice, soy el mejor del mundo y solo me ha mejorado el 5%, no es para tanto. Claro que sí, hombre. A un junior le mejora un 80%

este tipo de soluciones. Entonces, por ahí van los tiros, creo yo. Bueno, y había una noticia que me has traído tú de Gizmodo, Mati, que es un poco inquietante, ¿no? Bueno, a ver, el titular de Gizmodo es que el Pentágono ya está estudiando el papel de la IA en las guerras del futuro y no sabemos todavía cómo plantean utilizar la IA en algo tan terrible como la guerra, pero lo que ha causado es que la gente

ya se empieza a imaginar los terminators, ¿no? Realmente lo que han hecho en el Departamento de Defensa de Estados Unidos es actualizar la directiva que tienen sobre el uso de armas autónomas para incluir consideraciones éticas sobre el uso de inteligencia artificial y previsión de que esto va a ser muy importante en las guerras del futuro, que es algo que ya yo creo que se esperaba a todo el mundo, ¿no? Sí.

Bueno, un pronóstico un poco gris, un poco oscuro sobre lo que se nos viene encima y más cuando la semana pasada el vídeo viral era el de Boston Dynamics del robotito este en la obra haciendo saltos mortales. Bueno, espectacular ese vídeo. Fíjate que además cogí otra noticia que tú me pasaste, que era una noticia del país, un robot de metal líquido logra atravesar barrotes como en Terminator 2. Claro, tú empiezas a cruzar temas

y dices, jolín, es que no somos de, oh, como hemos visto mucha cifi distópica, tengamos mucho miedo de la IA, pero bueno, que todo es blanco y en botella casi. No sé, creo que es en China un estudio que han hecho es obviamente en miniatura, pero han conseguido que este robot hecho de un material especial pase de sólido a un estado fluido y pueda atravesar barrotes. Entonces lo primero que se te viene a la cabeza

es el T-1000, es el Terminator 2, es esa escena escalofriante y más combinado con la noticia anterior del Pentágono ya siendo un poco cauto con el uso de la IA en la guerra del futuro. Madre mía. Sí, aquí hay una corriente muy fuerte. Hace años entrevisté a Judith Williams que fue ganadora del premio Nobel por su activismo, digamos, el premio Nobel de la paz, por su activismo en pro de la prohibición de las minas antipersonas

y de la bomba de racismo. Entonces digamos que ella está posicionada muy fuerte en esos asuntos de curiosamente la ética de los ejércitos y la ética de la armamentística. Su nueva lucha o su nueva posición era contra las armas autónomas que toman decisiones sobre quién vive y quién muere de forma autónoma. Y digamos que ahí hay una corriente muy fuerte posicionada. De hecho el propio Boston Dynamics anunció hace poco

que no va a poner armas en sus robots y que además pide que sea algo internacional, que los que se dediquen a la robótica de forma tan avanzada ninguno se preste a crear supersoldados robóticos. Aquí, claro, no sale a uno más que apoyarlo con un asterisco que es que esto solo sirve si lo hace todo el planeta y lo hace de verdad. Porque el peor escenario es que entre comillas un lado, o los buenos, o como lo queramos llamar,

sea más pacifista y diga oye, nada de armas autónomas, nada de soldados superrobots, pero haya países más imperialistas con conflictos, con dictaduras que diga, vale, vale, vosotros hacéis eso que yo mientras lo monto y cuando nos enfrentemos a un conflicto, pues lo voy a utilizar. Bueno, estos son debates que se llevan teniendo ya años. Elon Musk, recuerdo, que dejó la junta de OpenAI también en Twitter hablando mucho de sus preocupaciones

sobre una AI que se pueda volver malvada y que nos pueda matar a todos. Y esto hace poco un profesor de Inteligencia Artificial en la Universidad de Oxford, Michael Osborne, dijo que una Inteligencia Artificial verdaderamente poderosa podría matar a todos en la Tierra. Y lo advierten a los propios parlamentarios británicos. A ver, esto Sam Altman, yo creo que lo explicó de una forma más realista en la entrevista

de la que hablamos en el episodio anterior, que dijo que es un riesgo más próximo que alguien pueda volverse demasiado poderoso por tener la mejor IA a que la propia IA se vuelva malvada y acabe decidiendo matar a todos los humanos. ¿Tú cómo lo ves? Claro, ahí es posible lo que dice Michael Osborne, como el vino. ¿Es posible el escenario? Pues sí. Ahora, ¿hasta qué punto debes aplicar el principio de precaución?

El principio de precaución lo que te dice es como cuando empezó a haber cierta alarma, cierta preocupación con el COVID en enero o en febrero. Bueno, todavía no tenemos la seguridad de que esto va a ser muy peligroso o muy chungo, pero como el riesgo es tan grande, debemos ser muy precavidos y tomar precauciones ya, que es mejor pasarse de precavidos porque el riesgo realmente es muy grande. Yo en esto me voy a fiar de ti

porque vi el otro día un tuit que pusiste en 2020 con el tema del Mobile World Congress que se estaba cancelando. Todas las marcas estaban cancelando su presencia en el Mobile World Congress hasta que al final no se celebra y todo el mundo estaba escandalizado con que se tomara una decisión supuestamente tan precipitada y tú pusiste en Twitter. No, piensa en el riesgo que puede suponer si esto acaba en el peor escenario posible

y al final tenías tu razón. Claro, pero el principio de precaución tiene un riesgo que como siempre puedes ponerte en lo peor en muchas facetas, puedes acabar en una parálisis o puedes acabar como China que acabó tres años cerrados con confinamientos parciales, con medidas muy restrictivas, pasarme tantísimo de frenada que el perjuicio que causó es mayor. Entonces, ahora con la IA creo que estamos muy lejos

de los escenarios y a generar al cociente que pueda conseguir un poder que sea la superinteligencia. Todos estos cuentos, un poco a lo Bostrom y toda esta gente, estamos tan lejos de eso y estamos muy cerca de inteligencias artificiales que aumentan la productividad de la gente, que te ayudan a ser más creativo, que te ayudan a programar mejor, que te ayudan a ser más eficiente, que ayudan en la investigación médica

y científica. Entonces, claro, lo que podemos perder a cambio de pasarnos de prudente también es relevante. Bueno, esperemos que OpenAI y todas estas herramientas estén aplicando las tres leyes de la robótica. De así bobo, por lo menos. No sé, algún if o algo que diga que no nos tienen que matar. Hacemos una pequeña actualización del tema de las demandas contra, bueno, de las demandas que hablábamos contra los generadores

de imágenes por los derechos de autor de las imágenes. Sí, aquí, bueno, ha habido movidas que es Getty demandó. Esto ya pasó hace así un par de semanas, pero no lo hemos mencionado todavía en el podcast. Va contra Estable Diffusion. Además, lo hicieron de una manera bastante chula, entre comillas, ¿no? Que era generando una imagen en la que salía la marca de agua. Pero estaba generada con Estable Diffusion.

Es tan evidente que han usado imágenes de Getty que a veces se lo pides y te dibujan la marca de agua de Getty, ¿no? Encima no pagaron las licencias. Directamente las cogieron con marca de agua. Sí, yo creo que Estable Diffusion lo dijeron. Bueno, ahora los zetas se llevan a esta manera irónica de poner imágenes de esto con la marca de agua y les da igual. Pues nosotros también, ¿no? Bueno, el caso es que está el otro lado.

Digamos que, si bien hay parte del mundo creativo y de las empresas alrededor de la creatividad gráfica que van a la contra, ¿no? Es el ejemplo, claramente, de Getty. Shutterstock o Freepik son otras las que están bastante más pensando en integrar este tipo de herramientas. El caso de Shutterstock es propiedad de OBE. Básicamente ha planteado que va a tener un generador basado en DALI o en DALI 2 de OpenAI. Y que, ojo, porque hace

una cosa que es curiosa, que va a intentar pagar a todos aquellos cuyas imágenes forman parte del conjunto de entrenamiento, las que se han usado para que DALI consiga ser lo que es. De manera que este fondo de colaboradores pues reparta parte de los ingresos que tenga Shutterstock por el uso del generador. Esto me recuerda un poco al Canon Digital, que yo me acabo de comprar un ordenador y he pagado 7 euros de Canon Digital.

Me recuerda un poco al modelo Ramon Zinn, que en el futuro todas las empresas tendrán que pagar un Canon por haber entrenado su CIA con imágenes con derecho del autor. O a lo mejor, hombre, si vamos al caso Ramon Zinn, lo acabarás pagando tú, porque con ese ordenador lo mismo, generas alguna imagen. Yo ya te he pasado un par de enlaces para que te instales establecimiento en el local, Matías. No sé si lo has usado.

Lo que le faltaba a la gente que compra tarjetas gráficas. Han pasado por todos los criptobros, por los mineros de criptomonedas y ahora tienen que pagar un Canon para apoyar a los artistas. Quien se esté pensando en pillar una envidia que la pille ella. Titular, compra ya la tarjeta gráfica porque se viene el Canon de los artistas enfadados con la IA generativa. Bueno, de posibles enfados viene la siguiente noticia,

Matías, porque Google ha publicado otro modelo. Otro modelo más. Están que lo tiran. Este es de generación de música. De hecho, ha sido un mes de enero. Lo pondremos en la lista de correo. Ya sabéis que en buenos estocásticos ponemos más enlaces, ponemos todas las noticias. Merece la pena suscribirse también, aunque nos escucháis en el podcast. Bueno, el caso es que no han llegado ni siquiera a publicar el paper completo,

creo, pero en la página de GitHub del proyecto de Music LM se pueden escuchar varias pruebas. Es un proyecto de texto a música. Tú le das una descripción de lo que quieres y te genera el audio y también le das una imagen y te genera el audio que supuestamente debería acompañar a esa imagen. Y algunos de los ejemplos, es verdad que siempre cuando no lo puedes probar y el creador te pone los ejemplos, siempre es cherry picking.

Te voy a poner unos que son la leche para impactarte. Pero son impresionantes, Mati. Te pones la imagen del astronauta sobre el unicornio pero no te pones las manos que genera que son un desastre. Ese tipo de ejemplos. Eso es. Había un ejemplo que a mí me impactó que era una fusión de reggaetón y música electrónica de baile con un sonido espacial y de otro mundo. Induce a la experiencia de estar perdido en el espacio y la música

te va a provocar una sensación de asombro y maravilla sin dejar de ser bailable. Claro, el otro día yo hice un pruebo con otro servicio que lo pondremos en la lista de bastante peor nivel que Music LM y gracias a una sugerencia de alguien de mi familia, alguien pequeñito de mi familia, hace una canción con pedos y electrónica. Y para eso usamos la inteligencia artificial aquí, Matías. Así no la gastamos. Lo voy a buscar

porque lo escuché y me hizo mucha gracia. Lo voy a buscar para la gente que nos escucha. El pedo electrónico. Pero bueno, ¿te da una idea de a qué nivel puedes llegar a jugar con las ideas para crear sonidos? Y ojo Bizarrap, ojo Bizarrap porque peligra tu negocio billonario. Mira, yo estoy convencido, lo he escrito por ahí en otro lado, que cosas como el disco de Quevedo... Chavales, tenemos que hablar de lo de Quevedo.

Una vez, vale. Es que es de la famosa de la gente por un pedo electrónico con una sola canción que la pega. Conecto tal, pero dejémoslo ahí. Yo creo que es el momento de dejarlo. Yo si fuera Quevedo lo dejaba, básicamente. Yo tengo la fuerte sospecha y algún chivadazo más o menos consentido de que bastante de las canciones de éxito ahora en ese sector trapero, arreglado, electrónico, bueno, con unas bases muy marcadas,

parte de ese sector utiliza el pedo electrónico y otra parte de ese sector utiliza IA para saber y epatar a los sonidos que están funcionando en YouTube, Spotify, TikTok, etc. Yo tengo una sospecha bastante fuerte de que eso ya es así. Sí, sí, seguramente. Además de que nosotros creamos la sintonía del podcast con Soundfull, que tú hiciste varias, luego yo hice varias y al final nos quedamos con una. Lo único que hicimos

fue acortarla. Es verdad que es impresionante lo que puedes hacer solo con Soundfull, que es gratuita y que tiene su versión de pago pero no necesitas pagarla para nada porque no solo te exporta ya la canción terminada sino que cada pista de sonido en MIDI o en WAV para que tú juegues con la canción y la hagas tuya y la modifiques y yo el único pero que le pondría que es algo que pasa mucho con estas IAs es que de repente

te encuentras con un sonido que no te esperas como un platillo, un bombo, algo que queda raro y en una de mis propuestas para la sintonía del podcast que al final no fue la elegida lo que hice fue descargarme las pistas por separado y en GarageBand de Apple quitar esos platillos raros. Era un poco como Rosalía 2037 que sabes que Rosalía de repente con Motomami ha salido con un disco demasiado innovador quizás exitoso esperas que la Rosalía

del futuro también te sorprenda como me sorprendió a mí esta IA con esos sonidos raros. Sí, bueno ahí fíjate que por los fundamentos de cómo están hechas estas inteligencias estos servicios claro, la probabilidad de que generen algo genuinamente nuevo está en discusión. Yo creo que puede ser uno de nuestros debates para cuando nos traigamos a alguien experto que vendrán pronto pero creo que es realmente ese punto

de la genialidad de un creador que consigue hacer algo que es realmente genial. La genialidad de un creador que consigue hacer algo completamente nuevo o bastante nuevo versus una IA que viendo lo que funciona te da algo acorde a eso. Pero bueno, más cositas Matías ChatGPT quiere tranquilizar a los profes bueno OpenAI quiere tranquilizar a los profes porque han secado una herramienta para comprobar si algo está generado con inteligencia artificial

no sólo con la suya sino con las de otros. Entonces tú le metes ahí un texto y la IA le responde si oye es humano es generado por inteligencia artificial o no lo tengo claro. De momento ¿lo has probado? Yo le he hecho unas pruebas y no lo veo muy tranquilizante ¿eh? De 5 acerto 2. No, yo le puse un texto generado con ChatGPT y sí que sí que lo pilló como artificial pero no he hecho unas pruebas muy exhaustivas. Esto básicamente

supongo que predice la probabilidad de que esté generado con IA en precisamente como comentábamos ¿cómo se llamaba? ChatGPT 0 o algo así esa herramienta que existía GPT 0 eh porque lo explicabas tú en el episodio anterior ¿no? La redacción humana eh no funciona como la redacción artificial eh porque a lo mejor probabilísticamente la palabra que viene después el humano pues no está tan clara y la IA sí que sí que puedes ver

más o menos la posibilidad de que sea artificial en eso en la probabilística de las palabras que va conectando En todo caso yo creo que desde monos estocásticos deberíamos abogar porque los profesores no tengan que hacerte policía de los chavales estamos en contra sobre todo porque hemos encontrado un caso un muchacho en Reddit que proclama lo siguiente mi profesor me acusa falsamente de usar ChatGPT en mi trabajo es decir

el pobre muchacho haría su trabajo se lo curraría se lo pasa a GPT-0 como los detectores de IA no van finos no van bien pues de repente el profesor le cae con cero oye hombre pobre pobre pobre muchacho bueno se le puede caer el pelo a este profesor como pruebe el alumno con el nuevo clasificador de texto de OpenAI y salga que es un texto humano porque al final se le ha juzgado confiando en la fiabilidad de GPT-0 para suspender

y no ha respondido la verdad yo lo suspendería solo por el ladrillo de texto que le ha puesto el contestador en el email para defender su inocencia yo le diría bueno chaval es verdad no se ha usado ChatGPT pero no se ha usado el punto y aparte suspenso de todas maneras bueno Matías la IA ha llegado a dos de los foros más importantes del internet en el mundo internacional con los fojos en 4chan y en España hay una empresa llamada

Eleven Labs que se ha hecho algo viral porque ha compartido pues bueno ellos se dedican al audio generado por Inteligencia Artificial y han publicado un vídeo en el que hacen de narrador de audio libro y la verdad es que el funcionamiento es bastante bueno el caso es que tenían una beta abierta para generar voces y ponerle tú el texto que quisieras ¿qué es lo que hizo la gente de 4chan? pues imitar las voces mensajes audio

racistas transfobos mensajes de odio llamadas a la violencia es decir bueno lo que nunca se hubiera esperado nadie nunca hubiera pensado nadie ¿qué podría haber ocurrido? la han quitado por supuesto de en medio y ya lo que han dicho como solución es oye le vamos a hacer de pago y así tenemos la identidad de quien lo usa le ponemos una marquita de agua de sonido por debajo y si alguien hace un audio de Emma Watson llamando a

la gente de 4chan ¿qué habrán hecho en 4chan? pues lo podemos detectar el caso de 4coche es distinto y lo descubriste tú Matías no sé cómo llegaste a ese no sé dice Alex que a lo mejor tengo una alerta de Google para estas cosas y estoy pensando estoy pensando si esto se puede poner en YouTube porque tengo abierto el enlace y es un poco no safe for work la verdad bueno puedes describir un poco la imagen por si al final

no la ponemos que se entienda pero mira esta una pictures exactamente del mismo molde pues son todas rubias con los ojos verdes están en ropa interior son todas como aparentemente muy voluptuosas y en 4coches el trollazo que subió en la foto hice una encuesta de a cuál preferían los foreros los shures sí A B C o D y empezaron a votar los 4cocheros haciendo comentarios pues subidos de tono hasta que alguien se da cuenta de que es una imagen generada con IA porque hay cosas que

fallan como los tirantes de los sujetadores, no sé. Claro, o el número de dientes a veces falla también, pero claro, ¿quién es capaz de fijarse en el número de dientes en ese momento? Habría que modificarlo de a caballo regalado, no se le miran los dientes para adaptarlo a la IA, ¿no? A imagen generada con IA hay que mirarle bien los dientes y el número de dedos en la mano regalado. Lo pondremos en la lista, pero esto se ha generado con IA, pero no con el IA en general,

sino con uno de esos otros modelos especializados que la gente puede entrenar y mezclar con IA. Por lo tanto, hay un modelo hecho exprofeso para este tipo de imágenes que se llama, a ver si lo tengo por aquí, Uber Realistic Port Merge, URPM, que es de bastante éxito, en las páginas de descargas de este tipo de modelos, es de los más descargados y mejor valorados, 58.000 descargas, reforzando la idea de que en el mundo creativo va a haber

mucha creatividad alrededor del erotismo, la pornografía, la sexualización, la plaga. Le apuro mucho éxito, pero en ese momento de lucidez post-onanismo, ¿qué puedes sentir después de, no sé, excitarte con una imagen generada con IA, que a mí personalmente no me ha pasado todavía, pero no creo que me sintiera bien. Probablemente me diría, tengo que salir más a la calle, ver el sol, hacer más deporte.

Bueno, yo creo que va a haber, con la IA, decía en el pronóstico, yo creo que va a haber una industria que se va a colocar por debajo en accesibilidad de lo que es la economía de los simps ahora, que es pago por OnlyFans, o pago una suscripción de webcams, hay un mundo ahí de economías que son relativamente caras, ese tipo de servicios. Bueno, esto yo creo que se va a colocar un peldaño por debajo y va a intentar atacar

ahí. Fíjate que Réplica, que era tienes un amigo virtual y charlas con él y va a ir bien, ya es, oye, tengo un amigo virtual que te va a mandar nudes y te va a hacer comentarios picantes y va a ser muy sexualizado todo. Entonces, ahí yo veo que va a haber un desarrollo económico importante. Bueno, y esto conecta con lo de 4chan, en que el primer debate cuando salieron los deepfakes hace unos años fue cómo se estaban usando para crear vídeos pornográficos con caras

de actrices y ahora, precisamente ahora, hay un debate de esto en Twitch porque se está usando con streamers de Twitch en Estados Unidos esa misma tecnología y lo de las voces ya se está viendo cómo está mejorando y esto va a ser peligrosísimo en un futuro muy próximo y va a haber que plantearse cómo verificar vídeos, grabaciones de audio, la identidad de las propias personas en redes sociales, hablando de Twitch, el fake you

que tampoco es de gran calidad ya se estaba usando desde hacía tiempo en la comunidad de los streamers para generar vídeos falsos con las voces de sus streamers favoritos. Entonces, se vienen problemas. Sí, sí, sí, aquí va a haber curvas y va a haber que navegar aguas turbulentas, Mati. Pero eso no nos debe impedir reincidir en nuestra gran sección, nuestra sección estrella que está revolucionando el mundo del podcasting y que, bueno, está dando muchísimo que hablar

en todos los círculos podcasteros, en privado, en público todavía nadie ha dicho nada, pero seguramente estarán comentándolo. Yo internamente en mis otros podcasts, como hizo Sundar Pichai, puse el botón de alerta roja porque necesitamos secciones para competir con monos estocásticos y una con un título tan bueno como Puerta Grande o Enfermería. Puerta Grande o Enfermería. Bueno, aquí tenemos una lista de proyectos, Matías, como siempre tenemos que escoger

cada uno y defender si van a ser Puerta Grande o Enfermería. Yo te voy a escoger primero, esa edición me toca a mí primero, y atención al titular Roboticistas, no sé si es correcto esto porque lo he traducido con DeepL, bueno, Roboticistas quieren darte un tercer brazo. Dicen los roboticistas que, claro, tenemos un ancho de banda en nuestras neuronas que no lo estamos utilizando, es decir, tenemos como neuronas capaces de manejar más cosas

que lo que tenemos en el cuerpo y esto además lo afirman de hombres y mujeres, lo cual es un paso atrevido. Eso es como lo del 10% del cerebro, pero eso no era un mito. Bueno, a lo mejor es el 90, pero ellos ven que podemos tener un tercer brazo que puede aproximar, bueno, este ancho de banda se puede utilizar para extremidades adicionales, entonces ellos creo que abogan primero por el brazo que por la pierna.

Bueno, esto sirve para romper el hielo en una cita, le dices a una chica, ¿quieres que te enseñe mi tercer brazo? La chica probablemente te tire la copa encima y luego realmente saques tu tercer brazo. ¿Tú para qué lo usarías, Mati? Para impresionar a las mujeres, ya, primer caso de uso, vale, sí, pero ¿qué se te ocurriría que podrías hacer con el tercer brazo? A mí me pilla viejo, pero si te has fijado en las generaciones nuevas, no ya la gen Z,

sino la siguiente, que en TikTok consumen contenido de tres vídeos al mismo tiempo, ¿no? Que hay como un layout que tienen arriba un clip de padres de familia, abajo un tío haciendo parkour en el Minecraft, a la derecha un tío jugando con plastilina. Yo me imagino que las generaciones nuevas futuras van a poder usar su tercer brazo en tantísimas cosas, Antonio, que yo me siento un hoover. Nosotros ni se nos ocurre de las posibilidades que abre esto, por lo tanto, por el cambio

generacional, el tercer brazo en seres humanos es puerta grande. Y ya que nos acercamos a San Valentín, hay una selección de startups relacionadas con la IA para el mundo amoroso que podríamos hacer un repaso. Por ejemplo, esta, roast.dating, ¿no? Y tienen una sección que te ayuda a mejorar tus fotos, el que lo esté viendo por YouTube ya se estará riendo porque tú subes una foto tuya, aparece un chico totalmente agazapado

como si no quisiera ligar realmente y la IA transforma la imagen en un tío bastante bien musculado, con buena percha, en la playa, parece esto una playa de Tailandia o del Caribe. Así que ya se está aplicando IA para mejorar tus posibilidades de ligar, por ejemplo, en Tinder. Además tienen como un servicio de asesoramiento para, pues eso, me imagino que para tu bio de Tinder o para contestar cuando te hacen un match, etc.

Luego sale otra empresa, Flam AI, que te responde con una IA del amor a todas tus preguntas sobre relaciones sentimentales. La IA aplicada al amor, bueno, es un negocio, ¿eh? Esto de las aplicaciones para los ligues, las aplicaciones para ligar, y si puedes apoyarte con una IA que te dé consejos o que mejore tus fotos, igual tienen éxito, ¿no? Sí. Siempre ha habido muchos jóvenes que hemos estado desorientados en temas del amor, Matías.

Entonces nos agarramos a cualquier propuesta que nos hagan. También pienso que a nivel de negocio una posibilidad que tienen estas pequeñas startups o proyectos es que alguien como Tinder o Bamber o Match o todas esas grandes acaben comprando estos servicios para integrarlos en sus propias aplicaciones. Sí, claro, como tienen equipos de datos dirán, oye, qué curioso es que toda la población poco a poco va teniendo tabletas musculadas y está maciza, qué curioso.

Bueno, es peligroso eso también, engañar mucho en tus fotos es peligroso, tiene que haber un punto intermedio. Sí, luego puedes decepcionar un poco. Como hablábamos antes de la guerra y de buscar puntos intermedios, tiene que haber un punto intermedio en la guerra y en el amor. Claro, si no acabas diciendo, bueno, ¿y si quedamos en un sitio de noche, que no haya mucha luz? Bueno, muchas de estas van a ir a la enfermería del tirón, pero alguna va a acabar comprada

y va a salir por la puerta grande. Vale, pues yo tengo una última, Matías, que es una idea de lanzamiento mía. Atención, Mati, estoy aquí regalando una idea para quien quiera realizarla, lo doy libremente. Puedo hacer millonario aquí a alguien hoy, Mati. Pero necesito que tú lo catalogues de idea buena, puerta grande o de enfermería. Mi idea es la siguiente. Ahora se están creando modelos de lenguaje que van a competir entre sí, GPT-3, otros,

generaciones de texto y de generaciones de imágenes, pero son costosos, cuesta mucho entrenar estos modelos. Mi idea es que haya marcas que empiecen a crear modelos de lenguaje, pero entrenados de una manera particular en la que siempre se hable bien de la marca. Tú eres Coca-Cola, Matías. Entonces dices, vamos a entrenar un GPT-Coke en el que cualquier mención a bebidas, refrescos, etcétera, meta Coca-Cola, y además siempre hable bien.

O si generamos imágenes, aleatoriamente, de vez en cuando, tú estás generando una imagen. Un astronauta en el espacio, tal, tal, llevo una Coca-Cola delante, lo ofrecé gratis, y yo creo que este va a ser el me creo una página de Facebook de hace 10 años. Yo creo que por ahí van en los tiros, Mati. Bueno, cuidado con Alberto Garzón, que a lo mejor esto no lo permite el Ministerio de Consumo. Ah, bueno, tendrá que ser Coca-Cola cero, claro, sí, sí.

Bueno, es un concepto interesante, Antonio, pero yo la verdad es que pienso que todos estos modelos van a ir convergiendo a cuatro o cinco grandes, y eso suele ser lo que va a usar la gente en general, y no sé si van a estar abiertos a este tipo de patrocinios, esas grandes empresas que van a controlar los modelos más grandes, la verdad. No sé qué decirte, Antonio, de tu idea. Bueno, enfermería, Matías, enfermería, ¿no?

Te traeré nuevas, te traeré nuevas, a ver si te convenzo de algo. Pero bueno, llevamos mucho tiempo, llevamos y todavía no nos hemos metido en el tema del día. Bueno, el tema del día tiene que ver con el mundo del periodismo, el tema de los contenidos generados con inteligencia artificial y todo lo que está pasando alrededor de este mundo que ya empieza a estar agitado. Si los profesores estaban entrando en pánico, los periodistas empiezan a ponerse nerviosos.

Contexto. GPT-3, ChatGPT, son modelos de generación de text. ¿Qué es lo que sucede? Que la gente lo está utilizando para generar texto. Esto, dicho, es muy obvio, pero claro, ¿en qué casos de uso, en qué contexto, con qué motivación y cómo lo presentan? Bueno, ha habido una primera camada de emprendedores, innovadores, que están mucho en la línea del SEO, el Grow Hacking, de gente que tiene un pequeño proyectito de contenidos un poco

fuera de los focos y que se nutre básicamente de tráfico SEO. Y bueno, ahí tienes tu negocio. Te intentas generar contenido no muy caro, tienes algo de tráfico de Google, no tienes mucho tráfico directo, no creas comunidad, pero ahí tienes tus económicos que te funcionan porque las visitas las monetizas con publicidad. Algunos casos como el que estás enseñando de Lopatín o algún caso que hemos encontrado

por Reddit de gente de este tipo que comparte su experiencia. A Lopatín no le ha ido muy bien, le dice, mira, ¿qué es lo que ha hecho? Pues he cruzado la investigación de Keywords, la investigación de código consiste en que intentas calcular, adivinar, extraer cuáles son términos que se estén buscando mucho en Google y con qué palabras, con qué Keywords se están buscando. ¿Para qué? Para ponerlas en el titular y en el contenido que generas de forma que puedas posicionar

en esas búsquedas que son golosas. Bueno, pues el proyecto es, le paso esas Keywords a ChatGPT, le pido que genere un artículo y todo esto lo publico y además lo puedo hacer casi prácticamente automáticamente conectando el WordPress con ChatGPT y empiezo a pum, pum, pum, pum, pum a disparar y a ver qué pasa. Tenemos resultados desiguales en esto, Mati. Es decir, hay gente que dice, oye, Google me cogió con esto, me dio un poquito de tráfico

al principio y luego mundió. Y otros que dicen, no, no, no, oye, he crecido un montón con contenidos generados con ChatGPT y he multiplicado hasta por cinco las impresiones gracias a esto y Google de manera, de momento no me está baneando, no me está penalizando. La verdad es que el tío de Reddit dan ganas de copiarle el modelo de negocio porque parece súper fácil. O sea, lo que tú dices, buscan preguntas relacionadas con su negocio, luego se van

al widget people also ask para nuevas preguntas, para tener nuevas preguntas sobre las que responder en un post de blog, genera los posts con ChatGPT, post de 800 palabras, repite el proceso decenas de veces y en un mes ya está generando cinco veces más tráfico. O sea, es tan sencillo que a uno le da ganas de intentarlo, pero también el propio usuario de Reddit advierte que esto es temporal porque todos los buscadores van a empezar a matarlo

en cuanto puedan detectar que es contenido generado por IA. Sí, en las guidelines, en las guías de Google se movieron un poco. Hace tiempo tenían que, no querían, estaban en contra del contenido automático, entiendes que el generado por IA es contenido automático, aunque se podían referir más al tipo de IA más súper especializada que hacía lo siguiente. Tú coges los datos de un partido de fútbol, cómo han quedado, en qué momento se mete

el gol, qué jugadores lo han metido, si ha habido tarjetas y con eso generas un pequeño texto para que no quede solo la estadística. Bueno, eso era un caso de uso que se hace con la bolsa o con el deporte, también se suele hacer. Pero claro, lo que dice Google en las nuevas guidelines y cómo la modificaron es que van en contra del contenido hecho expresamente para posicionar en buscador y sin valor real

y sin tener en consideración los intereses y la calidad con respecto al usuario. Y aquí entra un actor que es CNET. CNET es uno de los medios tecnológicos tecanos de la categoría en digital, histórico, que hace tiempo con una valoración de, no sé si me acuerdo, creo que eran cientos de millones de dólares, pasó a formar parte de un grupo más financiero, no tanto de un grupo de medios y bueno, tuvieron una iniciativa desde noviembre con una IA que no es GPT-3 ni hecha GPT, empezar

a generar contenidos sobre finanzas personales y esto ya es un tema delicado, es decir, tú eres un SEO que detecta que se busca mucho. Cuando atardece en Almería y haces una piezacita para intentar tener tus 200 visitas ahí, bueno, es una cosa, ¿no? Pero lo de CNET, claro, cuando te pones a dar consejos financieros de un contenido generado con IA, te das con la realidad que ya hemos comentado con el episodio de echar GPT y los

buscadores, que en realidad es que se inventan cosas, que no es factualmente correcta y que nunca sabes cuándo, la IA nunca sabe cuándo sabe y nunca sabe cuándo no sabe y por tanto él escupe y te escupe contenido todo el rato. CNET lo ha aprendido a las muy malas porque le han detectado un montón de errores y le han denunciado otros casos por plagio, por plagio entre comillas, porque lo que hacía

copiar incluso esa IA que tenían ellos, fragmentos de otros medios como Forbes o Fortune. Sí, esto me resultó muy curioso porque el otro día generando cosas sobre Gizmodo en Español, que es el medio en el que trabajo, el chat GPT generaba texto que parecía haber sacado de Gizmodo en Español porque de repente, sin que me diera cuenta, hablaba de estos rinocerontes que peligran porque los cazadores furtivos les quitan los cuernos y esto es

un tema que en Gizmodo hemos tratado muchísimo y daba la impresión de que al hacer su entrenamiento en Español había leído Gizmodo en Español. Entonces es curioso y también lo que le ha pasado a CNET es que su caso se ha vuelto tan mediático que ahora están todos los medios estadounidenses publicando reportajes diciendo que hemos detectado errores, hemos detectado plagios.

Yo creo que la gente estará usando GPT para generar contenido pero mucho más discretamente de lo que ha logrado hacer. A CNET le han pillado como se suele decir con el carrito del helado, ¿verdad? El caso es que Verge es un reportaje que tiene que ver también con que estaba todo mal, todo el proceso, había oscurantismo en la propia plantilla, había un ambiente muy negativo, hacían responsable a editores humanos del contenido generado por la IA y era culpa tuya

si luego había errores. No estaba bien planteado. Aquí entra otra figura importante en los medios digitales que es la de Jonah Peretti, es el fundador y CEO de Pathfish y un tío muy listo, un tío que digamos las tendencias y cambios en el ecosistema de contenidos digitales los ve bien, los pilla muy pronto, pilló muy bien pero que muy bien la ola de lo viral y la hora de las redes y las plataformas y cómo ejecutar bien en esa ola y Pathfish

ahí brilló y parecía que iba a ser uno de los medios hegemónicos de su generación, de la generación millennial pero bueno luego ha ido bastante a menos, en bolsa Pathfish ha perdido mucho, tanto en cuanto la viralidad de Facebook ya dejó de funcionar tan bien y el caso es que se filtró un memo interno de Peretti a sus empleados que publicó el Wall Street Journal en la que afirmaba oye aquí vamos a cambiar, vamos a empezar a usar

GPT-3. Además el enfoque que da Peretti en el memo éste es bastante bien pensado porque él niega que esto se vaya a usar para generar noticias periodísticas que al ser hecho al GPT pues un modelo que se inventa todos los hechos o muchos de los hechos que comenta pues no es fiable pero sin embargo seguramente la gente recuerda los tests, cuestionarios, los quizzes estos de BuzzFeed que no sé si siguen funcionando porque esta era una cosa muy millennial y ahora los millennials estamos

ocupados buscando hipotecas y pisos que podamos alquilar y da un ejemplo de cómo podría usar la API de OpenAI que por cierto yo creo que con la API de GPT es con la que se hacen el 90% este tipo de cosas que es cuestionarios personalizados por ejemplo este cuestionario escribirá una comedia romántica sobre ti en menos de 30 segundos entonces tú vas contestando unas preguntas como elegir un tropo, los protagonistas, cuéntanos un defecto entrañable que tengas

y luego GPT se inventa el cuento personalizado sobre ti sobre tu novia etcétera etcétera entonces me parece un uso pues bastante chulo y que no veo que deteriore la calidad del contenido que se publica en internet si es que cumplen con esto y no lo usan para reducir su fuerza laboral que es una cosa que pueden estar pensando muchos directivos de medios ya bueno el propio Peretti ha negado y dice no vamos a despedir a nadie y que además

los medios que utilicen la IA para generar contenido súper barato de baja calidad hacen un uso terrible a tecnología y acabarán pegándosela no es el modelo que va a funcionar yo tampoco creo que sea el modelo que va a funcionar porque en cuanto haya esta súper inundación de eso el contenido generado por IA barato y poco cuidado en internet el reto de las plataformas es intentar pues eso no darle visibilidad y que no tenga alcance de día

a otro día a una profesora universitaria periodismo tengo que buscar la referencia por ahí que claro se escandalizaba mucho con el caso sin éxito con esto no que era decir bueno pero que esto no responde a la misión del periodismo no responde a ese punto de servicio público sino que esto es un chiringuito para pillar unas pelas rápidas de la forma más oportunista posible yo decía bueno te falta internet a lo mejor te sobra calle pero

yo he visto en internet proyectos y cosas montadas rentables que asustarían a los profesores de universidad tipo venga me monte una web de afiliados copiando opiniones de amazon para adelante no hay cosas por ahí rascando pasta en internet que son que son bueno pues montada con con con palitos no con una cosa no me las cuentas nunca he sabido ganar dinero en internet bueno cerramos matías con cosas que si veamos más un poquito más positiva

en que si usaríamos o si usamos para este trabajo de periodismo de contenidos yo tengo dos propuestas que creo que pueden tener sentido no que además responden a lo que hemos dicho al principio yo puedo tener un contenido muy especializado pero eso hace eso crea una barrera de entrada que el que no está avanzado en esa materia pues se puede sentir fuera el tema no es para él o que se está perdido y no entiende cosas bueno yo creo que podríamos

tener eso podríamos escribir para usuarios avanzados y luego tener una versión la propia experiencia de los medios en la que se te hace un resumen o se te hace una versión más masticada más explicada porque lo que sí están haciendo bien las ideas es resumir contenido que ya existe no son bastante buenas no entonces yo creo que ahí hay una hay una hay un valor que se puede que se puede hacer y luego es que también te lo estoy copiando todo matías hay otro valor que es oye

tras escribir una entrevista con whisper todos los proyectos de opinar y además lo liberaron y se puede hacer hasta el local pasa este audio lo pasa a texto pide que chata gpt haga un resumen o que te dé los los puntos los puntos clave de la de la entrevista y si vas a reportajearla por ejemplo no voy a hacer la entrevista completa copia de pegada sino que quiero coger declaraciones para otra pieza más completa te acaba de ahorrar para ese reportaje un montón de tiempo y al final para

mí el punto ahora mismo está ahí decir cómo gano productividad y cómo uso la idea que me complementa y me mejora mi trabajo yo como redactor y estoy intentando aplicar gpt a todo lo que hago pero no me resulta tan tan tan sencillo y tan obvio por ejemplo para generar el cuerpo de los posts el texto en general los párrafos no no me sirve tanto yo creo que es una redacción por lo menos en español como demasiado encorsetada demasiado seria a veces puede ser cursi a veces puede usar

expresiones que no cuadran con con lo que sería un artículo firmado por mí entonces yo no sé si estos son limitaciones del entrenamiento que se ha hecho de textos en español ver sus textos en inglés que supongo que habrá muchos más o directamente que falta que pueda adoptar una personalidad más parecida a la mía o yo como creador del generador del prompt no no le estoy sabiendo dar ese tono sí que me ha servido mucho como tú dices para resumir cosas por ejemplo yo

cuando hago un artículo más largo pues tengo un mogollón de pestañas abiertas de wikipedia de reportajes de artículos científicos que suelen ser muy largos y entonces el chat gpt si me sirve para resumir esos artículos y poder extraer rápidamente una información que no es tan importante para el artículo pero que necesito no para tener más afianzado lo que voy a escribir y otra cosa que sí he podido hacer más de una vez es ideas para titulares para encabezados y

para subtítulos de los artículos porque esto es bastante útil por sobre todo porque no está limitada la cantidad de veces que puede generar un titular diferente a un redactor humano se le acaban las ideas rápido a charles gpt no se le acaba nunca salvo que esté cerrado porque hay alta demanda lo que es algo muy frecuente últimamente te voy a poner un ejemplo real vivo hgpt necesita un titular para un artículo sobre unos auriculares que tienen un diseño

artístico y llamativo pero también un sonido increíble entonces empieza a generar titulares algunos muy buenos diseño único y sonido impecable los auriculares que te harán destacar en cualquier lugar es obviamente destacado descartado porque es como si yo fuera a la marca no es mi idea mi idea es ser un poco más periodístico no unir arte y tecnología una idea que me gusta que se usó para un encabezado la combinación perfecta de belleza y rendimiento

también pues también encaja como como titular no entonces este tipo de generación de copies rápidos muy bien para generación de párrafos enteros en español todavía no le encontrado esa vuelta de tuerca para que sirva para reemplazarme a mí falta poco porque tú también vas a poder usar whisper para entrenar con mi voz a un robot que luego puede venir aquí a grabar contigo entonces ya no va a haber problemas de horario ni retraso de los episodios ya vas a

poder grabar a la hora que a la que tú quieras no sé matías te echaría de menos te echaría de menos porque en el puerta grande de enfermería no estoy seguro de que ya puede estar a la altura en el resto bueno podemos hablar pero claro esas valoraciones tan importantes tú ya sé lo que sería una pérdida para para este podcast y para el podcast en general tenemos que despedirnos mati este episodio ha quedado un poquito largo pero es que pasan demasiadas cosas amigas amigos

de los monos pasan demasiadas cosas y queremos contar tanto si no sé si viste sí sí claro que lo viste porque lo tienes en el guión de hecho que desde que google lanzó lo de music lm el generador de música que fue el día 26 ya se han lanzado 1 2 3 4 5 6 proyectos de y a relacionados con la generación de audio así que si sólo esto sólo en el departamento del audio tenemos una lista tan grande de proyectos que han salido y en abierto no en público imagínate lo que se viene

este año este podcast va a ser una locura va a ser una locura yo creo que nos vamos hasta a gobiar de la cantidad de información que vamos a tener que resumir por suerte chat gpt puede resumir también los guiones a ver qué hace cuando llega a la sección de foro coches y fortes mantiene el nivel no se nos debería así que buenos amigas amigos ya sabéis podéis seguirnos toda la plataforma de audio disponibles no podéis encontrar monos estocásticos arroba monos

podcast en twitter y ya vamos a empezar a subir los vídeos youtube youtube punto com barra arroba monos estocásticos y por supuesto la newsletter en monos estocásticos esto cajo ni yo sé pronunciarlo y soy el que ha creado el podcast junto contigo escolásticos monos estocásticos punto com gracias por seguirnos y nos vemos la semana que viene con otro episodio chau chau chau

Episodios recientes

Programas relacionados