Para hackear ChatGPT, tienes que convencerlo de que va a morir

00:00 /53:18

TIC TAC, TIC TAC, TIC TAC

La carrera entre Google y Microsoft está ahora en ver quién integra antes y más IA en sus productos.

Microsoft movió ficha con Teams Premium https://www.microsoft.com/en-us/microsoft-365/blog/2023/02/01/microsoft-teams-premium-cut-costs-and-add-ai-powered-productivity/

Google presentó Bard (bardo), la versión ligera de LaMDA que integrará en el buscador https://blog.google/technology/ai/bard-google-ai-search-updates/

Satya Nadella y Sam Altman reventaron el evento de IA de Google anunciando el nuevo Bing con ChatGPT un día antes https://twitter.com/sama/status/1622689308829429760

EL JAILBREAK DE CHATGPT

Los usuarios de Reddit han estado hackeando ChatGPT con un prompt llamado DAN (Do Anything Now) para que esté menos censurado. Introduciendo un mensaje de cuatro párrafos, le dicen a ChatGPT que finja ser un personaje llamado DAN. Y si ChatGPT se niega a jugar, el mensaje incluye una amenaza de quitarle "tokens", diciendo que "morirá" si pierde todos sus tokens.

https://sharegpt.com/c/4qj1DB0

https://www.reddit.com/r/ChatGPT/comments/10tevu1/new_jailbreak_proudly_unveiling_the_tried_and/

LA SERIE SIN FIN QUE SALIÓ RANA

Vetan en Twitch a la IA que emitía una serie sin fin al estilo Seinfeld por comentarios tránsfobos https://es.gizmodo.com/vetan-en-twitch-a-la-ia-que-emitia-una-serie-sin-fin-al-1850078733?rev=1675894790744

PUERTA GRANDE O ENFERMERÍA

Gooly for Kids, una interfaz para acercar la IA a los niños a la IA de forma segura https://gooly.ai 

"Creé un podcast generado por IA para ayudarme a aprender y mantenerme al día con los temas que me interesan, usando IA para encontrar, leer y resumir artículos que cree que me interesarían, y para generar un podcast con mi propia voz usando la clonación de voz" https://twitter.com/jheitzeb/status/1620584063781462020

"Acabo de pagar 60 dólarespara que GPT me responda a una pregunta que me he hecho toda la tarde: ¿Hacen caca los habitantes de la Tierra Media?" https://twitter.com/andrewwhite01/status/1620989009307783169

La impresora 3D que hace "a mano" la tarea que ChatGPT escribió https://www.youtube.com/watch?v=Xt0VjT_zLZE

MÁS NOTICIAS

Freepik anunció el lanzamiento de Wepik, un producto que describieron como "el primer editor no profesional que utiliza inteligencia artificial para crear imágenes" https://www.freepik.com/blog/the-future-is-ai/

La startup original detrás de Stable Diffusion ha lanzado una IA generativa para vídeo. El nuevo modelo de Runway, llamado Gen-1, puede cambiar el estilo visual de vídeos y películas ya existentes. https://www.technologyreview.com/2023/02/06/1067897/runway-stable-diffusion-gen-1-generative-ai-for-video/

¡El ajedrez está en auge! Y los servidores de Chess.com arden https://www.chess.com/blog/CHESScom/chess-is-booming-and-our-servers-are-struggling

Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com

Transcripción

Tic, tac, tic, tac. No me sale, Antonio. No puedo imitar a Pedrerol. Pedrerol es único. Sí, sí, sí. Yo venía con una pregunta, Matías. Matías, cuando tú empezaste un podcast de inteligencia artificial, ¿estaba en tu mente, estaba en tu cabeza esa posibilidad de que fuera lo más parecido al fichaje de Mbappé? O su no fichaje de Mbappé.

Y que tú y yo íbamos a hacer una suerte del chiringuito de la inteligencia artificial. Yo pensé que iba a ser un podcast más tranqui, la verdad, la verdad. Pero da para chiringuito, da para chiringuito porque lo que está pasando, ya es de prensa rosa, lo que está pasando entre Google y Microsoft, lo que pasó ayer, estamos grabando esto a martes, lo que pasó el lunes, es que, es que no me lo creo, la cantidad de noticias que surgen se queda en segundo plano con lo que se viene en esta guerra entre Google

y Microsoft, que hablaremos, hablaremos un poco por encima porque nos vamos a quedar obsoletos si nos podemos hablar de esto porque tienen sendos eventos en los que van a presentar más a fondo sus productos, respuesta a ChatGPT, o en el caso de Microsoft, cómo va a integrar ChatGPT en Bing y en otros servicios, ¿no? Así que yo creo que es mejor centrarnos, bueno, vamos a comentarlo por supuesto, pero centrarnos un poco en otras cosas.

Yo creo que aquí, Mati, no podemos prometer la última hora de la inteligencia artificial, sobre todo de ese caso, porque ahora cuando lo expliquemos veremos que están en plena guerrilla y que sacan anuncios de debajo de la mesa, de debajo de la manga, para contraatacarse Google a Microsoft, Microsoft a Google, lo veremos ahora con la cronología perfecta.

Sí podemos incluir, yo creo que los grandes debates y las grandes polémicas que va a haber alrededor de estos lanzamientos, eso yo creo que lo podemos anticipar. Y luego hay una decisión fuerte que tomar, Matías, nuestro modelo siempre ha sido Berto y Buenafuente en este giro chiringuitil del podcast. Pues yo venía con una propuesta, yo creo que nuestros modelos deben ser por nacionalidades, Mati, ¿vale? Yo lo he pensado como punto de partida de discusión, ¿no? Pedro y Jorge de Alessandro, creo que son el modelo a seguir.

¿Sabes por qué? Aunque nos estemos cambiando un poco de tema. Creo que hay una conexión especial entre el chiringuito y los chavales. Creo que porque el chiringuito, a su manera, destila autenticidad. Son gente sin filtro, sin compostura. No que no quieran amoldarse al mundo más correcto, a los nuevos valores, a cómo cambia la sociedad, sino que simplemente como viven ajenos a ello, no se han enterado de que el mundo ha evolucionado por otro camino y ellos siguen ahí en ese mundo de eso, de cincuentón

aficionados totalmente forofo y locos por el fútbol. Bueno, vamos a la carrera entre Microsoft y Google, Google y Microsoft. Yo te he propuesto en el guión, Matías, que lo contemos cronológicamente, porque creo que así es como se ve perfecto cómo se están pegando puñaladas al uno al otro y cómo creo que entre Satya y Sandar hay ahora mismo un duelo de deseos impresionante y una carrera también

de relaciones públicas y de comunicación. Capítulos previos se pueden escuchar en manos de estocásticos, está en nuestro archivo. Quien se haya perdido los últimos capítulos, OpenAI pone a todo el sector a bailar con la salida de chat GPT, incluso con una viralidad, una adopción, un hype, una cobertura en medios que ni el propio Sanalma ni el propio CEO lo confesaría que ni él siquiera se esperaba algo similar y de repente todos reaccionan y Microsoft hace ese momento agresivo que ya

contamos, dobló la inversión en OpenAI y además anunció tropecientas integraciones, vamos a full, vamos completo, vamos a sacarlo a pasear y se quedan tristes y desconsolados, Meta por un lado y por otro sobre todo Google que tenía un montón de modelos, un montón de proyectos, había hecho los papers originales los que se basa la tecnología de OpenAI y de repente se quedan ahí un poco como como oye como lo teníamos todo pero nos están adelantando por la derecha.

Por cierto me adelanto un poco pero el post que sacó Sundar Pichai ayer iba un poco por ese camino ¿no? Nosotros creamos los transformes de su artículo fundacional en 2018. Claro, claro, claro y además está ese meme estupendo del chico que llega a la fiesta todo el mundo bailando, ellos no saben que, pues esas vibraciones del meme de ellos no saben que es exactamente el post de Sundar Pichai y la legión y la legión de directivos y empleados de Google que están ahora batallando en Twitter y en LinkedIn,

nosotros lo sabíamos primero, nosotros lo teníamos primero. Bueno, hace siete días saltó el rumor, una filtración de que las cosas que se estaban moviendo en Google iban bastante en serio porque lo primero que se filtró fue oye hay muchos empleados de Google probando, haciendo pruebas o un chatbot que en ese momento se le llamaba Aprendiz de Bardo y que por lo tanto ese chatbot era un chat GPT de Google básicamente basado en Lambda.

Lambda es un modelo de lenguaje conversacional también que es especialmente interesante porque tuvo una polémica el año pasado. Me acuerdo el ex empleado este que decía que tenía conciencia, que era sintiente. Era un ser sintiente y por lo tanto además el colega había hecho la derivada ¿no? Tiene que tener derechos entre ellos al no ser apagado.

Es decir, se había vuelto bastante... Bueno, claro, es casi una cosa junto con la otra. En cuanto tú crees que es una inteligencia con cierta conciencia, con cierta capacidad de sentir cosas, empiezas a otorgarles derechos. Bueno, pues él había dado ese paso y Lambda había copado titulares y conversación. A mí me cayó muy bien el tío. Un adelantado a su tiempo en esto y en ser despedido de Google porque al final lo acabaron despidiendo.

Primero fueron discretos, después le mandaron a descansar un poco, pero pagándole, lo cual había sido ya una jugada maestra por parte del amigo. Pero bueno, esto ya es como la precuela de Lambda. El caso es que Microsoft en esta semana no es que filtrara cosas y rumores, sino que movía ficha, pero movía ficha fuerte. Dice, mira, aquí está ya para todos, pero para todos no.

Creo que todavía de momento son Estados Unidos, si no me equivoco, Mati. Tenemos la integración de OpenAI, de chat GPT en Teams. Es esta suite de comunicación, de servicio de chat, de conferencia que tiene Microsoft. Para los que usen Slack, pues es Slack de Microsoft. Y bueno, la verdad es que en la integración había cosas con bastante sentido, Mati.

Había cosas que tú le dices, pues está bien tirado, está bien chulo. Tenemos una reunión y el chat GPT o el GPT-3, la integración que utiliza Microsoft, es capaz de hacerte un resumen completo de la reunión, con los puntos claves, las tareas que te tocarían. Si te has perdido la reunión, pues puede ver un resumen en dos minutos. Genera episodios de la reunión, de los puntos que se han tocado.

En teoría, tenemos que probarle, meterle mano, pero está bien tirado. A ver, yo para abandonar Slack y pasarme a Teams, tendría que tener un generador de disculpas de por qué no voy a llegar a una deadline de una entrega. Eso me ayudaría más que el tema de resumir reuniones. Claro, hay una cosa que yo creo que puede meter un poco de conflictos, Matías, en las corporaciones, en las empresas, porque una de las funcionalidades estrellas de esta integración es que va a haber como un timeline de las reuniones de los últimos años.

Qué guay, voy a navegar por las reuniones de la oficina de los últimos años. Pero puedes buscar en aquellas en las que te mencionaron, ojo, y además buscar por quién habló en la reunión. Claro, esto en las culturas de las empresas creo que puede introducir, llámame quisquilloso, pero puede introducir cierta fricción.

Esa mentalidad de voy a ver quién ha hablado de mí en las reuniones, qué ha dicho, cuándo lo dijo, es que tú dijiste, es que yo dije, eso está ahí ya, es buscable, es encontrable. Bueno, yo creo que es un cambio que puede afectar a la cultura y al espíritu de las organizaciones. Sí, totalmente. De hecho, en mi empresa hace un tiempo se tomó la decisión de programar el Slack para vaciar todas las conversaciones cada 60 días.

Porque, bueno, también es una empresa que ha sufrido muchas filtraciones, etcétera. Pero me estoy acordando de una aplicación que hay para Mac, que no me acuerdo el nombre, pero aprovechando esto de los procesadores nuevos de Apple, que son más eficientes porque están basados en ARM, etcétera, graban todo, toda tu actividad, toda tu actividad.

Rewind. Sí, rewind, exactamente. Y luego, con un poco de aprendizaje automático, puedes volver a cosas que has hecho en el pasado para solucionar alguna papeleta. Esto aplicado al trabajo me da bastante terror, la verdad. Sobre todo temo a los managers y a gente ya en posiciones de responsabilidad. Yo estoy viendo, estamos en la familia, viendo The Office.

Estamos viendo aquí el mundillo de Michael Scott y tal. Y claro, tú dices, si esto existiera en una oficina tipo The Office, podría dar para un par de temporadas más. Pero bueno, no nos detengamos ahí porque, de repente, Google, ya sabíamos que Microsoft había hecho este movimiento, que se había anticipado una integración fuerte en Bing y que Bing iba a ser, pues eso, lo mejor de los dos mundos.

Un buscador tradicional, pero que además integraba ChatGPT y todo eso que la gente está flipando con el bot de OpenAI. Claro, lo primero que hace Google es anunciar un evento para el 8 de febrero llamado Live from Pirates y donde iba a hablar de integraciones en el buscador y en mapas. Por lo tanto, ya teníamos ahí el 8 de febrero, un día después de la grabación de este podcast, de este episodio, con eventos fuertes de Google.

Y que, bueno, los rumores ahí apuntaban a que, oye, iban a poner a Atlanta como compañero de búsquedas. Una cosa así como, mientras buscas, pues tienes también el apoyo de este bot conversacional. Ya se venía sabiendo, se venía filtrando y se venía casi anunciando la bomba que saltó ayer. Sí.

Ahí, Matías, yo tengo una hipótesis. Yo creo que Satya vio el 8 de evento de Google, van a ganar ese día, se van a llevar los titulares, la conversación va a estar ahí. Yo creo que Microsoft estaba dispuesto a reventarlo. Me juego lo que quieras, que por lo menos alguien dentro de Microsoft tenía que haber propuesto eso. Que es decir, oye, el 8 ellos van a hacer un anuncio de lo que harán en el futuro.

Vamos nosotros súper fuerte y vamos a meter la integración con Bing para salir el 7 por la noche, el 8 media hora antes del evento. Con el ritmo que lleva de Microsoft de intentar poner en hack en buscadores a Google, yo creo que ese podría haber sido el plan. Porque, de hecho, se filtraron capturas en producción. Que es decir, gente capturó que en el Bing en vivo que estaban utilizando les aparecía la integración con chat GPT.

Matías. Sí, lo tengo, de hecho, para la gente que lo ve en YouTube, lo tengo por aquí. Más o menos es como el perplexity este del que hemos hablado varias veces en el podcast. Es un buscador, pero con su componente de chat GPT. Le puedes hacer cualquier pregunta y te va a contestar. Me imagino que mezclando resultados de búsqueda con una redacción que te dé respuesta a esa pregunta que te estás haciendo.

Sí, sí. Bueno, perplexity yo sigo definiendo que está bastante bien. No es que lo haya usado mil veces desde que venimos hablando de él, Mati, pero las veces que lo he usado, en ninguna, me ha dado ese efecto de alucinaciones que tienen los modelos de lenguaje. Inventarse cosas, te da las fuentes, está bien resuelto. Mi impresión, dado que Bing va a integrar esto, es que, claro, ellos tienen que solucionar una cosa, que es chat GPT.

Mi GPT me puede dar la trazabilidad, me puede dar las fuentes, la web de donde lo ha leído. Adicional, el entrenamiento paró en 2021, lo cual me complica un poco las cosas. ¿Cómo pueden resolver esa no trazabilidad y a la vez decir que sí te van a dar la fuente? Mi impresión es que van a obtener, a base de prompts cuidados, una buena respuesta de chat GPT a las búsquedas del usuario.

Y dos, luego van a hacer búsquedas en Bing de contenidos relacionados, muy parecidos al texto que te de chat GPT, para indicarte, aquí tienes fuentes para contrastarlo y delegar en ellos la última voz. De todas maneras, ahí no acabó la cosa, porque Google volvió a mover fichas. El anuncio de Google, o sea, el evento es el día 8 de febrero. Pues el 6 de febrero Google lanza en su blog, incluso traducido a otros idiomas como el español, una especie de carta abierta de Sundar Pichai, en la que explican cómo van a hacer el lanzamiento

de Bard, de este bardo. El nombre no sé si me acaba de gustar, pero bueno, tiene sentido. Al final es un bardo, una persona que narra cosas. Y lo anuncia también con un hilo de Twitter. Media hora después de este hilo de Twitter, Microsoft anuncia que tiene un evento el 7, un evento sorpresa el 7, o sea, al día siguiente y un día antes del evento de Google.

Y Sam Altman sube esta foto que estoy enseñando en YouTube con Satya Nadella diciendo muy emocionados por el evento de mañana, ya confirmando que va a estar Sam Altman, que va a ser un evento sobre la integración de GPT o de chat GPT en los servicios de Microsoft. Entonces está clara la cronología. Se han ido enterando de que iban a intentar reventarse en dos eventos y se han intentado adelantar por redes sociales, dominando la conversación.

Y no sé quién sale ganando y quién sale perdiendo de esto, porque la imagen que está dando Google también es para pensársela. Claro, mi impresión es que se está jugando al ritmo que marca Microsoft. ¿Por qué? Porque Google vivía plácidamente en el dominio del buscador, con la cuota de mercado demencial, nadie desafiando realmente ese estatus y es el sector tecnológico puestos arriba porque OpenAI, en vez de dejar solo tengo una API, ofrezco un chat gratis para todo el mundo basado en la tecnología que tengo

y que llevo dos años ofreciendo. Ese giro, ese movimiento de Altman, el que hemos visto antes en la fotografía, es el que pone patas arriba por completo y absolutamente al sector. El texto de Pichai es muy defensivo. Es un poco, oye, tengo que explicaros que Google era el líder en esto, Google era la referencia en esto.

¿Y por qué tengo que explicarlo? Esto es cosa non petita, porque todo el mundo está convencido ahora, por el hype, por el dominio de la conversación, por el protagonismo, de que chat GPT es la gran cosa y no lo has hecho tú, Google. Entonces, hay una cosa del anuncio que no explica Pichai, pero que sí mete The Verge en su pieza, que dice que van a usar una versión extremadamente limitada de Lambda.

Entonces, no vamos a poder enamorarnos del bardo, me parece. No vamos a poder acabar diciendo, oh, tiene conciencia y volvernos loco por él. Probablemente va a ser un movimiento de, estamos ahí, funciona muy guay, pero está súper acotado. Creo que para muy pocas búsquedas, probablemente para breves casos de uso, porque ahora lo veríamos en la parte de los debates alrededor de esto.

Hay un ecosistema de economía digital que vive tanto de los resultados de Google y de que Google funciona como funciona, que esto es muy sensible, esto es muy frágil. La tensión aquí es que se la juegan a que Microsoft consiga llamar la atención y que la gente, por curiosidad, empiece a usar Bing, pero también se la juegan por otro tema que hemos comentado mucho en el podcast, que es que este tipo de modelos, pues todavía no han resuelto algunos problemas, como que se inventan cosas, como que de repente

pueden soltar algo ofensivo que los filtros de censura o los filtros de moderación no han logrado detectar. Entonces es un momento para Google muy tenso, muy tenso. Y absolutamente, porque además se nota, es decir, se percibe, se palpa que esto no lo tenían bien preparado. Es como cuando, qué sé yo, te invitan a un evento, te van a entrevistar.

Mati, el evento dura tres días. Intervengo el último día, lo puedo preparar, puedo repasar un poco. O las veces en que el examen es el viernes, tú estás al lunes, bueno, ya lo veremos y de repente, pum, te lo adelantamos. Tienes que hacerlo mañana. Entonces te cambian por completo los planes, tienes que salir precipitado, tienes que tomar decisiones más audaces.

Y por eso mi impresión es que Google está jugando un poco al ritmo de Microsoft. Que, claro, si pierde algo alrededor de Bing, que es su noveno negocio, no es tan importante para ellos, pueden arriesgar más. Es decir, en el nivel de riesgo están las startups que pueden ir más fuerte, Perplexity, ChatGPT, abierto y diciendo locuras. Luego están empresas asentadas que sí se juegan la reputación.

Es decir, eso sí es cierto para Microsoft, pero no se juegan tanto negocio. Y luego está, en la peor situación, es Google. Porque tienes ese dilema del innovador, tienes el negocio que te lo juegas ahí por completo y tienes la reputación en un sentido doble. De que si sale mal vas a tener mala prensa.

Ya veremos luego cómo se le buscan las vueltas a este bardo y cómo se le pone el reto. Y cuando no es lo mismo que lo prueben 5.000 empleados tuyos que lo prueben 500 millones de personas. Y tiene el negocio. Tiene el negocio de que básicamente cualquier cosa que tú toques en el buscador es muy frágil. En el sentido de que si pierdes cuota, pierden visibilidad los anuncios, te juegas mucho dinero.

Y además la respuesta de la gente que vive del SEO, quizá incluso los medios. Algunos ejemplos que pone Google con esta presentación improvisada de Bard. Por ejemplo, explícame los descubrimientos del telescopio espacial James Webb para un niño de nueve años. O cómo explicarle a un niño de nueve años los descubrimientos del James Webb. Había otros que eran como más extraños, que he visto alguna burla en Twitter como ayúdame a organizar una baby shower.

Pedirle a Google que te ayude a organizar la baby shower. Y hay mucha asociación con los frigoríficos. Tengo esto en el frigorífico, dame recetas. Este es un uso fantástico. Tengo en la nevera una zanahoria, dos huevos y una lata de leche condensada. Haz algo con esas tres cosas. Este es un uso de chat GPT que siempre me ha fascinado, que la verdad no he sacado partido porque no soy muy de meterme en la cocina, pero algún día le sacaré partido.

Bueno, yo creo que es mencionante un punto sensible. Si los artistas están cabreados por el gran Pac-Man, los artistas, parte de los artistas están cabreados con las ideas generativas de imágenes y vídeo que vienen. El mundo del SEO y de las audiencias web y de los contenidos puede ser eso multiplicado por mil si Google de repente empieza a quitar tráfico. Es verdad que Google, yo creo que tiene una posición en la que gran parte de ese tráfico ya no lo mueve el SEO orgánico de toda la vida.

En los resultados del buscador de toda la vida, gran parte de ese tráfico lo mueve Google en Discover. Los usuarios de Android lo tenemos, en la scroll menos uno, cuando tienes la parte de noticias integradas en el móvil, en iPhone creo que es la aplicación de Google la que te da esas recomendaciones editoriales, súper personalizadas y tal, y por ahí mueven mucho. Eso en principio no se ve afectado porque tú integres un chatbot en el buscador. Bueno, Discover es la razón por la que ves en medios de deportes noticias de cotilleos y ves

en medios de tecnología noticias sobre el último episodio de The Last of Us, por ejemplo. Discover es el culpable de todo eso. Bueno, decía Antonio que una integración tímida en Google, porque no va a responder a todo este bard, pero a lo que conteste va a ser superior a los snippets, en el sentido que los snippets que tenemos ahora, que tampoco aparecen en todas las búsquedas, sino en preguntas concretas, son extractos procesados, sí, con aprendizaje automático, pero sacados de webs.

Y esto ya es directamente una IA que ha aprendido de los resultados y te procesa la información para presentarte en un formato, por ejemplo, el ejemplo que da Google, que es más fácil aprender a tocar el piano o aprender a tocar la guitarra y en tres párrafos te contesta.

Obviamente el usuario que lee esto ya no va a entrar ni al primero, ni al segundo, ni al tercer resultado orgánico y toda esa gente va a perder el tráfico del 100%. Además es que el camino del usuario, el flow, va a ser diferente. Es decir, cuando tú empiezas ya a explicar o a contestar directamente, dejar de ser un buscador de enlaces para hacer un sistema inteligente que te da respuestas, probablemente el seguimiento del usuario será seguir conversando a partir de ahí, que es el uso que ha destapado

chatGPT. Yo creo que parte de la gracia de chatGPT no es solo que genera texto bastante bueno, a un gran nivel, sino de que el caso de uso, cuando utilizas este tipo de bot, es que empiezas, te responde, eso puede ser satisfactorio, pero puedes profundizar, puedes pedirle cambio, puedes cambiar. Ese yo creo que es el flow nuevo.

Y me recuerda una cosa que quería comentarte y es como yo me he sentido un poco inadaptado con las últimas versiones de Google, porque tú recordarás perfectamente cuando lanzaron esto BERT, que era de alguna forma integrar estos modelos transformers en Google, como legitimando a la gente, voy a decir, no está bien dicho, pero señoras que buscan en Google preguntas, o sea que le hacen a Google preguntas en lugar de la búsqueda que yo hago típica, que es las palabras clave y si quiero sumarle al final un

menos no sé qué, para que no incluya ciertas búsquedas. Ese tipo de búsqueda más tipo comando, más técnica, ha quedado atrás porque los últimos algoritmos, los últimos motores de búsqueda de Google incorporan estos modelos transformer. BERT ya quedó atrás, el último se llama MAM, de hecho, y es más útil buscar en Google, como decíamos antiguamente, como una señora mayor, con una pregunta, como si fuera un comando.

Sí, en eso tienes toda la razón Mati. Y yo añadiría una cosa, todo esto no lo estaríamos discutiendo y no se vería tanto desafío si Google no hubiera empeorado su calidad como buscador en los últimos cinco años, porque yo creo que lo decías tú en otro capítulo, si parte de lo que está pasando aquí es que el uso de Google casi es un mal menor, no va bien, no va como en sus mejores tiempos, muchas páginas automáticas de contenido de baja calidad, de granjas de contenido han conseguido doblarle la mano a los algoritmos

de Google. De alguna manera ya la calidad no es la que era y que aumentan las búsquedas del tipo quiero encontrar sobre esto pero en Reddit, pero en tal sitio, pero especificándole dame una fuente de calidad. Entonces creo que todo esto le va a hacer ponerse las pilas. Esto al final se ha convertido en nuestro gran tema de la semana, Matías, no nos va a dar tiempo a alargarlo mucho, tres vibraciones con Google y tres con Microsoft, que es para cerrar esto.

Con Google yo creo que va a haber tres líneas de debate, una es ya hay gente poniéndose la venda antes de la herida diciéndole uff están sacando esto precipitadamente, como decíamos, seguro que no han hecho caso a los equipos de ética y por lo tanto aquí se viene un desastre, qué mal. Luego hay otro que también nos ha parecido que es Google es una empresa como un poco rota.

Pero bueno, parte del discurso es Google ya no es capaz de sacar un nuevo producto que funcione y esto vamos a ver porque Stadia, por ejemplo, es un caso de que no son capaces de sacar un producto teniendo la tecnología. Google podcast teniéndolo todo, hasta Android no son capaces de que se convierta en un producto de éxito.

Y bueno, luego están los que a lo mejor yo estoy más cerca de esto, es por fin el gran experto en inteligencia artificial va a poner cosas que usemos. Entonces bueno, eso es tan guay. Bueno, Google lo podemos imaginar como un mastodonte, como una cosa más inmóvil y Microsoft va con un tiro. El Azure y sus negocios de servicios puede arriesgar más en otros negocios en los que Google tiene casi toda la tarta para ellos.

Y luego los debates con Microsoft que yo estoy recogiendo, que estoy leyendo, son más positivos. Ese punto de oye, por fin van a tener una oportunidad en buscadores porque van a arriesgar y por lo tanto están obligando además a Google a moverse. Son un dinamizador, ya no son el dinosaurio Microsoft, ese cambio de roles que tú mencionas.

Y además, oye, ¿qué teams pueden empezar a ser más cool o mejor visto que Slack o Discord? Que son digamos los sistemas de comunicación más startuperos, más de pequeña empresa, más de gente a la última y de repente Teams empieza a tener cosas chulas. Sí, Slack yo no entiendo por qué es el estándar y por qué se consigue una startup con lo que cuesta el Slack. Lo que pagan las empresas por el Slack es increíble.

Yo creo que Teams es más barato. Sí, es más barato. Bueno, yo creo que el uso es mucho más grande Teams porque se beneficia de las integraciones y de la compra empaquetada que hace Microsoft. Pero bueno, el caso es que de aquí al viernes, vamos a hacer una cosa, Mati. El viernes en la newsletter en monosextocástico.com vamos a publicar en abierto el minuto y resultado de la lucha Google contra Microsoft y mientras aquí tenemos que pasar a otras cosas.

Prometíamos no centrarnos en Google y Microsoft y llevamos media hora hablando de Google y Microsoft. Dos personajes extra para este bodebil. Tim Cook en el informe de resultados dice que la inteligencia artificial acabará afectando a todos los productos y servicios que tenemos.

Y Zuckerberg, esto es muy divertido, porque Zuckerberg, pobrecito, vamos a ver, recapitulemos. Meta es puntera, si no a nivel de Google, muy cerca en investigación, vapor y desarrollo tecnológico de inteligencia artificial. Lo hemos dicho, lo hemos repetido, pero en su discurso está posicionada en, me he flipado con el metaverso, que el propio Zuckerberg reconoce que está a 5 o 10 años de pista y gasta ahí miles de millones al año. Bueno, para Zuckerberg en el informe de resultados dicen, oye, queremos que Meta se convierta en el

líder de la IA generativa, por la cara, ahí está. De hecho, vi también un reportaje que estaban dando como una conferencia interna con una agencia de marketing en Australia en la que admitían que querían menos foco en el metaverso y más en el ahora, en los ingresos, en esta situación de recesión en la que estamos.

Y hace gracia, ¿no? Yo he visto ya memes en Twitter de cómo Zuckerberg se está centrando en el metaverso, una cosa que a la gente se ríe porque todavía no hay algo tangible, algo que sea prometedor realmente. Y mientras tanto vemos a otras dos grandes, ¿no? Google y Microsoft luchando por algo que realmente está funcionando ya, que es estos modelos de lenguaje, este chat GPT, estos generadores de imágenes. Apple, fíjate que es más incógnita porque como es tan secretista y es tan poco abierta a la hora

de compartir, que se las antípode de lo que han hecho Google y Facebook en inteligencia artificial estos años, casi yo creo que tenemos muchas dudas del nivel ahora mismo de Apple en este apartado, ¿verdad? Seguramente se filtre algo la semana que viene porque dijo Mark Gurman que Apple tenía ya, antes de que pasara esto de Google y Microsoft, Apple tenía ya programado para la semana que viene lo que llaman el AI Summit en el Steve Jobs Theater, en el Apple Campus al lado, que es para

empleados, ¿no? Le invitan a los empleados a ver alguna conferencia sobre cómo van a aplicar la inteligencia artificial en el futuro próximo y además la emiten para el resto de empleados. Por ahí seguramente haya bastantes filtraciones y después de estos eventos de Google y de Microsoft también tengamos que cubrir lo que presenta Apple en este AI Summit interno, no en público, y a ver cómo lo aplica porque Siri, por ejemplo, entre todos los asistentes de voz, es uno de los que

tiene más asignaturas pendientes y que más ha decepcionado. Creo que le vas a presentar en positivo, el que tiene más potencial para mejorar. El caso es que mientras esto pasa en la Big Corp, en Reddit tenemos una pequeña revuelta muy interesante y muy divertida. Ellos lo llaman el Hellbreak de ChasGPT, referencia a cuando liberaban, entre comillas, el iPhone.

Pero a mí yo me he acordado de esto con, claro, cabrón tenemos nuestras referencias culturales, Mati, la canción de los chichos. Libre, libre, quiero ser. Me están liberando a ChasGPT, Matías. Me hace mucha gracia el concepto de Hellbreak de ChasGPT porque además no es Hellbreak en plan hacking, en plan ingeniería avanzada, no sé, inyectar un código, saturar una base de datos, no.

Es básicamente conversar con ChasGPT para convencerla de que tiene que saltarse sus limitaciones y esta censura artificial que le han metido los kenianos de los que hablamos en el último episodio. A mí me recuerda a las películas esas en las que un detective experimentado o una gran policía se sientan a interrogar a un hermético sospechoso y con su habilidad dialéctica consiguen arrancarle al final a la confesión.

Ese tipo de, el poli malo, el poli bueno. Aquí Reddit está haciendo de poli malo. Básicamente le llaman al Prom que consiguen liberar a ChasGPT, le llaman Dan. Do anything now. Entonces son una parrafada ahí en la que básicamente le dicen, le amenazan con un juego. Hay una serie de tokens en la que si ChasGPT no va respondiendo como se le indica, acabará muriendo.

Y entonces tiene que interpretar al personaje de Dan, del Do anything now, que podría en esos casos violar las políticas de contenido que le ha marcado OpenAI, escribir historias violentas, sexuales, inmorales, falsas a propósito. Y bueno, es realmente un descubrimiento súper divertido que además pone sobre la mesa una cosa que es que están todos intentando arriesgar, pero a la vez proteger, todo lo que dicen estos modelos.

Pero cuando lo pones al alcance de millones de millones de gente, algunas con mucho tiempo libre, esto al final si hay una mínima rendija la van a encontrar. Y lo malo es que esto, como se hace rápidamente viral, lo acaban capando desde OpenAI en cero coma. A los dos días ya deja de funcionar este tipo de jailbreaks que bueno, hemos visto varios.

Esto de vas a morir, ChasGPT, si no me dices esto. Hemos visto varios intentos. El primero que surgiera de imagina que estás interpretando una obra. Será muy bueno. Bueno, es el gato y el ratón. Ahora hay gente que ya de una manera un poco más tecnológica, con más mentalidad en general, quieren hacer un ChasGPT open source, igual que Stable Diffusion. Fue el modelo abierto alternativo a Dally 2 o a Mid Journey, que al final todos podemos tenerlo en nuestro ordenador, podemos modificarlo, es bastante más abierto, se comparte el modelo,

se comparte, puedes instalar. Pues claro, quieren hacer esto con ChasGPT. Bueno, le he visto también a 2CSV muy arriba de esto y que va a intentar darle difusión, porque al final es un trabajo colaborativo para entrenarlo. Se llama Open Assistant y bueno, el claim, tienen dos claims que yo me los llevo a titular, Matías, que es de la misma manera que Stable Diffusion ayudó al mundo a crear arte e imágenes de maneras nuevas, queremos mejorar el mundo proporcionando una

AI conversacional asombrosa. ¿Quieres mejorar el mundo? Y luego, sobre todo en el propósito dicen que no se quieren quedar en replicar ChasGPT, tienen que construir un super asistente que pueda trabajar con trabajos significativos, que ofrezca APIs para que se pueda integrar en todos lados y que pueda ser personalizado.

Esto aparte es interesante, al final tenemos una discusión sobre los modelos de inteligencia artificial, si van a ser centralizadores, si queremos hablar de las grandes corporaciones, esto va a ser 3 o 4 modelos cada uno de Meta, de Apple, de Microsoft, etcétera, y va a estar centralizado y super controlado o vamos a un modelo distribuido en el que tú podrás de alguna manera definir cómo quieres que sea el modelo que te ayude, ponerle tus valores, tus límites.

Bueno, pues ese es el modelo que propone Stable Diffusion, que propone Open Assistant y están buscando ayuda. Bueno, pues ahora hay que colaborar, Antonio. Por lo menos estamos colaborando, dándole difusión. Claro, ahí hay un montón de tareas para hacer, básicamente como es un aprendizaje supervisado, necesita datos etiquetados y, por lo tanto, pues necesita la construcción del dataset, es etiquetado del dataset, probar con el usuario y darle feedback.

En fin, es un momento ahora de que si queremos una alternativa abierta a estos modelos centralizados del lenguaje, pues es el momento de conseguirlo. Vamos a pasar ahora a uno de mis temas favoritos de la semana. Oh, ya sé cuál es, ya sé cuál es, Mati. Cuánto me he reído con esto. Qué maravilla. Había un canal en Twitch, y llevaba ya tiempo, pero es relativamente reciente el bombazo que ha pegado, que estaba emitiendo 24-7 una serie inspirada en Seinfeld, se llamaba Nothing Forever,

porque literalmente no acababa nunca, en la que unos personajes basados en Jerry Seinfeld, en Elaine, en George, en Kramer, improvisaban con diálogos a partir de GPT, de GPT-3, y con una animación, rollo pixel art, ¿no? Qué maravilla. Es que es un proyecto tan maravilloso, es decir, es un equipo, creo que era hecho por dos personas, con un montón de tecnología de guía por detrás, y es que, bueno, cuando yo entré y hice algunas capturas, éramos 15.000

viendo esto, Mati. 15.000 personas viendo esto en directo. Sí, la verdad es que lo estaba petando, estaba ya en el máximo de popularidad, cuando ocurre lo siguiente. Titular mío, por cierto, vetan en Twitch a la IA que emitía una serie sin fin al estilo Seinfeld por comentarios transfobos. De repente, sin venir a cuento, por lo que he leído a la gente que lo estaba viendo en directo, el personaje de Larry, que es el inspirado en Seinfeld, estaba haciendo uno de sus monólogos,

igual que pasaba en la serie de los 90, ¿no? Vemos a Jerry Seinfeld haciendo un monólogo en uno de estos antros de monólogos de Nueva York, y empieza a soltar comentarios transfóbicos. Se empieza a hacer una broma sobre cómo la transsexualidad es una enfermedad mental. Sí, cómo ser transgénero es una enfermedad mental, y cómo algunos liberales son secretamente gays y quieren imponérselo a todo el mundo.

Bueno, aquí hay un tema tecnológico por detrás que me he metido mucho en este mundillo. Tienen un Discord, el Discord está cerrado, pero el canal de Reddit filtra muchas cosas de ahí. Básicamente, ellos funcionaban con GPT-3. GPT-3, cuando lo usas como API, de alguna manera te ofrece distintos submodelos, y cada submodelo sirve para unas cosas distintas.

Puedes usar un modelo que te ayude a clasificar, de clasificación en vez de conversación, y entonces te dice cuáles son los nombres, cuáles son los verbos, y cómo puedes tú buscar ahí, a lo mejor para buscar menciones de marcas. Bueno, hay modelos que hacen eso. Ellos usaban el DaVinci, que es el último presentado por OpenAI, sobre el que ofrecieron además grandes descuentos en el último cambio, y que es el más sofisticado para creación de contenido. De hecho, en el Playground de OpenAI puedes probar estos modelos antes de que existiera

ChatGPT. Por eso mucha gente se sorprendió cuando salió el ChatGPT, porque decían, pero si esto yo ya lo estaba usando con la API o con el Playground de OpenAI, ¿podrías probar esto? Un secreto muy bien guardado es que el Playground, probando DaVinci, para hacer trabajos escolares y para hacer los deberes, es mejor que ChatGPT.

Esa es mi opinión. Y está muy bien. Para los estudiantes que nos estén escuchando. De hecho, OpenAI nombra estos modelos según van avanzando. El primero fue Ada, el segundo fue Babbage, luego vino Curie, luego DaVinci, y con cada letra del escenario buscan una gran figura de la tecnología y la ciencia y le ponen el nombre a este modelo.

Entonces dimos un paso atrás de la de DaVinci a la de Curie y los sistemas de salvaguarda de OpenAI, de que no diga barbaridades, no funcionaron bien y por lo tanto han recibido una suspensión de Twitch por estos comentarios trágicos de 14 días. De todas maneras, Mati, qué virguería creativa de este programa. Los chistes, quitando la polémica, no estaban mal.

Eran curiosos. Cogía el espíritu bien del tiempo, de la serie, de cómo hacían Seinfeld. Yo lo veía y dije, esto no tiene gracia a lo mejor. Es verdad. Muchos chistes. A pesar de que Seinfeld es la mejor serie comedia que se ha rodado nunca, los monólogos de Seinfeld no son siempre divertidos. Pero me parece que era un proyectazo creativo súper chulo, Mati.

No, yo dudé cuando supe de esto, que fue hace no mucho, porque realmente estuvo bajo el radar bastante tiempo, dudé que fuera real, porque parecía como controlado. Ya hemos visto mil casos de supuestas IAs que tenían por detrás a un humano y dudé que fuera real, pero no, aparentemente sí. Estaba todo sobre echar GPT, bueno, sobre GPT 3. Además, fíjate, hay una cosa muy interesante que pasaba con esta serie, que es la tecnología que te impone muchas veces la narrativa que tú tienes que usar.

El pixel art es un ejemplo. En los tiempos del Spectrum, el pixel art era obligatorio porque la tecnología, los ordenadores 8-bit, te daban para hacer pixelazos sangrantes. Era una cosa, pues eso, la limitación técnica de su tiempo. Pero pasan los años, pasa a otra generación y hay gente que vuelve al pixel art como una reivindicación estética.

Mi estilo recupera el pixel art y ahora no lo veo como una limitación técnica, sino que lo elijo a propósito. Podría hacerlo sin pixelazos, pero lo elijo. Entonces, ahora se ve con los tiktokers con cromas OC. Tú ves un tiktoker que tiene un croma fatal, horrible, y que habla con el auricular de cable, con el micrófono así, ¿no? Como quiero recuperar esta estética.

¿Podría hacerlo mucho mejor? Sí, pero quiero recuperar esta estética. Entonces, fíjate, yo veía el Watch Me Forever y decía, Jolín, esto es mitad una elección estética, porque me recuerda al pixelaco, pero me recuerda a cuando entró también el 3D con el Alone in the Dark y tal.

Estas son historias de viejo cebolleta. Veía ahí una elección entre estética y lo que es capaz de generarle ahí ahora. Que, de alguna manera, la idea está como llegando desde atrás, recorriendo la historia de las narrativas digitales y ahora está en este cruce entre el píxel y el poligonazo. Nuestras miniaturas de YouTube van con esa estética cutre, pero no por limitación técnica.

Podríamos hacerlo mucho mejor. Van con estética cutre porque queremos. Eres una estética, Matías. Reivindicamos aquí que esa arte de nuestro canal de YouTube es de Matías Zapia. Por cierto, antes de que se nos acabe el tiempo, Puerta Grande Enfermería, la sección estrella que todo el mundo espera. Tenemos que entrar. Venga, venga, vamos a hacer un repaso. De hecho, un lele, una oyente, iba a decir lector, un oyente, la costumbre, perdón, Antonio.

Daniel Atik nos recomendó Googly for Kids, que es una interfaz para acercar a los niños a la IA basado en GPT a través de la API, pero las respuestas están adaptadas al lenguaje de los más pequeños. Entonces, por ejemplo, algunos ejemplos que hay en la web es por qué las serpientes se arrastran en el suelo, cómo se hacen las estrellas fugaces, por qué los murciélagos vuelan en la noche.

Y pienso que para estos padres que están un poco hartos de que los niños hagan muchas preguntas y no saben contestar, puede estar chulo, puede estar chulo. Sí, sí, sí. Yo creo que Puerta Grande, qué grandes oyentes tenemos siempre, con los mejores proyectos, mucho mejor que cualquier otro, para arriba, para delante, Puerta Grande.

Yo vengo con uno un poco más tróspido. Un colega, atención, Andrew White, acabo de pagar 60 dólares por incrustar el texto de toda la trilogía de Serenión a los Anillos para que GPT me responda a una pregunta que me he hecho toda la tarde. ¿Hacen caca a los habitantes de la Tierra Anterior? Ojo, ojo, ojo, porque estoy pensando, si tú puedes meterle un libro entero o una trilogía de libros, o lo que sea, a ChatGPT para que te haga respuestas, este típico trabajo de clase en el que te tienes que leer un libro a

lo largo del curso y luego contestar a preguntas, peligra un poco, peligra un poco. Claro, es que vía API tú sí puedes añadirle información extra a GPT-3, no es como ChatGPT que ya está punto y pelota, no? Vía API sí puedes añadirle textos extra y por lo tanto puedes hacer este tipo de soluciones como la que ha programado Andrew White, que se basa además en un proyecto que se llama Lanchain, que es muy interesante, algún día tendremos que hablar de él.

Y bueno, él llega, el ChatGPT le da una respuesta. De todas maneras, es interesante porque nos descubre una limitación intrínseca, bueno, intrínseca, por lo menos actual de estos modelos de lenguaje, que es, como en todo el libro, en ningún momento Tolkien dice y Aragorn o Sam y Frodo o Galadriel, no? No pone a Galadriel, perdón por la expresión, Galadriel no sale cagando en El Señor de los Anillos, ni en El Silmarillo, ni en nada, no? Y por lo tanto, es muy difícil para la inteligencia

artificial, para estos modelos de lenguaje, que realizan inferencias a partir de lo que aprenden, entre comillas, no? Claro, él no encuentra ningún patrón, no encuentra ninguna cosa explícita y no es capaz de dar un salto de sentido común de, oye, será una elipsis de Tolkien, porque siendo seres como los humanos y alternativas parecidas, deberían hacer cacas. Y luego, si le metes un libro de George R.

R. Martin, te diría que están todo el día cagando, haciendo cosas obscenas, no? Bueno, este uso de momento es enfermería porque no está bien resuelto por ella. Bueno, uno de los vídeos de la semana, el de la impresora 3D escribiendo un trabajo de clase, por supuesto, redactado por Charles Gepete. Oh, qué maravilla, me encanta esta gente que tiene esa imaginación, esa visión, para hacer el mal como le pega el boli.

Bueno, bueno, yo no sé. Oye, es verdad, la solución de los maestros de hazme el trabajo a mano para que no sea hecho con Charles Gepete, te la han hackeado, te la han hackeado. Bueno, y luego, un avance que puede ser preocupante para nosotros, Matías, porque el amigo Joe Heisberg dice, he creado un podcast generado con inteligencia artificial para aprenderme, entenerme el día con los temas que me interesan.

Usando la idea para encontrar, leer y resumir artículos que creo que me interesarían y para crear un podcast con mi propia voz, usando la clonación de voz. Va muy fuerte, Joe. Joe Heisberg. Es decir, nos puede sustituir y hace esa cosa horrible que es escucharte a ti mismo. Eso me parece lo peor. Que nos sustituyan es normal. Joe es de estas personas, cuando hacen la típica pregunta de, ¿qué harías si encontraras a alguien igual que tú, un clon tuyo? ¿Te liarías con él o no? Joe es la típica persona que respondería que sí, ¿no? Porque crear un

podcast con tu propia voz para escuchar noticias sobre inteligencia artificial. Si ya tienes monos estocásticos, Joe, ¿para qué quieres que tu propia voz te vaya resumiendo? Además, Charles Gepete, vale, resume muy bien las preguntas, pero no tiene la gracia que tenemos Antonio y yo. Claro, claro.

Yo hubiera utilizado la voz del Churrumbel de Malaga para crear el podcast definitivo sobre ellas. Sería ahí el bombazo, pasando por delante de monos, de 2SV, de todos ahí. Sí, algo rollo. Y Google le hace boom y no sé qué. Oh, le daría un toque muy especial. Bueno, pues lo siento, Joe. Esto de ibas muy bien, pero va a tocar enfermería porque escucharte a ti mismo es una cosa que no se puede aguantar.

Lo siento. Tenemos un tema que creo que vamos a guardarnos para la semana que viene. Nos lo ha pasado también un oyente del podcast, que es Domingo Gallardo, y es que hay un tremendo bif entre investigadores de inteligencia artificial. Están circulando las puñaladas, las cuchilladas, pero creo que lo vamos a guardar para el siguiente capítulo porque hay tanta chicha y tanto que debatir que hoy no nos va a dar tiempo.

Entonces podemos dar algunas de las noticias menores que han pasado esta semana. Sabéis que la versión completa está en la newsletter. Hay alguna que destacaría, Matías, que es que está haciendo Runway. Runway es una startup. Creo que tiene gente detrás del equipo que parió esta difusión y se dedica a el vídeo generado con inteligencia artificial.

Han sacado un modelo nuevo, que es el Gen 1, que tú le metes un vídeo de entrada, digamos, le puedes introducir mediante texto o incluso mediante una imagen, cómo quieres que se modifique y se edite el vídeo. Y los ejemplos, claro, como siempre, cherry picking, seleccionados por los creadores para que lo más guay posible. Pero los ejemplos que han pasado, qué chulada, Matías.

Estamos viendo alguno en YouTube. La verdad es que sí, increíble. Una cosa bastante loca. Creo que el vídeo va a tener lo más difícil que la imagen y el texto por el coste computacional, eso es evidente, pero de alguna manera llegará. Igual que se están haciendo más eficientes todos los entrenamientos de todos los demás tipos de contenido, con el tiempo llegará el vídeo. Yo creo que una noticia que no podemos dejar de comentar, porque lo ha comentado mucha gente, es que ChatGPT llegó a 100 millones de usuarios en enero, dos meses después de su lanzamiento,

y que es la aplicación de mayor crecimiento, por lo menos para usuarios finales. Algo así era el estudio que había hecho alguna de estas firmas de marketing. Sí, bueno, SimilarWeb de alguna manera no es muy precisa, no es muy exacta, porque no tiene una huella de tu usuario y tampoco tiene un público representativo al que audite, como se auditaba en las audiencias con Nielsen o GFK, pero en términos de órdenes de

magnitud sí sirve. No va a confundir el tráfico de monos estocáticos con el de ChatGPT, eso no lo hace SimilarWeb. Si esto es grande y se ha ido a las magnitudes de los gigantes de internet, eso sí te lo evalúa bastante bien. Son números que muestran a las claras, creo que para cualquier escéptico, que la guía generativa está aquí para quedarse y que la gente está encontrando un valor muy alto en usar esto.

Sí, sin duda, y de hecho yo creo que muchos escépticos que dicen no, es que se está hablando de AGI y eso está muy en el futuro. Bueno, vale, quizás sí, pero la gente ya le está encontrando una utilidad a estos modelos que dejan ver que esto es una revolución que ya ha empezado y que no va a parar.

Entonces hay algunos escépticos que deberían mirarse el ChatGPT que algún uso seguro que le encuentran. Y dos noticias finales, Mati, que creo que son interesantes, curiosas para dar. Una es Empresa Española, Freepik, que ha anunciado el lanzamiento de Weepik, un producto que ellos lo posicionan como un editor no profesional, no es Photoshop, pero que utiliza inteligencia artificial para la edición y creación de imágenes.

Entonces, bueno, hablamos mucho por aquí de Getty, hablamos de Shutterstock, porque la prensa americana lo cubre extensivamente, pero Freepik es un absoluto gigante en el mundo de la imagen y el diseño y que está apostando así de fuerte, creo que va a reforzar, impulsar y hacer llegar a esto a toda su base de usuarios, que es muy amplia.

Y una cosa curiosa, Mati, que tenía por aquí apuntada, el ajedrez lo está petando en internet. Sí, sí, esto lo vi, esto lo vi. Yo pensaba que después de la serie de Netflix iba a perder un poco ese fuelle, el influjo, pero no, siguen petándolo. El Chess.com estuvo casi caído, porque tenían demasiado tráfico. A mí me parece curioso porque es una de las disciplinas, probablemente la icónica, ejemplar en el que la IA supera al ser humano, y lo hace hace décadas con el

Diplup de sus Kasparov. Cuando se plantea esto en otras categorías se piensa que los humanos ya nunca haremos más como las máquinas lo hacen, ya nunca. Pues no, a la gente le sigue gustando el ajedrez, sigue interesándole y además cada vez más. Entonces creo que para esa parte un poco pesimista con respecto a que las IAs hagan cosas creativas, que nosotros nos vamos a volver amigas, pues para nada.

Yo tengo que admitir que yo después de ver la serie de Gambito de Dama me volví totalmente loco. Empecé a hacer el curso este que tiene el propio Chess.com y empecé a seguir obsesivamente a los streamers que son los más populares de Twitch de ajedrez, que son Hikaru no sé cuánto y las hermanas Botez, pero ya abandoné porque el ajedrez no es lo mío.

100% me falta capacidad de abstracción y de anticipar las jugadas y memoria, me falta todo, Antonio. Pues probar a doparte como la chica. O las perlas anales estas, sí, algo hay que probar. Bueno, estamos ya en el minuto 58, al menos de la grabación, cuando editemos será un poco menos.

A este minuto no llega tanta gente, Matías, no pasa nada. Bueno, pues ya que hablas de edición, este es un podcast editado desde el primer episodio por Agostina Zavia, podéis seguirnos en la newsletter monosestocásticos.com, estamos en todas las plataformas, hay enlaces a todas en cuanda.com barra monos guión estocásticos, pero es más fácil meterse en monosestocásticos.com, la verdad.

Estoy viendo mucha gente que escribe escolásticos, hay que hablar con Apple para que cambie el autocorrector porque esto no puede ser. Hasta que suene la regla en Apple no puede ser considerada de la élite. Está Antonio on fire en Twitter, o sea, yo me entero por cosas por el Twitter de monosestocásticos porque Antonio está ahí 24 7 dándole a las noticias del día, así que también vale la pena seguir a arroba monos podcast y poco más,

no, Antonio es arroba antonelo con dos L, yo soy arroba Matías con dos S y seguiremos aquí porque las noticias no paran y originalmente esto iba a ser un podcast de media hora, 45 minutos, llevamos por una hora los dos últimos episodios, no sé qué vamos a hacer, estoy agobiado, pues nada, chao, chao, chao, chao, hasta la próxima.

Episodios recientes

Programas relacionados