Somos un podcast multimodal: feos de nacimiento y guapos gracias a la IA

00:00 /1h00

En este episodio (¡grabado horas antes de la presentación de GPT-4 y los últimos anuncios de Google, argh!) traemos una nueva exclusiva, en este caso relacionado con propiedad intelectual y Midjourney.

NOTICIAS:

Una herramienta de inteligencia artificial revela exactamente cómo se ha retocado con Photoshop a los famosos en las portadas de las revistas https://petapixel.com/2023/02/28/ai-tool-reveals-how-celebrities-faces-have-been-photoshopped/

El espectacular y polémico nuevo filtro de belleza de TikTok https://twitter.com/memotv/status/1629905103724396546

Actores feos que pueden hacer de personajes guapos https://www.theverge.com/2023/3/2/23621751/bold-glamour-tiktok-face-filter-beauty-ai-ar-body-dismorphia

El legislador japonés y dibujante de manga Ken Akamatsu propone una normativa nacional de IA generativa para proteger los derechos de los ilustradores https://restofworld.org/2023/generative-ai-japanese-politicians-manga/

La Oficina del Copyright de EE.UU. da marcha atrás y retira los derechos de autor a las imágenes generadas por IA en la novela gráfica Zarya of the Dawn https://www.reuters.com/legal/ai-created-images-lose-us-copyrights-test-new-technology-2023-02-22/

Dos investigadores del MIT publican que ChatGPT mejoró la productividad de un grupo de consultores en un 35% https://economics.mit.edu/sites/default/files/inline-files/Noy_Zhang_1.pdf

En programación, las mejoras en productividad llegan hasta el 50% https://github.blog/2022-09-07-research-quantifying-github-copilots-impact-on-developer-productivity-and-happiness/

PaLM-E de Google https://arstechnica.com/information-technology/2023/03/embodied-ai-googles-palm-e-allows-robot-control-with-natural-commands/

Spotify DJ https://www.youtube.com/watch?v=ok-aNnc0Dko

ChatGPT integrado en Snapchat https://www.theverge.com/2023/2/27/23614959/snapchat-my-ai-chatbot-chatgpt-openai-plus-subscription

ChatGPT en South Park https://www.youtube.com/watch?v=G2SuBGH8ilQ

LLaMA de Facebook funciona en un Apple M1 Pro a 16 tokens por segundo https://twitter.com/sytelus/status/1634370038349303808

BASADISMO O HACIENDO LA CIENCIA

«Hay inteligencia artificial, pero nunca existirá la sensibilidad artificial» https://www.abc.es/cultura/musica/ivan-ferreiro-20230310153735-nt.html

PUERTA GRANDE O ENFERMERÍA

Character.ai https://beta.character.ai/

Charla con tus PDFs https://twitter.com/xathis/status/1632717593357213698

Agencias de modelos virtuales https://www.deepagency.com/

Shows automatizados:

- https://www.twitch.tv/watchmeforever

- https://www.twitch.tv/atheneaiheroes

- https://hackerfm.com/

Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com

Transcripción

Bueno, Antonio, buenas. ¿Cómo ha ido tu semana? Muy bien, Matías, muy bien. La verdad es que siempre ha atropellado por la inteligencia artificial un poco, por todas las novedades, las noticias, los debates. Y bueno, también un poco me siento con una carga extra, porque nuestra nueva época basada en que tenemos que soltar hot takes, para elevar el nivel de polarización y crispación y conseguir con ello el éxito, pues bueno, de modo aquí, con esa responsabilidad, Matías.

¿Traes alguna hot take preparada entonces para hoy? Tengo una, tengo una, pero no sé si atreverme a soltarla, Matías. La puedo contar así de repente, aunque puede ser que perdamos las escuchas a partir de ahora, Matías. Pues mira, yo estuve en Huelva viendo el primer cohete español, pero se me ha olvidado preguntarle si usanía para algo, la verdad. Bueno, posiblemente, bueno, yo creo que de estas cosas tan traficionales, los mismos

lo han programado en Cobol. Son industrias un poco conservadoras, creo yo, ¿no? Que tienen que asegurar mucho y que usan menos agas experimentos. Bueno, ellos, en pele de Space, son sangre fresca, me imagino, estará todo en Python. Bueno, puede ser.

Bueno, alguna novedad sobre expursito, tu nuevo oído en los internes. Desde que cubre esta expursito, lo veo más por todas partes, Matías. No sé cuál es la causalidad de esto, se va en una dirección o en la otra, pero claro, en el diario ha una pieza sobre expursito en la que nuestro youtuber favorito, nuestro bueno, no, youtuber o streamer favorito analizaba toda la polémica alrededor de la Kingsley. Y bueno, la verdad es que eso sí, había pocos comentarios, que la adiencia de as.com

aquí no, no soltó mucho, cero comentarios, pero bueno, expursito, hijo, hay sus, sus opiniones y es genial de que as, bueno, en general, todos los pericos deportivos están evolucionando tabloide, ¿no? Cualquier cosa que de tráfico la suelta. Entonces, expursito es ahora garantía de audiencia, Matías, y por eso debíamos tener una sección de expursito en... No, y además me sorprende, porque el diario oficial de la Kingsley, por decirlo de una

forma, es el marca que tiene su fotocall, incluso allí donde tienes montada la Kingsley y cubre todas las jornadas y que esté expursito en el as, que es con la competencia. Me ha extrañado, pero también es cierto que he visto expursito en la Kingsley Gitana, que es una liga que se ha montado un grupo de gitanos en paralelo a la Kingsley.

Así que me parece que este chico no se vende a nadie y no le importa estar ahí entre dos aguas. Hablamos de IA. Hablamos de IA. Hay un montón de noticias de actualidad, Matías. Yo creo que no sé si nos va a dar tiempo a un tema principal, porque es que todos los temas son prácticamente principales para un montón de debates.

Tenemos que recuperar el tiempo perdido y yo traía una noticia doble para empezar, ¿vale? Que son como dos corrientes que colisionan, Matías. Por un lado, están desarrollando estudios y herramientas de inteligencia artificial para desfoto choppear. Desfoto choppear las imágenes. Son modelos de inteligencia artificial que detectan si una imagen, si una fotografía publicada ha sido editada y mejorada.

Al final tratada con Photoshop, ¿no? Sí. Al final esto, por ejemplo, en las revistas, en las portadas revistas, etcétera, todas las fotos, por ejemplo, es una modelo y usan la herramienta de licuar del Photoshop para meterle los pómulos, para que tengan pues una figura más estilizada, etcétera.

Si esto entrenas a una IA, pues para detectar con una serie de muestras de miras, la imagen antes y después, luego puede reconocer patrones para comprobar si una imagen está retocada con Photoshop. Esto me parece muy interesante porque vivimos en una era en la que no sabemos si estábamos tragándonos una imagen falsa, una imagen editada.

Supongo que las IA también, como al mismo tiempo que nos engañan, van a ser nuestro soporte para reconocer estas falsificaciones. Sí. Sí, claro, porque al mismo tiempo, durante estas semanas, Matías ha dado mucho calilar el nuevo filtro de TikTok. Bueno, ha habido una serie de nuevo filtro de TikTok con bastantes novedades, pero hay uno especialmente que, bueno, de alguna manera ha interesado mucho a la gente, que es el de Vol Glamour.

Es un filtro de belleza en teoría en el que, bueno, los resultados son, no sé cómo decirlo, son absolutamente espectaculares. Es decir, de cualquier persona, de cualquier individuo, mujeres y hombres, yo he visto los compartidos más con chicas, pues el salto es que no sé cómo... ¿Qué palabra utilizar, Matías? Tú has probado...

Tú no eres un gran usuario de TikTok, quedó claro en el episodio anterior. Yo lo he probado, a mí no logra embellecerme lo suficiente como para yo sentirme seguro, pero... Vale, vale. Pero a los resultados... ¿Cree que vas a decir no logra embellecerme suficiente? Porque claro, aquí hay una planta, aquí hay un... Pero he visto, por un lado, un meme de gente que sale primero en el vídeo con el filtro y luego se lo quita, entonces ves como él da un grave, es el bajo total, entonces me parece

un poco humillante, y por otro lado, pues también las elucubraciones de lo que esto puede ocasionar a nivel psicológico, en los jóvenes, pero es que es muy espectacular, porque es un salto de calidad respecto a los filtros anteriores que partían de la imagen 2D de la cámara y mapeaban este...

o que llamamos filtro, en realidad es una máscara en 3D, ¿no? Pero utilizan IA, aunque TikTok no lo admita, claramente utilizan una IA, porque pasas la mano por delante y no se te despegan los ojos, que es una cosa que pasaba con los filtros de belleza de TikTok, y el resultado es absolutamente espectacular. Sí, además recuperan, hay una pieza muy chula en The Verge que analiza un poco la parte técnica y recuperan, bueno, un modelo de reneuronales que estaba...

porque tuvo su momento y que ahora está poco usado, que son las ganks, las redes aversativas en las que pegamos enfrentando redes, habitualmente una que genera y otra que chequea, entonces en ese enfrentamiento en que se van pasando información, las dos van mejorando, entonces, bueno, técnicamente es una pasada, y luego socialmente, en verdad yo entiendo un poco la preocupación esta de la competencia o la exigencia de capital erótico que puede suponer la exposición en

las redes y la exposición a las muestras de capital o de belleza de otros, en Instagram sobre todo, en TikTok, pasa que eso ya está, es decir, ya lo tenemos, tú te vas a la lupita de Instagram y está ahí, no, no hay mucho más que cambiar en ese sentido, pero por otro lado yo veo estas cosas, Mati, y pienso que bueno, aunque no estemos de hablar del metaverso, nuestra presencia en digital es un poco ese concepto de quién vamos a ser

nosotros en lo virtual, la gente guapa como nosotros, Mati, tiene una cosa, que a veces la fotografía o el vídeo no recoge bien exactamente nuestra belleza, entonces en ese yo que seremos en lo virtual, no tenemos derecho a ser más guapos o tenemos que vivir bajo la esclavitud genética de a quién le han dado más belleza a sus genes o no, esa es una disigualdad de partida, en cambio estos filtros son grandes igualadores en esa belleza

de capital que tú, el capital erótico, que puedes mostrar en plataforma, así que yo creo que también hay otro argumento a la contra un poco de esta doctrina de no, no seremos filtros de belleza, porque son irreales, es menos invasivo que una cirugía estética y yo tengo otro hot tech, siempre que se habla de estos filtros, se habla del daño que va a causar en los jóvenes, sobre todo en las niñas, etcétera, pero la realidad es que

la gente que usa este tipo de filtros son de milenias para arriba, la gente va joven, si tú abres su instagram es que ni siquiera comparten fotos, es que comparten solo en historias destacadas de instagram, comparten fotos un poco así como artísticas, un poco así como en blanco y negro, pero esto de mostrarse como supermodelos perfectos, esto solo lo hacemos de los milenias para arriba. Claro, además hay otra ventaja Matías que es, tú por ejemplo vas a hacer una película,

un programa de televisión, que es lo que hace la gente de cine y televisión muchas veces con buen criterio, es poner gente guapa, los actores famosos, etcétera, las grandes estrellas son atractivos hacia la local, no son muy bonitos algunos, pero tienen cierto atractivo, cierto magnetismo, claro, yo creo que esto es una gran oportunidad para los actores feos, o anodinos, o poco graciados, es un gran actor, pero no tienes ese gancho

sexy que atrae a las masas a verte al cine, bueno estos cambios, estos filtros, este CGI barato que vamos a ir teniendo, puede ser un empuje para todos esos actores que ven truncada a su carrera por el injusto reparto de la belleza, bueno yo me alegro de que hablemos de nuevo de GANs, porque cuando yo cubría más inteligencia artificial en el pasado en GIF modo, siempre eran GANs, eran estas redes antagonistas, generativas antagonistas,

y de un tiempo a esta parte todos son Transformers, Transformers, Transformers, básicamente por la irrupción de ChaGPT o de GPT3, y sorpresa, resulta que un directivo de Microsoft, en concreto el CTO de Microsoft de Alemania, Andreas Braun dice que esta semana llega GPT4, yo creo que al pobre Andreas le ha tenido que caer una, en un evento super random, en el que estaban presentando, bueno como la presentación local en Alemania de lo que van a hacer Microsoft,

y suelta ahí el GPT4 que llega la semana que viene, que es un poco la noticia tecnológica del año que está esperando todo el mundo, y bueno además creo que mencionó que iba a ser multimodal, luego hablaremos un poco de los modelos multimodales, y multilingüe que es impresionante, bueno eso un poco ya ha vuelto otra vez esa agitación, ese hype alrededor de lo que pudiera hacer GPT4, y la verdad que hay evento de Microsoft esta

semana, es decir, esto si es muy confirmado, que es el 16 de marzo hace un evento llamado reinventar la productividad con inteligencia artificial. Bueno, ahora hablaremos también de productividad e inteligencia artificial, ahora la sorpresa por qué, pues porque lo que comentábamos que venía diciendo Sam Alman, que hay que bajar las expectativas sobre GPT4, esta semana, bueno la semana anterior cuando se filtra

esto, cuando este hombre publica esto, hemos vuelto a ver SMM de GPT3, un globito pequeño y GPT4, un globito enorme, creo que una vez que desmintamos esto con la presentación de GPT4, imagino que SMM quedará atrás, y por fin descubramos lo que es realmente GPT4 y si es multimodal, pues las posibilidades que abren. Bueno, yo creo que ahí mantengamos la expectativa, yo por ejemplo con el evento de Microsoft

por como se ha presentado, porque no hay nadie de OpenAI, entre los conferenciantes, no creo que esta semana ese evento de Microsoft sea el de presentación de GPT4, me extrañaría mucho, me suena más, vamos a meter por productividad lo que tenemos actualmente, no es GPT3.5, decha GPT que está integrando Microsoft en todos lados, en la suite de office, coordenense en PowerPoint y que ahí digamos este mensaje de vamos a mejorar la productividad, pues

de alguna manera tiene sentido que lo presenté en Adela, no nadie de OpenAI, entonces los de GPT4 no sé, también cabe la posibilidad de que Andrea Brown, tengo un poco de lío, a veces los directivos, claro hay muchos números, 3, 5, 4, de cualquiera se puede jugar, y me extraña un poco que lo anticipen de esta manera tan cuatrenos, pero bueno. Iniciaremos otra vez el ciclo de revuelo absoluto, salen un montón de gente en Twitter

vendiéndonos esto como una gran revolución, y luego empiezan a aparecer los errores, los problemas, las limitaciones, que comentaremos también en el podcast. Bueno, tengo una premisa Matías, atención, porque tenemos un epígrafe del guión sobre copyright y creaciones de ella, con un caso estadounidense, pero tenemos un contacto en el registro de la propiedad intelectual de Madrid, que nos explica y nos cuenta que

han empezado a denegar las solicitudes de obras creadas con Meadjourney, como propiedad intelectual en España, y bueno, de alguna manera este, bueno encargado, te voy a buscar el nombre, perdona, me gustaría citarlo con su nombre, ya que teníamos la generosidad de darnos esta primicia, en nuestra segunda exclusiva, porque teníamos el gobierno autonómico que no pudimos revelar cuál era que ya estaba usando.

Alejandro Puerto del registro de la propiedad intelectual de Madrid, entonces claro, no nos puede asegurar Alejandro, que estos estén todos los registros de propiedad intelectual de toda España, porque es competencia autonómica, aplicando las mismas reglas, pero sí nos asegura que en Madrid han tomado la decisión, pues básicamente, de denegar las solicitudes de obras creadas con Meadjourney, y esto nos llevo un poco también al caso famoso en

Estados Unidos, del comi de Zarya of the Town, en el que, bueno, la autora que eres Chris Castanova, que en Twitter es muy interesante, es una, bueno, una artista que es una creadora que es muy provía, pues creó este cómic en el que muchos de los dibujos pues están creados con Meadjourney, bueno, intentó registrar el cómic como propiedad intelectual, con sus copyright, etcétera, su derecho de autor y toda la pesca, el caso es que ha habido bastante

confusión sobre si se aceptaba ese solicito de copyright o no se aceptaba o qué es lo que entraba dentro de la solicitud. Aquí, bueno, primero que he leído cierto debate sobre si esta historia está al cual se contó, porque no se coinciden los derechos de autor a las imágenes, sino la parte humana del cómic, entonces no sé en qué queda la noticia de que luego se retiraran los derechos de autor, pero yo, en temas de regulación, coincido

mucho con un mangaka japonés que se llama Ken Akamatsu, que es un legislador en Japón, que ha propuesto permitir a los artistas excluirse de los conjuntos de datos de entrenamiento y concederles licencias a los desarrolladores de IA para que puedan pagarles a los artistas por incluir su trabajo en estas muestras.

Sí, ahí Matiz, que claro, fíjate lo que dice, yo estoy muy de acuerdo contigo, es decir, yo creo que al final iremos a algo de este tipo en el que se puede entrenar a la inteligencia oficial con tus obras, es opting, es decir, puedes elegir estar, bueno, ahora mismo que creo que lo que ha hecho estaba el Diffusion, es up out, es decir, por defecto, vamos a entrenar a la IA con todo lo que llevo, pero si quieres te puedes hasta excluir.

Y un proclólogo lo que hizo Adobe con su tema de stock era, bueno, si se genera dinero con este proyecto, pues habrá un reparto también entre los, habrá una parte que se dedique a los que sus obras alimentaron la IA con las que hemos generado el servicio. Yo creo que iremos a un esquema muy parecido a ese punto. Luego hay otro debate que es interesante, porque la razón, la foto final que se explicaba sobre el caso del cómic que hablamos es que, de alguna manera, el cómic completo, por la obra, el guión, etcétera, si es copyright y si tiene

los derechos, pero de los dibujos concretos que se han creado con bitjarni, no, tiene una cosa un poco confusa, porque dicen que el punto por el que no se concede el copyright sobre estas imágenes con bitjarni es porque como el autor, la chica o la creadora, no puede predecir exactamente el resultado que va a salir esa alegratoriedad, esa estrocástica, que es propia intrínseca de los modelos de difusión en los que se vas a bitjarni, estable difusión, etcétera, entonces no se le

puede dar ese copyright a la usuaria del bitjarni, lo cual es un poco casi de explotar la cabeza y al final hay una cosa casi conceptual que tenemos que acabar consensuando es si las imágenes son creadas por la lla o son creadas con la lla, que solo en ese intercambio de término está la clave de todo, es decir, cuando tú usas bitjarni, creas una imagen, es como cuando estás usando Adobe Premiere o estás usando Photoshop o estás usando cualquier herramienta que te ayuda en el procesado

o realmente la está creando ese artefacto software y tú no eres tanto el agente que dirige el proceso creativo, no sé si me explico. Aquí estoy de acuerdo con los furris porque en Fur Affinity, este foro de imagen de furris, dicen que el contenido creado por inteligencia artificial no está permitido en Fur Affinity exactamente por lo que tú le dices, porque no es una herramienta para crear imágenes con lla, sino que las imágenes están creadas por lla.

Claro, ahí va a estar todo. Esto es debatible. Sí, sí, sí, sí. Entonces, bueno, yo creo que va a haber comunidades y entornos digitales más abiertos a obras con... creas también. Fíjate que aquí cada uno lo dijimos distinto, tú dices por lla, yo digo con lla y va a haber comunidades y entornos digitales más cerrados que digan que no tienen ese tipo de producción y ya tenemos todos los problemas que hablamos en el capítulo anterior de masificación, de miles de obras, etcétera, que pueden tener

los abiertos a la lla y los problemas de, oye, soy capaz de detectarlo realmente cuando se usa lla, cuando no, que van a tener los que quieran cerrarse. Bueno, de copyright, aunque sea un tema denso y poco aburrido, vamos a tener que hablar bastante porque todo lo que está... Se parece esto a la internet de los 2000.

Bueno, y lo que se viene también con el vídeo generado y bueno, en fin, esto, esto va a dar para mucho y va a ser largo, pero he prometido antes hablar de productividad y vamos a hablar de un estudio muy interesante, muy interesante que sean por resultados provisionales y pendientes de revisión, pero dos investigadores del emite han publicado que ChargePT en un grupo de consultores, analistas, managers, etcétera, descubrieron que ayudaba a mejorar la productividad en un 35%, era un 35% más rápido en su trabajo, no sólo más rápido,

sino con un incremento de calidad en su trabajo, que esto fue evaluado por otro grupo que no era conocedor de que habían sido asistidos con ChargePT y por supuesto había un grupo de control, o sea, un estudio a priori serio. Entonces la clave de este estudio es que los trabajadores menos productivos, que no sé si podemos definir como menos cualificados, tuvieron más dificultades para usar ChargePT como herramienta de asistencia, pero al mismo tiempo fueron los que más vieron

incrementada su productividad, en cambio pues los más productivos no la vieron tan incrementada y por tanto al final ChargePT ayudó a igualar la plantilla, ¿no? Tenemos algún hot take sobre esto. Mi hot take es más de fondo, Matías, yo creo que, claro, yo te lo iba a lanzar al principio del episodio, pero me cambiaste de tema, pues ahora tengo que soltarlo más adelante, luego lo veremos, Matías.

Pero tú también traes uno, ¿no? Bueno, el caso es que en productividad es muy prometedor esto, ¿vale? Yo me lo tomo en cierta prudencia, sobre todo porque con consultores mejora la productividad, claro, que santo el día haciendo PowerPoint, bueno, es broma, es broma, amigos, consultores. He estado también ahí, ¿eh? No pasa nada. El punto es que es muy prometedor, pero son resultados muy muy provisionales.

La duda siempre con el uso de ChargePT y estos modelos grandes de lenguaje es que la salida, lo producido, sea igual de fiable, correcto, etcétera, que lo he hecho por el espertumar, entre comillas, ¿no? Pero los resultados son muy prometedores y aunque la productividad es poco sexy, no tiene muy buena prensa, no sale en titulares, ¿no? Una mejora de la productividad de la sociedad, no produce excitación, ni nítores, ni da mucho tráfico, mucho bien, que tampoco en los medios, es muy relevante y muy potente, ¿no?

Esto es casi, no debería decir que es, oye, el cambio de la agricultura artesanal a meter el tractor, ¿no? Que de repente el que se queda atrás pues necesita 30 personas y ahí cosechando el trigo, mientras que uno solo en un país occidental, gracias a la productividad que te da el tractor, pues uno solo hace el trabajo de tren.

Claro, a lo mejor no va a ser el salto de la revolución industrial, pero en la sociedad del conocimiento y en esto que trabajamos tanto con información, si mejoramos la productividad ahí, son rendimientos, eso es riqueza, que ya veremos cómo se reparte, eso es menos tiempo de trabajo también, puede ser. Entonces, bueno, creo que a lo mejor esto puede ayudar a toda esa visión de la jornada de cuatro días, que es un tento de conquista que hay encima de la mesa en la sociedad, que podría ser muy positivo y muy partidario,

pero que, claro, para conseguir que los económicos influyan, que los económicos funcionen, necesitamos mejoras de productividad y si esto lo trae pues fue fantástico. Oye, díselo del tractor, díselo del tractor, pero en otra informe aparte de GitHub sobre GitHub Copilot, dicen que las mejoras de productividad en los programadores son de hasta el 50 por ciento y esto en comparación con la máquina de vapor, pues que llegó al comienzo del siglo XIX,

es el doble, o sea, aquello fue una ganancia del 25% de productividad. Yo no sé si aquí se han pasado tres pueblos o realmente estamos ante algo histórico. Bueno, pues ahí un poco la gente de programación que dedicamos un capítulo y ya que hablarlo también a los datos de GitHub, pues también es un productor y además fíjate, se cumple el patrón Matías, porque yo he hablado con algunos programadores junior, gente que está empezando, incluso gente que se está reciclando

gracias a cursos intensivos, bootcamps y este tipo de prácticas, y ellos son locos enamorados de pilotos, chagapetecitos de las herramientas que le ayudan un momento a desatascarse y ven muchísimo valor ahí. Entonces para los juniores es muy valioso y luego ves, por ejemplo, Lele, hace un tiempo a Choletes, uno de los grandes figuras de la IA que trabaja en Google, etcétera, y dice, bueno, no es para tanto, solo lo más mejorado como un 5% a mí.

Claro, se da un poco el patrón que han encontrado los del Meet. Si ya estás arriba del todo, sabes muchísimo este tipo de servicios, pues te mejoran poco, poco realmente, pero si eres junior, esto va a ser la leche. Claro, la implicación de que los juniors sean mucho más productivos con estas herramientas es que más que complementar, los están sustituyendo en gran parte y a ver si el empresario, esto lo ve como una mejora de productividad, como una oportunidad para quitar un sueldo de medio.

Bueno, ahí la mejora productividad es que ya hemos hecho, en los grandes debates ya lo hemos mostrado en monos neotocásticos, Matías, es decir, quién va a quedarse con la mejora de productividad que trae la inteligencia artificial, que era el anuncio de Jasper, que comentamos, que todos los empleados pues se iban felices, trabajaban menos, les aumentaban los sueldos, bueno, es una posibilidad.

Otra posibilidad es que el empresario diga, bueno, pues no necesito gente tan senior, me puedo ahorrar en sueldo y capturo yo en forma de beneficios esta mejora de la productividad, pues veremos. Yo creo que al final lo más probable es un escenario intermedio en el que las empresas tecnológicas puedan contener o revertir incluso un poco la escalada de sueldo y salarios que se ha dado en el mundo del desarrollo software, que ha sido lo último de cada sido impresionante y espectacular

y por otro lado es posible que los trabajadores puedan capturar parte de esta mejora de productividad en menos horas de trabajo. Veremos, veremos. Oye, Antonio, tenemos que volver a traer a Cristina Urdiales al podcast porque han seguido saliendo temas que mezclan inteligencia artificial con robots y el tema empieza por meter un poquito más, ¿no? Un poquito más de aquel robot de Tesla. Claro, fue sacar nosotros el episodio Matías y de repente se vuelve loco el sector.

Bueno, en este caso Google ha lanzado o ha presentado Palm y que he visto que lo has traducido como Palm encarnado. Me ha gustado mucho esa traducción de Palm en Bodit y, bueno, son investigadores de IA de Google y de la Universidad Técnica de Berlín y han desarrollado este modelo multimodal. Otra vez sale multimodal, tenemos que acabar explicando esto, con 562.000 millones de parámetros que integra visión y lenguaje para el control robótico.

Entonces, ¿qué puedes hacer? Por ejemplo, puedes decirle a un robot en lenguaje natural, traeme la bolsa de patatas fritas y el brazo robótico, pues, genera ese plan de acción para moverse y coger en la bolsa de patatas y llevártela a la mano, ¿no? Esto, por cierto, no sé si viste porque fue bastante coñazo la presentación del Investor Day de Tesla, lanzó una puñita de Elon Musk cuando tocó hablar del Tesla Optimus, que todos sabemos que eso no va a llegar pronto.

Enseñaron un vídeo de un robot del Optimus ensamblando otro Optimus y Elon soltó algunos hot takes, como los que buscamos nosotros en este podcast, como que Tesla es la empresa más avanzada del mundo, que nadie está a su nivel en inteligencia artificial aplicada al mundo real.

Por lo que el Optimus tiene más posibilidades que, por ejemplo, lo que puede hacer Google con Palm, y aunque yo me imagino que la puñita va mal por Open Eye, por lo... Sí, qué picado está este. Lo picado. Y lo ardido que está el icono. Hombre, con Google puede estar tranquilo porque de aquí a que Google lo aplique pueden pasar años y años, ya sabemos que es el rollo de Google.

Sí, sí, sí. Yo le gusta coleccionar paypers a Google, eso es lo que le mola. Bueno, es muy interesante lo de multimodal y de Palm, y porque Microsoft también ha sacado otro multimodal, que es, que se llama Cosmos, está a este anticipo de gpt4 que podría ser también multimodal. Y al final multimodal es un modelo en el que puede procesar y, entre comillas, siempre porque comprender es mucho decir, pero bueno, puede procesar, tratar diferentes tipos de datos.

O sea, aplicado a gpt, pues sería un gpt que no sólo se maneja el contexto, sino también con imágenes, audio, vídeos, pero esto fue una parte del data 7 entrada. O sea, no sólo es que echa gpt luego puede hacer un dibujito asti o el visual gpt que ha sacado a Microsoft, que integrando luego un modelo de otro tipo, pues te saca una imagen o te puedes responder con imágenes, no.

Es decir, en el propio data set de entrenamiento, estos sistemas pues han procesado vídeos, imágenes, audio, todo, todo, todo simultáneamente. Esto es muy importante por dos cosas. Una es, pensemos que echa gpt o gpt3 no tiene ninguna experiencia del mundo. Todos lo han aprendido leyendo. Es como si criáramos una cosa en la que todo su conocimiento al final es de leer. Ha podido leer sobre el carnica de Picasso y decirte cosas, sí, pero nunca lo ha visto.

Entonces, gran parte de la experiencia del mundo, de la experiencia real, pues queda verada y entonces la construcción de, entre comillas, un sentido común de cómo funciona el mundo, parece muy difícil de alcanzar solo si entrenamos los modelos contextos. ¿Por qué digo esto? Porque uno de los grandes protagonistas del capítulo que viene, Matías, te voy a proponer que sea el debate sobre la inteligencia artificial general o, bueno, históricamente se llama también, inteligencia

artificial fuerte o inteligencia artificial de nivel humano. Ya matizaremos en ese capítulo, pero parece un requisito para acercarnos a un inteligencia artificial más humana que la experiencia de estos modelos incluya toda la experiencia que pueden entrar en los humanos, incluso para la comunicación personal.

Es decir, actualmente me da la impresión de que a lo mejor te estoy borriendo un poco, Matías. Pero puedes entender mucho de la gestualidad, del tono, no solo la transcripción de Matías hoy en el podcast, sino de un montón de información que se estaría perdiendo a alguien si solo lees lo que tú has dicho. Entonces, esta parte de multimodal va a ser la moda de modelos de lenguaje de 2023 seguro y creo que ha empezado la carrera por ahí, ¿eh? Bueno, pues nos quedamos, tenemos que titular el episodio como multimodal y te

propongo poner en YouTube una de nuestras caras pasadas por el filtro de este de TikTok. La verdad, bueno, aunque has dicho que no es una idea multimodal, es otra cosa, lo de Visual ChagPT que ha presentado Microsoft, está bastante guay. Lo puedes pasar una foto de, no sé, creo que era un perro con un libro y le decías en lenguaje natural, ahora quita el libro de la foto, ¿no? Entonces, era capaz de reconocer cuál de los dos objetos era el libro, quitarlo y generar

la nueva foto sin el libro, ¿no? Entonces, si ChagPT fue un éxito, porque es, digamos, una interfaz que a la gente se siente cómoda y que le gusta usar, me imagino que un GPT4 multimodal que, de lugar a un ChagPT multimodal, va a ser para mucha gente el acceso a una generación o interpretación más fácil de las imágenes que con las herramientas que ya existen y, por supuesto, para las startups usabres todo este mundo de oportunidades que has mencionado como reconocer

imágenes, bueno, reconocer imágenes hay un montón de aplicación, entonces estaríamos todo el día, todo el día hablandolo, ¿no? Como el QA visual, ¿no? Este que tenemos apuntado como una de las posibilidades del Cosmos 1 de Microsoft, ¿no? Para diseñar una página web que una AIA te pueda asistir en eso, ¿no? Sí, sí, sí, yo creo que es bueno.

Las posibilidades están ahí, vamos a ver que yo creo que todavía estamos en la fase PIP de investigación inicial y que a lo largo del año veremos cosa visual del GPT es prometedor y creo que por ahí vará los tiros, pero por no irnos de la robótica demasiado pronto, hay una startup que está empezando a salir de, no, mucho menos, los americanos llaman el styles mode, ¿no? Del modo ahí fuera del radar y se mafigure.

Figure pues es una empresa que quiere hacer robot humanoides, un poco al rollo, en los Macs se han recibido 100 millones de inversión, lo cual no está mal y, bueno, un poco de entender que la versión 1 del robot humanoide que pueda funcionar entre nosotros mide 1.70 y poco más. Es decir, de momento lo que tienen son CGI muy guapos, que eso siempre ayuda a conseguir inversor de momento.

1.70 lo dice porque no es una amenaza, ¿no? A ver, yo pido 1.73, a mí me podría ganar en una pelea, ¿no? Ya. Hemos visto gente de 1.70, muy peligrosa, en la historia, rollo, Napoleón, Hitler. Sí, claro, yo creo que si el robot viene con bigotito, podemos arquear la ceja, ¿no? No, pero digo lo de 1.70 porque intenté sacar datos concretos.

Venga, ¿de qué van a hacer? Pues el único dato concreto actual es que el robot con el que trabajan mide 1.70, pues está bien, ¿no? El punto es que a largo plazo dicen que van a tener robots humanoides, antropóficos, de los que hablamos como complicina, para cuidar ancianos, necesitar trabajo físico, incluso construir nuevos mundos en el espacio.

Claro, ahí, ya está. Pero, probablemente, el primer producto que saquen se ve un wearable. Se ha venido muy pronto. No sé qué bajona, ¿no? Hombre, yo creo que, al final, si esto funciona por suscripción, Matías, probablemente tendrás que elegir, ¿no? Tú te encargas tu robot humanoide y tienes que decir qué feature les compras, ¿no? Es decir, que me traiga la cerveza de la nevera, pues 30 céntimos al mes, que me agomara todo por suscripción y como se ha puesto Twitter y Facebook y tal.

Entonces, cada feature, pues, probablemente, nos cuesta un dinerito extra de suscripción al robótico, ¿no? Yo, vamos, espero que saquen la del gaspacho porque cerca de verano, ¿no, Matías? Y yo creo que un robot que me haga el gaspacho, yo, por eso, a mí no me lo pensaba, ¿eh? Bueno, yo en la cocina necesito mucha asistencia.

Toda la que pueda tener me vendría bien. Y también planchando, aunque mi generación ya no planche, pues, para estar un poco más adecuado para los estándares de mi suegra, me gustaría también que el robot supiera hacer eso. O sea, de la cocina pasa la plancha. Bueno, te traigo más cositas, Matí. Aquí estamos un poco como recolectando de las últimas semanas y la veo juntas las dos, porque yo creo que, bueno, dan para un mismo debate, ¿no? Spotify, aparte de TikTok, quizás, un

poquito en la aplicación móvil, ha lanzado la función DJ, que de momento en España no tenemos o en Estados Unidos y Canadá. Pero la idea es que con una voz sintética, pues, en las recomendaciones musicales que te haces Spotify, pues te dará un comentario cada 4 o 5 ocasiones como una especie de locutor radiofónico y que, bueno, usarán GPT3.5, la API que dijimos en el episodio anterior que tenía acceso prioritario a algunas de

las grandes compañías, pues, disfueis una de ellas, y de ahí sale su DJ, ¿no? Y aquí un amigo del podcast, Guido Corradi, dice que han perdido una gran oportunidad de llamarla Tony Yaguilar. No, el que Tony Yaguilar es un poco viejo uno. Tú no has llegado a Tony Yaguilar, ¿no? No, Tony Yaguilar sigue por ahí rondando.

De hecho, lo peor de esta idea es que en la radio lo que yo quitaría directamente son los locutores que introducen las canciones, porque generalmente son monólogos como charlas de ascensor, de el tiempo que hace, pero nunca son datos interesantes sobre la canción que vamos a escuchar en los artistas. Espero que el DJ de IA despotifa, y por lo menos te cuente datos interesantes sobre las canciones, ¿no? Puede ser.

El punto es, fíjate yo, te decía que lo juntaba con otra noticia que es Natchabt, que para sus usuarios plus, los que dejan perras directamente por suscripción en Natchabt han sacado, no lo llaman así, ¿no? Pero bueno, va a haber un chatbot con el que tú puedes charlar, básicamente. Alguien con el que tú puedes conversar y es que es una especie de eso de amiguito, nueva abuela social que tú tienes tus amigos humanos y luego tienes este chatbot solo si eres usuario de pago.

Claro, Spiegel, que es el superboss de Natchabt, dice que además de hablar con nuestros antiguos familiares, vamos a hablar con la inteligencia artificial todos los días y que, bueno, ahí está la propuesta. Yo creo que en los dos hay dos cosas que hay que discutir. Una es, oye, eso de sentirnos acompañados, que es una función a veces que tiene la tele encendida en casa, que tiene la radio de fondo, ¿no? Las voces humanas que están ahí, etc.

Aunque no le preste mucha atención, hay cierta sensación de compañía. Es posible que la inteligencia artificial va a ocupar ese espacio y yo creo que ahí es el sentido del DJ de Spotify. Aparte de que Spotify, cuanto menos música te pongo y más rellene, con otras cosas, menos se gasta y mejor para ellos. Eso es una idea. Y la otra es, oye, ¿y si están guay? ¿Y si nos gustan más que los humanos? Tú piensas, chatear con gente tiene sus problemas, ¿no? A veces te llevan la contraria o no responden,

no te reen tus chistes, Matías, ¿no? Es un comentario súper inteligente y oportuno y la gente no le hace gracia, ¿no? Pero a la inteligencia artificial siempre vas a caer bien, Mati, siempre te vas a reír los chistes, siempre vas a estar disponible. ¿Y si nos gusta más este amigo? Lo estamos envolviendo todo, como si fuera Ger, la película, como si fuera esto a darle compañía a pues eso, a la gente a la que

no le habla a nadie, los que tienen un seguidor en Twitter y nadie les retuitea, les hace fab. Pero yo creo que esto se va a utilizar para otra cosa, Antonio. Yo creo que esto se va a utilizar para generar frases para ligar con otras usuarias de Snapchat directamente ahí desde la plataforma, que esta era además la temática del último episodio del South Ark que hablaron de chat GPT, o sea, tengo que acordarme de dejar en la descripción

el trailer, y que estos los usuarios de Snapchat que nos dan tres vueltas más que para hacer descompañía, lo van a aprovechar como herramientas para hablar con personas humanas. A mí se me escapa, a veces, esos usos innovadores, Matías, que tú no sé por qué motivo de razón siempre tienes en la cabeza.

Bueno, vamos a hablar de otras cositas. Ahí dejamos un poco esa compañía humana de las Inteligencias Artificiales. Empieza a ver una oleada de súper inversiones en el mundo de la Inteligencia Artificial, sobre todo en la generativa. Hemos dicho la de Figur de la de Robotico, que recibió unos 100 millones. Carácter.ai, que es esta, digamos, empresa de conversaciones con gente famosa y cosas similares.

Un Billion, mil millones de valoración, un pescado de 200 millones. Aquí está, dejate en carácter ahí, una cosa interesante. Está uno de los creadores del modelo Transformer. Quizás eso sea un polo también de atracción. Es uno de los grandes referentes en el mundo de la Inteligencia Artificial.

O sea, una persona que es una eminencia, acaba haciendo un chatbot para hablar con famosos, falsos. Yo me pregunto, ¿te acuerdas del indio aquel que hablamos que te podía poner a hablar con Govel y con Icon? Bueno, no sé. Hombre, estaba el difunción, parece que están buscando pasta por una valoración de 4.000 millones. El cofundador de Deepvine, que se acelió y el creador del LinkedIn de Hoffman, están buscando 600 millones para un asistente personal para la web que todavía no han enseñado a nadie.

Anthrophic, que le daron un modelo alternativo a GPT3. Está en posición de como un rival de OpenEye, pues está buscando valoraciones del tipo de 4.000 millones. Es decir, empieza a ver aquí una carrera de la inversión y de las startups bastante loca, Matías. Sí, no, está claro.

Creo que esta gente espera, por ejemplo, ver a Putin, por ejemplo, los de Caracteri, metiéndose a ver qué haría Stalin en mi lugar, ¿no? A Joe Biden, ¿qué haría Obama? Supongo que será una funcionalidad de pago. Si quieres que Stalin te aconsegue, pues no puedes. Bueno, Antonio, esta semana te has inventado una sección que me ha encantado y que quiero hacerme todas las semanas. Vale, es que hay una sección siempre buscando innovar, renovando el género del podcasting.

Pues las secciones, yo creo que nos ayudan mucho a eso, Matías. Entonces, me he cruzado con un par de intervenciones que yo creo que nos pueden dar para una sección que es basadísimo o haciendo la ciencia. Vamos a dejar la notación por si se me ocurre una música que meterle para hacer esto más gracioso todavía.

Pero nuevas secciones en bonos estocásticos basadísimo o haciendo la ciencia, me gusta mucho eso. Claro. Entonces, tú tienes que decidir, Matías. Le traigo yo, pues, la tienes que decidir tú, ¿no? Atención a esta declaración, Matías. Hay inteligencia artificial, pero nunca asistirá la sensibilidad artificial.

Entra un poco en el cuñadismo, pero tiene su sentido, tiene su sentido. Claro. Tú lo ves que tiene su sentido. Bueno, estiendo la declaración, porque la declaración completa también dice, lo de la inteligencia artificial no tiene porque ser malo. Creo que al final se hará una herramienta más. Igual, un día le pido que haga una canción a los Ferreiro.

Estamos dando aquí una pista del basado y me cadaré con lo que me guste. Iván Ferreiro aquí quiere trabajar menos, igual que nosotros. Y como compositor no me da ningún miedo, porque nunca asistirá la sensibilidad artificial. Bueno, hay que decidir, ¿esto es la ciencia, esto es así? O es basadismo de Iván Ferreiro que nunca nadie, la idea nunca podrá competir con él. Bueno, yo creo que Iván Ferreiro está bastante basado.

También te digo que, aunque lo que digas suele un poco como cursi, tiene sentido, sensibilidad artificial. Tampoco es que sepamos muy bien cómo funciona la sensibilidad humana, pero no parece que vaya a haber una sensibilidad artificial. Ya hay gente que se lo está creyendo, que se está creyendo que los chatbots estos son humanos y sabemos perfectamente que simplemente se inventan, no se inventan sino que predicen la palabra que viene a continuación de lo que tú lo estás diciendo.

Así que al final la sensibilidad existirá si la gente piensa que existe, ¿no? Esto es lo que veníamos hablando. Yo creo que Iván Ferreiro es un precursor del usuario de nacha del que tú has hablado antes. Este tipo de frases la sueltas ahí y pues claro, hombre, al final Iván Ferreiro tiene que ligar y lo mismo ligar con hablando de cualquier cosa común que buen tiempo hace, el calentamiento global, ¿no? Iván Ferreiro

que te habla de la no existencia de la sensibilidad artificial como la suyarla. Fíjate que yo pienso que el primer cantante de Canta Autor que va a hacer una canción sobre inteligencia artificial va a ser el señor Chinarros porque vas a disco por año prácticamente últimamente y siempre estás muy atento desde una perspectiva pesimista a lo que pasa en la sociedad, así que seguro que saca una cosa.

Señor Chinarros nunca fue una castañuela, el tío de alegría, pero no a su rollo, ¿no? Pero eso nos permite, Matías, qué buen gancho lanzado ahí, pasar a puerta grande o enfermería. Detraigo, atención, esto lo he metido de última hora, es un poco traicionero en el que vamos a fiar el videoclip de rockeros con inteligencia artificial. Modern Mind, pioneros, los malagueños Modern Mind, pioneros en usar IA en el rock en castellano. La banda malagueña de Ramone, Ramone es el líder de la inteligencia artificial en la banda,

promociona el tema carnaval de su primer trabajo discográfico con uno de visual creado íntegramente de manera virtual a través de los algoritmos de bla bla bla bla bla bla. Bueno, Ramone y este grupo, vamos a ver, yo no los conocía, Modern Mind, aunque he visto que en el grupo está mucho pelo, y mucho pelo, sí, sí, sí lo conozco más, Matías, porque la publicidad de los conciertos en Málaga es muy llamativo, mucho pelo,

que está muy bien puesto lo de mucho pelo, el nombre. Bueno, entonces, claro, el videoclip es pa' verlo, ¿eh? Es como... Estaba el difusión de hace unos cuantos meses y tal, muy experimental, muy experimental, no lo acabo de haber resuelto, Matías, ¿tú cómo ves esta movida? Bueno, lo primero que estoy viendo el grupo, y a mí me suena el del izquierdo un montón, este hombre está en todos los festivales a los que yo voy,

y no sé que si darle puerta a grande o enfermería, porque va a depender mucho del resultado, más que de... más de que sea una opción, ¿no?, utilizar esto para los videoclips, ¿no? Bueno, yo creo que al final puedes tener videoclips, y un poco surrealistas, esotéricos, para grupos que no tienen presupuesto, ¿no? Entonces, yo creo que se va a usar, pero con resultados medianos, ¿vale?, yo creo que va por ahí, pero te traigo un puerta grande o enfermería, Matías,

que yo creo que te va a enamorar, porque... Paul Renzo, Renzo, oyente, amigo de Monos Podcast, nos manda atención una opción para esa gran única e inigualable, y apoteosica sección, llamada puerta grande o enfermería, y Paul Renzo me ha ganado mucho. Quitas textualmente. Sito esto totalmente, porque él nos trae chatpdf.com, es decir, por fin alguien con orgullo y con valentía le ha puesto a las cosas su nombre.

No, es que es un asistente virtual, el segundo cerebro... No, habla con tu pdf, aquí puedes subir tu pdf y hablar con él, por fin alguien nos da la mierda que nos gusta, Matías. Te voy a decir que la he probado, la he probado, pero con el primer pdf que me he encontrado mi escritorio, que era una nota de prensa de unos altavoces de sonos, o sea, nada excesivamente largo, de hecho, tendría tres páginas,

y funciona muy bien, le he preguntado cuánto cuesta tal modelo, y dice, el modelo cuesta 500 dólares, como puedes ver en la página 1. Entonces, esto es súper útil, esto es súper, súper, súper útil, y aunque sea, siempre lo decimos, sólo pasarle un prompte enorme a chatgpt, en este caso será la API de chatgpt, que ya está abierta, me imagino, pues es una idea muy, muy útil, creo que ya habíamos visto cosas parecidas,

pero es una idea muy, muy útil, que puede servir, pues, a ingenieros técnicos que trabajen con pdf, también, bueno, un montón de gente que trabaja con texto, realmente. Sí. Fíjate que yo dicen, ahora mismo tiene un poco de limitación, es decir, los pdf que, por defecto gratis, que puede usar, tiene un máximo de 50 páginas, y si quieres pasar de eso, mete tu key de la API de OpenAI para pagar tu, vale, porque estas cosas se van de madre,

ya comentamos el caso a brébiamé, que por recito ha cerrado, ha liberado el código, está muy interesante, pero de momento estos proyectos están buscando usuarios, crecer, pero tienen los costes seguros, que el único que seguro que gana aquí pasta es OpenAI, pero bueno, tenemos, insospechadamente, chat de ARK un tu pdf, es puerta grande para Matías, pues ahí lo dejamos, y nos queda, hay uno que me gusta mucho, Matías,

la era de los shows automatizados, yo creo que se puede ser el nombre, show automatizado, porque volvió el de Seinfeld, como se llama, Nothing Forever, pero ya no es Seinfeld, no, han hecho algo raro, han hecho algo raro, porque mete un personaje nuevo, que se llama Leo, a mí en estas cosas no me gustan las novedades, ya yo estoy en contra. Es ortodoxo de las series generadas por Iaro, ortodoxo de algo que se creó ayer.

De la época buena, Matías. Bueno, bueno, le recordamos a nuestros amigos estocásticas, o sea, estocásticas, que tú era, pues, joven, todo un show en 3D, de animación, que replicaba tanto los billones como los personajes, como la escena típica de Seinfeld en el piso de Seinfeld, de la sitcom famosa, ¿no? Y era muy curioso, porque muchas veces los chistes llegaron, eran extrañamente interesantes, porque era como un intento de comedia que no tenía grafica,

entonces, era curioso de ver, ¿no? Es curioso de ver, se están retramitiendo en Twitch. Pero, fíjate, yo lo junto con otras cosas, como, por ejemplo, Hacker FM, en el que han sacado un podcast con dos anfitriones que en realidad no existen, Matías. O otro proyecto que se llama Athena Heroes, que básicamente en Twitch la gente manda preguntas y un personaje famoso que tú le digas, ¿no? Pues, igual que el carácter ahí, pues, aquí en Twitch,

incluso con la animación y el vídeo, pues, te responde. Entonces, puede ser Donald Trump, responderte algo que tú le preguntes, cualquier cosa, y yo cuando me metí, a lo mejor lo entendí mal, porque hay cosas en que les que a veces se me escapan, Mati, pero me envió la impresión de que estoy yo que está comentando la Iggy y yo Tina, porque alguien le había preguntado sobre eso. Pero todo era generado en tiempo real

con la inteligencia artificial. No sé, tú le ves futuro a esta tendencia. A mí me divierte mucho, me divierte mucho. Y ahora también hay una tendencia que no sé si la has visto, que es replicar la voz de, por ejemplo, narradores históricos de deportes en Argentina, por ejemplo, y utilizan esa voz para narrar los vídeos más estrapóticos que puedas imaginar. A mí, estas tendencias me encantan. No sé qué pensará el dueño de la voz,

pero había estas tendencias, me gustan mucho. Y, por supuesto, que los shows generados por IA, ya sean podcast, series o deep fakes como este último, yo creo que dependerá del resultado nuevamente, pero tienen su público. Sí, sí, sí. Bueno, están saliendo los proyectos muy bien. El último, Matías, a ver, te lo lanzo. La agencia de modelos virtuales, ¿vale? DeepAgency ofrece servicio de estudio fotográfico virtual,

con tecnología de la E, de inteligencia artificial, para obtener fotos profesionales sin salir de casa. Contrata modelos virtuales y crea un gemelo virtual con una avatar que se parezca a ti. Eleva tu juego fotográfico y diga a ti o a las sesiones de fotos tradicionales. Atención, Matías, porque llegamos meses anticipando. Oye, la IA viene por el trabajo o va a hacer muchas tareas de listos, ¿no? De creativos, de consultores, ¿no?

La información va a haber una gran agitación en el contenido. Pero, ahora la IA viene por los guapos, Matías. Es decir, si estás bueno, si estás buena, ya no puedes confiar en tu físico y en tu atractivo para ganarte la vida. Esto es terrible, Matías. Sí, bueno, han mejorado tanto. ¿Tú te acuerdas de las campañas de bots falsos en Twitter que todos tenían la misma cara generada por IA o mirando de frente que pareció una foto de carné?

¿Han mejorado tanto la generación de fotos realistas de personas que, bueno, hasta la gente guapa corre peligro? Y bueno, también ofrecen servicios. He estado mirando antes, he estado hichando Teslawebs. También ofrecen servicios para modelos reales para mandar fotos más convincentes a las agencias de modelos. Y bueno, Mati, antes de que terminemos, nos quedan cinco minutos de podcast. Creo que hay que hablar de Meta, de Llamas, de Mark Zuckerberg, Matías.

Pero a ver, es que Mark Zuckerberg quiere tener su protagonismo después de las cagadas del metaverso. Y desde estas noticias de que iban a invertir no sé cuántos miles de millones en el metaverso, ahora están pivotando a la IA de una forma aceleradísima. Sí, él puso un post en su Facebook, él comunica mucho por ahí, que dicen que están reuniendo a todos los equipos en IA para juntarlos y hacer ahí el Dream Team

de la IA generativa dentro de Facebook. En el que a corto plazo habrá herramientas creativas y expresivas. Pero a largo plazo se centrarán en desarrollar personas con IA que pueden ayudar a la gente de diversas maneras, Matías. Experiencias con texto, como el chat de WhatsApp, el Messenger de Facebook, con imágenes, con los filtros creativos de Instagram, también en formatos publicitarios y con vídeos

y, por supuesto, experiencias multimodales. Claro, ¿sabes qué dice? Yo me equivoqué de camino, ¿no? Cuando viaja mucha gente junto en coche, se encabezó en qué era por el otro lado, se da cuenta de que todo el mundo va más rápido y ahora tiene que pisar el acelerador. Me tengo que pasar etapas y etapas y ponerme ya multimodal porque si no, no, me comen. Tenemos que empezar a ser más multimodales con el podcast

porque está claro que es el futuro. Bueno, en todo caso hay una cosa muy interesante de Facebook que publicaron un modelo que es prácticamente una alternativa a GPT-3 o GPT-35 que se llamaba llama. Se llama llama, ¿vale? Bueno, esta llama... Me gusta cuando ponen nombres divertidos a las cosas, pero se están agotando ya, ¿eh? Sí, sí, sí.

Bueno, el caso es que llama, pues, de nuevo, es tenés multimodal, procesamiento de lenguaje natural, texto y la idea de Facebook ha sido pues no montar un chat GPT y no ofrecer un API, sino darlo libremente a investigadores para que el resto de investigación en todo el mundo pueda seguir avanzando y no... Tenga una herramienta que sólo una gran compañía como Facebook ha sido capaz de generar. Lo interesante, claro, es que este llama inmediatamente se ha filtrado.

¿Por qué? Porque tú tenías un correo.edu y ya a Facebook te dice a tomar el modelo, tira pa'lante. Claro, pues, inmediatamente, torre en Facebook, ha empezado a distribuirse y ha empezado a formarse un proyecto muy curioso que es, bueno, este modelo está bastante bien optimizado con respecto a GPT3 y hay gente, hay distintos tamaños del modelo, técnicamente más complicado, ¿no? Pero digamos que hay versiones del modelo

más reducidas que se pueden instalar en local. Y hay mucha gente que está instalando llamas en sus ordenados Windows, Linux, en Mac y que, de alguna manera dicen que está dando un rendimiento estas versiones instalables en local parecido al DaVinci 3 de OpenAI, es decir, estaría al nivel de hace un año OpenAI, y que de alguna manera, claro, como además estos modelos permiten embeddings, merge, permiten una serie de

mezclas, modificaciones, etcétera, estamos en un momento un poco estable difusión de los modelos generativos, modelos grandes de lenguaje gracias a que Facebook ha sido generoso, repartiendo llamas, y de repente se nos acerca un horizonte en el que, oye, estos modelos no son cosas sólo que haremos a través de API o a través de internet, sino que en ordenadores y portátiles actuales que tenemos en casa, vamos a poder

ser capaces de ejecutarlos, ¿no? Lo cual es, yo creo que un cambio y una noticia potente, Mati. Sí, potente a nivel de privacidad y a nivel de lo que veníamos comentando en los últimos episodios que existen, centralizas todo a través de la visión de una compañía como OpenEye, pues va a ser una... los filtros de censura, etcétera, van a estar sesgados, pues, de acuerdo a lo que lo pices a compañía. En local, pues te da mucho, mucho más juego.

Además, tenemos procesadores ya muy especializados en inteligencia artificial, o sea, no procesadores, sino sistemas en chip con sus motores neuronales en nuestros móviles, que ya no se irán permitiendo procesar estos modelos.

Y que eso de tener un estabil difusión y un chagapete en local, en el móvil, en dos o tres años, Mati, yo creo que está ahí, está ahí, y creo que puede ser, al final, llámame desconfiado diciendo, ¿y si Zuckerberg y Lecun y toda esta gente de Facebook dice, ¿cómo pudimos joder a OpenEye, ¿no? Que no están vacilando los chavales estos, ¿no? Que es, ellos montan un negocio a partir de la API, la clave de OpenEye ahora

mismo es, usa las APIs, usa a través de Microsoft, a través nuestra, cada vez que se monta una aplicación, pues necesitas tal. Pero, sí, de repente, ahora mismo no lo permiten por licencia, esto solo se puede usarte la licencia complicada, pero solo con fines investigadores, educativos, etcétera. Pero si Meta dice, venga, os dejo usarlo a todo el mundo, de repente, tú eres una startup, dice ¿qué uso? El modelo gratis

de Facebook ejecutándolo o me gaste una pasta en que cada usuario me cuesta dinero porque le tengo que pagar la API a OpenEye. Pues, una manera de, oye, voy a joder, perdón la expresión, ¿no? Voy a fastidiar a OpenEye, podría ser este camino.

Entonces, bueno, yo se llámame desconfiado, llámame que no creo en las casualidades, creo que por ahí puede haber también algo de vamos a tantear este camino, ¿eh? Muy interesante, aunque bueno, también es cierto que Facebook no tiene, no desarrolla hardware, aparte de las Oculus, etcétera.

Y, por ejemplo, Apple que está como muy en silencio en todo este mundo de la de la IA tiene los procesadores con, para móviles más potentes y también ahora con los Apple Silicon también en el escritorio y Google, igual que tiene sus TPUs en el móvil, tiene sus procesadores tensores, también muy enfocados en inteligencia artificial.

Entonces, aparte de para startups, yo veo que para usuarios finales la posibilidad de ejecutar estos modelos en hardware también pone a Apple o a Google como actores importantes frente a Facebook, ¿no? Pues, Matías, estando muy de acuerdo contigo, creo que hay un momento de cerrar, pero no sin antes la hot take porque lo habíamos prometido de la audiencia necesitamos agitar el podcast, necesitamos que esto pase a otro nivel

encender la llama en el debate de la IA y yo te voy a decir la mía, ¿no? Si tú tienes una o la quieres guardar para el próximo capítulo, aquí va la mía atención Matías, ¿eh? Agárrate bien a la silla atención el aprendizaje reforzado con feedback humano, ¿eh? atención, esto que estáis vendiendo ahora en realidad es un regreso al aprendizaje supervisado fin de la fiesta lo llevo dos semanas pensando, Matías

claro Matías, me has dejado el colocado no sé yo si conseguiremos encender las redes con este ranch te voy a tener que pensarme mi hot take para la semana que viene claro, es que van de moderno es que el D-Learn, que ya no es supervisado pero, ah, de repente me metes en una fase supervisada por humanos, ¿no? pues eso es supervisado estás volviendo atrás tanto como me veas prometido ahí lo des con ese hot take cerramos el episodio número 9

de monos estocásticos gracias a todos los que nos oís todas las semanas y volvemos la semana que viene con un episodio nuevo con muchas más noticias con muchos más hot takes y con muchos más startups que van a ir a parar a la enfermería porque esta semana han sido muchas puertas grandes sí hasta la próxima ¡Suscríbete!

Episodios recientes

Programas relacionados