Ahora sí están vendiendo nuestros datos, esto es la guerra.

OpenAI transcribió más de un millón de horas de videos de YouTube para entrenar GPT-4

Hemos leído a nuestros compañeros Paréntesis Media todo lo que Adobe está implementando con IA generativa de vídeo en Premiere Pro https://www.parentesis.media/adobe-premiere-pro-inteligencia-artificial-generativa/

La IA "ética" Firefly de Adobe fue entrenada con imágenes de medio viaje

El pin de Humane no recibe muy buenas reviews

Experiencia de Antonio de las gafas Rayban de Meta y conociendo a Yann LeCun

Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com

Transcripción


Hola a

todos los monos estocásticos, el mejor podcast de inteligencia artificial. Según Jean L'Hecun, amigo personal de Antonio Ortiz, luego hablaremos. Antonio, ¿cómo estás?

He tenido una visión, Matías. ¿Qué pasó? ¿Se unen se unen los puntos? ¿Todo empieza a cobrarte sentido de alguna manera, Mati. Te lo voy a explicar, vamos a ver.

Ara eres experto en eclipses, algo que a lo mejor algún algún oyente todavía no no sabe de tu nuevo área de de conocimiento, pero Matías, ese punto, Zabia, es experto en eclipses

Le cogías tan poco de tirbia de tanto escribir del eclipse.

Y en en ChattaCab punto com han explicado que en dos mil veintiséis se viene el el gran eclipse de que que veremos en España, en algunas zonas mejor que en otras. Yo me he fijado en la parte de Soria. ¿No? Entonces, tenemos Soria, María, experto en ICS, y experto en inteligencia artificial. Mi propuesta es, solo en el caso de que, yo creo que ahí hay un pequeño porcentaje de que es verdad que los apocalípticos de la IA tengan razón, Matti, habría que tener un plan b, y mi plan b es el siguiente, tú en dos mil veintiséis Sí.

Es el eclipse, tú como experto en IA y en eclipses, engendras un descendiente para que dentro

de gente A a ritual maya, de repente.

Claro, para que dentro de veinte años,

un Soriano, hijo tuyo, Nacido de un eclipse.

Nacido durante el eclipse, lidera la humanidad en su lucha de contra los robots que se revelan y y gane la la humanidad. Todo encaja en mi cabeza, Matías. ¿Cómo lo es?

No, suena el argumento de, pues, de la mejor película de ciencia ficción de de la década, y yo siempre estoy dispuesto a intentar concebir un hijo, así que sea en Soria, sea en Cuenca. Bueno, nuestra amiga Dell punto Ia estaba por ahí, ¿no? Pues voy a voy

a ir

voy a ir intentando reservar un un Airbnb de estos. Vamos con las novedades de esta semana. Esto, tenemos un guion tan denso. Es que el episodio con con Ainara Legardón fue buenísimo, todo el mundo nos lo ha dicho, pero se van acumulando las noticias con el tiempo, con las semanas, y hoy tenemos un guion denso, denso, denso, denso como los data sets con los que entrenan las inteligencias artificiales, tema polémico.

Sí, tema polémico y tema nuclear este año, el que viene, porque son varios varios los puntos de vista y los factores que que que confluyen aquí, porque, bueno, por un lado tenemos un nuevo mercado de negocio para las grandes plataformas de contenido y los medios de comunicación. ¿Tú te acuerdas eso que que se convirtió en un lugar común a pesar de su falsedad de que Facebook es que vende tus datos, Twitter es que vende tus datos. En realidad, esta esta plataforma, las redes sociales, nunca han vendido tus datos, lo que vendían y siguen vendiendo es el acceso a ti y a tu atención en función de todos los datos que tienen sobre ti para una publicidad súper segmentada y súper efectiva. Pero claro, el negocio de Facebook que cada vez que alguien que quiera acceder a ti pague, no vender tus datos una vez y fin, ¿no? Claro, ahora sí es verdad que hay plataformas vendiendo tus datos.

Ahora, por fin, sí

es cierto, así que No lo había pensado.

Sí, claro, porque hay que hay que ver un montón de gente que se está metiendo en esta carrera. Reddit, que llegó al acuerdo con Google, Tumblr y WordPress, que que van juntos de la mano porque WordPress compró Tumblr, Photobucket ha ha anunciado también que está ahí. Entonces, claro, toda esta gente que está sentada en una pila de millones de datos acumuladas durante los años, pues vende esos veinte años de de contenido a las empresas de entrenamiento de inteligencia artificial que están hambrientas hambrientas de de de de nuevos datos.

Claro, pero es que ahora yo te imagino como un loco en medio del, no sé, de Wall Street o de alguna calle diciendo, están vendiendo nuestros datos y la gente que pasa por tu lado, sí, sí, ya ya sabemos de Cambridge Analytica, sí, no no es una novedad esto. Y tú, no, no, pero ahora es verdad,

ahora están vendiendo nuestros datos. Y claro, la gente ya no está alarmada. Algo así, ¿no? Claro, porque aquí influyen dos cosas, Matti. Una es, bueno, luego hablaremos, porque estas plataformas, a la vez, lo que venden en parte es que sus sus datos actuales, sus contenidos, por decirlo, mejor dicho, ¿no?

Porque datos suena aparece a tu teléfono y tu correo electrónico, ¿no? Los contenidos. Claro, el histórico es cien por cien humano, pero poco a poco todas se están llenando de contenidos de guía. Esto, claro, crea ese pequeño dilema, que luego veremos con con detalle en los últimos modelos presentados, de que qué pasa si si estos datos sintéticos son son los que priman en el entrenamiento de una inteligencia artificial? Y por otro lado está el punto de vista de de negocio de Internet, es decir, tú vendes esos contenidos de de de los últimos veinte años y de repente no estás cavando un poco tu propia tumba porque esto es un, bueno, los los anglosadores dicen un one off, ¿no?

Es decir, lo haces una vez y listo. Con matices porque, claro, cada año se generan nuevos contenidos y puedes seguir intentando venderlo, pero, de alguna manera, estás entregando ese ese patrimonio que has acumulado y que, digamos, las IAs pueden capitalizar y poner en valor y, de alguna manera, en algún momento competir contigo, ¿no?

Oye, leemos algunos precios por los que compran las imágenes y los vídeos, me parece interesante. Por ejemplo, foto bucket y Shutter stock pagan entre cinco céntimos y un dólar por foto, un poco más en el caso de los vídeos. Bueno, pues ese baremos un poco entre uno y dos dólares por imagen, dos y cuatro dólares por vídeo, hasta trescientos dólares por películas, por por por cada hora de de película, que ahora van a empezar a salir, ya lo hemos visto con Adobe y lo comentaremos, modelos generadores de vídeos que son una una absoluta locura, pues esto también han tenido que pagar para poder entrenarlo, ¿no?

A mí lo que me llama la atención del del reportaje de routers, que que es el de donde hemos tomado estos datos, es que por las imágenes normales, uno o dos dólares, como dice, imágenes con desnudo de cinco a siete dólares. Se ve donde está el negocio, Se ve dónde está el mercado ya desde aquí, Tiene mensajes de gente en pelotas, pues cobras el triple o cinco cinco veces, es una cosa tremenda. Bueno, hablando de gente que que que toma muchos datos para entrenar esos modelos, ya mencionamos la polémica de que OpenEI había hecho una jugada o, bueno, se ha se ha confirmado y y y de alguna manera, pues se ha se ha reafirmado algo que estaba en los mentideros de la inteligencia artificial de Almatic, que es que OpenAI había hecho la tres catorce de indexar los vídeos de YouTube, whispearlos, qué horror de expresión, usar Whisper, que es una herramienta que pasa de audio a texto, y con esos textos entrará a GPT cuatro.

Esto, Antonio, te juro que lo inventé yo. Esto me lo han copiado, esta idea me la han copiado, porque YouTube, igual lo que lo que voy a decir suena a a que soy un imbécil, pero en YouTube se hace mucho del mejor contenido de Internet, y y hay vida más allá de Mister Beast entregando millones de dólares, y lo que pasa es que es un contenido mucho más inaccesible para mí, que siempre tengo prisas por por repasar, pues, cualquier tema, ¿no? Entonces, lo que hago siempre es coger la transcripción de YouTube, que se automática y la puedes copiar y pegar, le quitas el time stamp, le quitas lo lo los segundos en lo que en los que sale cada parte del diálogo, se lo chutas a chat GPT, ahora que tiene la ventana de contexto súper grande, no hay ningún problema y le pides que te que te extraiga los puntos importantes. Pues yo ya estaba de alguna forma aprovechándome de ese ese gris legal de YouTube, pero parece que esta gente ahora se puede meter en un problema, ¿no?

Yo creo que esto que tú dices es un gran consuelo para humanidad, porque si tú estás a este nivel por delante de de los estándares de inteligencia artificial, tu descendiente soriano engendrado en en Eclipse no, no va a liderar claramente la lucha. Bueno, a mí lo que me llama la atención de de todo esto de YouTube es que el, digamos que el el director ejecutivo de YouTube, se llama Neil Moan, claro, él dice, no no puedo confirmar esto de que OpenEye no no has nos ha scrapeado los vídeos, pero dice que si lo hubieran hecho, esto es una clara violación de la política, de los términos y condiciones de YouTube. Tienen tiene un poco, bueno, le echa un poco de cara, yo creo, que el amigo el amigo Moan, porque, claro, los Jemini de Google y todos los modelos suyos han hecho lo que han querido con el Internet abierto, con los contenidos también con copyright, y no sé si se han leído los términos y condiciones de cada site de los que han tomado tomado sus datos, pero pero bueno, yo creo que yo creo que lo tiene que decir con la boca pequeñita, ¿no?

Es decir, mira, qué hard de upper, esto es como el acerillo de Tormes, básicamente, Está todo escrito.

Sí, pero vamos a ponernos desde el punto de vista de los YouTubers, que nosotros humildemente también somos YouTubers, aparte de podcasters, publicamos en YouTube. Esto está OpenAI por detrás, que transcribiendo con Whisper nuestras conversaciones, las que tenemos aquí mientras grabamos, y entrenando sus modelos, porque no vemos nosotros tampoco un duro por eso, si somos los creadores del contenido.

Sí, sí, ese es el el el dilema antiguo de que que en algún documento sobre socialización y ética inteligencia artificial hemos reflejado que que que está es como el pecado original de de toda la guía moderna, pero que puede, atención, atentos durante todo el capítulo, puede ser esquivado a medio plazo, vamos a ver cómo. Quien decía que lo había esquivado y es tus amigos de de Adobe. Ellos decían que, claro, Firefly, su modelo de generación de imágenes, era más ético que estaba el Diffusion, que Midjourney, que tal y, porque estaba a salvo de haber cogido contenidos por ahí de Internet de cualquiera, ¿no? Entonces, yo decía, nosotros solo usamos nuestra nuestras imágenes con licencia de nuestro propio stock, y con eso hemos entrenado Firefly y mirad qué qué bonito y qué bien nos ha quedado. Claro, eso eso es, no toda la verdad, Matías.

En en Blumber han sacado un reportaje, que es que, al igual que otros otros modelos, Firefly de Adobe se entrenó también con imágenes generadas por Midjourney, es decir, por imágenes sintéticas y por, digamos, el contenido de otra inteligencia artificial, la que, en mi opinión, tiene ahora mismo mejor nivel a la hora de generar fotos, imágenes, etcétera.

Claro, y además que, a su vez Midjourney no tiene estos principios éticos de Firefly y a lo mejor en su base de datos, en el el el dataset del entrenamiento, sí hay imágenes que pueden tener copyright. Entonces, al final, no, ¿Esto cómo cómo sería? ¿Cómo robar a un ladrón?

Sí, eso está, espérate, en nuestra charla de las gae cuando preguntamos a Andy, que subió al escenario, si alguno quiere profundizar, pues, puede volver a aquel aquel episodio, según Andy, que nos explicaba que en la doctrina del derecho norteamericano imperaba una suerte, y perdón por usar otra vez el recurso, de pecado original, que es que si el el la primera generativa está, utiliza contenidos con copyright y eso supusiera, que está por ver en Estados Unidos, están ganando los primeros juicios, si eso supusiera que cometen alguna infracción, delito, etcétera, pues los modelos subsiguientes, aunque estén entrenados en datos sintéticos de la generaciones anteriores, también incurrirían en el mismo en en la misma ilegalidad o incorrección, ¿no? Entonces, Adobe no se libraría por este principio, esta trampa que nos hizo. Adobe decía, no lo hemos entrenado con contenido basado en propiedad intelectual de personas o marcas. Claro, Adobe decía esto muy civilinamente y todos entendimos, claro, no, no han usado nada. Como las imágenes generadas por Midjourney al front directo no pueden, digamos, ser registrada como autoría humana, pues han han hecho esa esa esa trampa, ¿no?

De todas maneras, yo creo que han visto la oreja del lobo y están ya sacando la chequera, creo que es la tendencia ahora en que las empresas que quieren crear modelo de inteligencia artificial están empezando a comprar contenidos, como vimos antes, y están empezando a comprar vídeo, vídeo, vídeo, todo el que a todo

el que tenga. Sí, lo avanzamos antes, es una de las grandes noticias de Adobe de esta semana o de estas semanas, que es que apuesta por la guía de vídeo también, la guía generativa de vídeo en Premiere. O sea, la IA generativa de imágenes Firefly está ya en Photoshop

y yo

la usaba hasta que empezaron a cobrarme el precio en euros, la usaba para las miniaturas de monos estocásticos, pues ahora la van a integrar también en Premier. Sacaron un vídeo muy chulo, una especie de tráiler de película en el que iban cambiando, abría el el protagonista de la película un maletín y cambiaban, no me acuerdo si era el dinero por diamantes o una cantidad pequeña de diamantes por una cantidad grande de diamantes, bueno, era bastante impresionante, sabemos que en estos vídeos se hace mucho cherry picking, pero leemos en paréntesis media, mencionamos de nuevo a paréntesis media que es medio colaborador de inteligencia artificial de monos estocásticos y que están al día de todas las noticias y, además, tienen la newsletter diaria que es muy recomendable, pues leemos en paréntesis media que Adobe también tiene esa filosofía de pagar a los artistas, en este caso, tres dólares por minuto de metraje de vídeo para entrenar la IA generativa de vídeo que han implementado en Premiere.

Sí, la de Premiere Pro merece la pena ver un poco los los ejemplos porque están bastante chulos. A mí lo que, bueno, se explican en en paréntesis, pero que también creo que que hay que reforzar. Yo creo que no es tanto lo interesante con las herramientas actuales que creen de la nada el vídeo, cómo la capacidad, y esto en primer prio se ve muy muy muy guay los ejemplos que han publicado, la capacidad de ser una gran editora, que de repente, pues lo que has grabado le puedes añadir, le puedes quitar, puedes modificar fragmentos pequeños dentro del vídeo y te mantiene la consistencia de eso que has cambiado durante los frames, ese es el verdadero valor de la IA en un editor de vídeo como como Premiere Pro. Lo dicho, lo que han lo que han enseñado hay cherry picking, es decir, los ejemplos más vistosos, pero, bueno,

espectaculares. Es

decir, si si consiguen eso, yo creo que que ponen un montón de efectos y de capacidad de narrativas que estaban solo al al alcance de de súper profesionales y de gente con CGI a editores también técnicos y profesionales, pero pero, digamos, con menos presupuesto.

Para mí es súper reconfortante, porque yo hice, pues, mis pinitos con la edición de imágenes, pero a nivel de vídeo nunca pasé del Premier al after effects. Nunca supe hacer, pero absolutamente nada con un croma ni con ningún efecto visual, y ahora lo lo puedo hacer con un promt. O sea, he ahorrado un montón de tiempo de aprendizaje y de formación.

Nuestro nivel en vídeo es evidente a todos los que se han asomado de YouTube, Mati, no hace falta que Bueno, por otras razones, por ejemplo, no

me limpio las gafas y se ven todos los reflejos de la pantalla, pedimos disculpas a la gente que nos ve en vídeo, la verdad. Mejoraremos la temporada que viene, pero pero

¿Se se vienen cositas la temporada que viene en vídeo? Decimos esto todos los años. Bueno, un ejemplo de de la guerra por los datos, tenemos el lanzamiento de una startup que se llama AirChat. AirChat, bueno, es otro nuevo intento. ¿Cómo se llamaba aquella aplicación de de salas de audio?

¿Club House? Sí, Club House. Club House. AirChat es un pariente de de Club House que, bueno, está lanzado por Naval Ravikan y Brian Norgar, que fue jefe de producto en Tinder, o sea, que, bueno, son gente potente, ¿no? Y sale mucho en George Rock, bueno, no sé.

El caso es que yo yo lo he probado, me invitaron a, un usuario me me me mandó una invitación que me me he metido un poco, pero la verdad que no no la he usado mucho, es como una como una súper sala de de chateo con audio y contexto, etcétera. Pero lo lo interesante está en los términos y condiciones, Mati, porque, atención, al utilizar la aplicación, le concedes una licencia no exclusiva, mundial, exenta de cánones, perpetua, irrevocable y totalmente sublicenciable para utilizar, reproducir, archivar, editar, traducir, crear obras derivadas, poner a disposición, distribuir, vender, mostrar, ejecutar, transmitir y difundir y explotar, de cualquier otra forma, los envíos del usuario. Es decir, las nuevas startups que jueguen con contenido, conversaciones, audio, tienen ya clarísimo que mira, todo lo que me des puede hacer lo que me dé la real gana, porque sobre todo, aunque no haga negocio aquí, si vendo tus conversaciones va a haber una OpenEye, una Google, una x, una Anthropic que me que me pague por estos datos.

Bueno, primero enhorabuena porque has leído como Eminem de rápido. Luego, aparte de los términos de condición y condiciones, ya no me llamaba para nada la atención la aplicación, y un logo horrible, etcétera. Pero es que luego, el señor este naval, que es famoso en Twitter por sus tweets filosóficos, en dos mil dieciséis tuiteaba, el texto, es decir, los mensajes de texto son precisos, compactos, indexables, transmisibles, traducibles, asíncronos, rápidos de absorber, la gente inteligente y ocupada prefiere el texto. ¿Y ahora me estás diciendo que en dos mil veinticuatro lanza una aplicación de hablar por voz? Eso es fallar a los principios.

Está aumentando el mercado, gente inteligente como él, prefiere el texto, pero como como estamos los demás, pues, ¿no? Estos loritos parlantes de subhumanos que que me rodean, pues algo tendrían que hacer. Bueno, en fin. Cambiamos de tercio. Mati, ¿por qué nuestros amigos de Umane, nuestros amigos de IUmane no han tenido sus su mejor semana, Matías?

Bueno, este tema me hizo mucha gracia, de verdad. Entiendo que entregaron un AIPIN a muchos de los reviews más famosos de de Estados Unidos, y salieron al mismo tiempo todas las reviews, y en general fueron bastante bastante malas, pero entre todas ellas destacó la de Marqués Brownley, ya sabéis que es el youtuber de tecnología más más grande que hay, que el vídeo se titulaba el peor producto que he analizado nunca, o sea, los mató, literalmente. Un poco duro ahí, Márquez Brownley.

Un poco, un poco. Mi impresión es Bueno, no sé, no sé, sí, sí, sí que tú, Mati, porque mi impresión, a mí no me gustan los registros tan extremistas, ¿vale? Yo soy un moderatito y y me gusta que me digamos, no viene digamos, no viene de la época de los medios de comunicación tradicionales ni de la bloggosfera, sino que las plataformas, los mensajes más extremos generan más interacciones, y generar más interacciones, tienen más visibilidad. Entonces, creo que Browley es un tío que curra muy bien, que es que es riguroso, pero que tiene una tendencia en los últimos tiempos a a mensajes muy extremos que a mí me dejan un poco un poco fuera. Esa esta es mi visión, ¿vale?

Que sin querer defender el pin de de Humane, que que, bueno, ya lo dijimos, que las posibilidades eran muy pocas y que yo creo que tiene dos dos dos problemas fundamentales. Uno, que la tecnología no está para el nivel que ellos, de lo que ellos quieren, sino está a la altura de la visión ya muy pronto, es decir, todo todas las alucinaciones, el lag, los problemas con la multimodalidad por la complejidad del mundo y lo que puedes capturar, todo eso ya per se era era difícil de creer que que esa visión de tener un compañero en la solapa que fuera súper inteligente, súper preciso y súper rápido, no se iba a dar, ¿no? Y el otro problema es que creo que la gente, creo que viven en un mundo de fantasía en que la gente quiere dejar el teléfono móvil, y yo no creo que eso esté sucediendo, la gente, me voy a decir la palabra adicta, pero estamos súper ligados y súper enganchados a las chutes de dopamina de nuestro teléfono y realmente no lo queremos dejar, no lo queremos dejar, no es verdad.

Sí, no, esto, pues hay un paralelismo muy claro con los altavoces inteligentes que tuvieron una época de superpopularidad e intentaron meterles usos que nadie ha acabado usando como comprar productos en Amazon. ¿Quién va a preferir hacerlo a través a través de un altavoz que hacerlo con el móvil? Pues exactamente lo mismo pasa con el AIPink, que por si alguien anda perdido, es lo que dice Antonio, te pones en la solapa un dispositivo cuadrado con una cámara y el este dispositivo puede ver lo que tienes a tu alrededor y responder preguntas sobre lo que está viendo con inteligencia artificial. Pero claro, hay una latencia tan grande que Marqués Brownie en el vídeo lo lo demuestra, te se pone delante de un cibertrack de Tesla, le pregunta a la Jipping qué es lo que estoy viendo, y en los quince segundos o o más que tarda en responder, Markett ya saca el móvil, le hace una foto con Google Lens y obtiene que es eso, que es un cibertruck. Entonces, ¿qué estamos intentando reemplazar?

Si tenemos que hacerlo mejor, y no sé si esto no va a funcionar hasta que haya modelos que se ejecuten en local, porque si no siempre va a haber una latencia. ¿No?

Sí, sí, esa es la gran pregunta. Es decir, el problema es de haber llegado demasiado pronto, la tecnología no está preparada, o el problema es meramente conceptual. Yo estoy un poco que en que son las dos cosas a la vez, ¿no? Es decir, con un modelo mucho más rápido, con menos alucinaciones, entonces, la visión de producto está correcta, es es la adecuada y por ahí vamos. Ahí lo comentasteis también en en Chataca, ¿no?

Es decir, algo algo así supongo que será lo que piensa Johnny Eyeff y Sang Alman cuando están preparando algo. En fin, que que yo creo que lo de IUmane se han gastado un montón de pasta, supongo que habrán cogido dos o tres patentes, porque es verdad que técnicamente hay muchas cosas muy meritorias en ese cacharrito, pero que, desde el punto de vista del valor para el usuario, yo creo que ahora mismo no lo hay. Y esto te lo voy a cruzar con que vamos a empezar a hablar de mi viaje a París, Matías, porque estuve con, bueno, ya lo contamos, nuestros amigos de Meta nos han invitado al evento de inteligencia artificial, al road show de de Jean Lecoon y Joel y compañía, y que bueno, nos tengo un montón de contenido que voy a desuificar por capítulos. Matty, vale, porque no queremos ser muy braces.

Yo tengo aquí una queja, porque cuando la gente escribe a monos estocásticos, Meta decide escribirle a Antonio y y cuando me escriben a mí, ayer me escribió un chico, me dijo, hola, soy youtuber experto en IA, ¿te quieres venir a mi canal para para hablar de no sé qué? Y el hace una semana me escribió la CNT el el

sindicato, el

sindicato para para para un evento. Y a ti te escribe meta, ¿por qué por qué esa diferenciación?

Yo tengo una una hipótesis, que aquí la la la la gente que escucha mono esto caótico puede opinar. Yo creo que tú eres el que cae bien, Mario. Entonces, para cosas de guisar moquetas, pues me llaman a mí, ¿no? Es decir, alguien que sea como un señor mayor que queda aquí bien y tal, y que en cosas del señor mayor, pues. Entonces, me llaman Antonio.

Yo creo que esa esa es la gran división de cómo tenemos que repartir toda la representación de de monos esto, Katia.

Muy bien, estuviste en París con Meta. Tengo que decir, un evento rarito, porque fue días antes de un bombazo en meta del que hablaremos más más adelante, y nos presentaron, en realidad, cosas que ya sabíamos,

¿no? Sí. Había dos líneas importantes en el evento, una era el discurso y el enfoque y la visión de meta artificial, eso lo veremos la semana que viene, porque ahí hay muchísimo que que rascar. Y otra es que, bueno, pudimos entrevistar a a Popes de la inteligencia artificial de la empresa, y también probar, ya que estamos hablando del pin Dimen y de hardware y de dispositivos de guía, probamos las gafas, las smart plassis que tiene Meta con

con Raiba. Ya tengo miniatura para YouTube esta semana, por supuesto. Voy a guardar como guardar imagen como, Ya está.

Sí, sí, sí. En LinkedIn hice una mini preview, una una mini review, perdón, de de mi experiencia con las gafas de meta, que ya os puedo adelantar, me gustaron bastante más de lo que esperaba. Yo, bueno, iba un poco escéptico porque me marcó la Google Glass, sobre todo me marcó una foto de de Robert Scowell, que era un un personaje famoso en el mundo de la tecnología en aquel momento, en la ducha con la Google Glass, y dije, creo que que creo que esta ola tecnológica me la había saltado.

Un antes y un después, y tú dijiste, no, en la tecnología hay que

ser moderado, no, no nadie. Bueno, entonces, al final, ya más racional y decir, bueno, voy a dar oportunidades tecnológicas, pero no me haré fotos en la ducha, ¿vale? Por por una síntesis de ambas posturas, ¿no? Bueno, el caso es que son unas gafas gafas, es decir, no son un artefacto tecnológico para llamar la atención de mirarme a mí, soy un cyborg, ¿no? Son unas rayband WiFi fire normales, corrientes, que a lo mejor pesan un pelín más, que van circuetería por dentro, pero que son gafas de vestir.

Entonces, la lo los gafotas, pues, tenemos aquí una una opción, ¿no? Porque también se pueden se pueden graduar. ¿Para qué sirven? Pues, básicamente, tienen muy pocas funciones, pero lo importante, Matty, y aquí es el reverso de un pin del pin de Humane, las pocas cosas que hacen, las hacen muy bien. Es decir, por un lado, tienes la posibilidad de grabar fotos y vídeos y, sobre todo en vídeo, lo hace bastante estabilizado, que que a mí me sorprendió.

Las fotos creo que eran doce megapíxeles, tiene una calidad moderada, pero bueno, es que es que la cámara es invisible, ¿no? Es que es una cosa te tengo que

decir, yo yo he visto muchos ejemplos de esto porque yo he estado muy tentado y sigo tentado de comprarla, y no es para nada mal vídeo. O O sea, hace vídeo muy chulo y, por supuesto, desde un punto de vista que al que no estamos acostumbrados, que es tus ojos, porque las GoPro o te la pones en la cabeza o hay gente loca que la lleva en la boca, pero generalmente no están desde tu punto de vista exacto, y esto es chulísimo, chulísimo, muy chulo la el resultado.

Claro, y además, claro que que hay que poner muchos tweets y muchos Instagram de pond of view, ¿no? Tienes que ponerlos así, si no estás fuera, Mati. Bueno, yo he encontrado un caso de uso que a mí me convence mucho. Te lo voy a contar. Tú sabes que a mí lo que me gusta es hacer fotografías del paseo marítimo.

Sí. Yo, básicamente, pues paseo mucho aquí por por el paseo marítimo de la misericordia en Málaga.

En tu red social favorita, WhatsApp status.

Claro. Y el camino de de Sacabah huele, pues, es es como mi mi mi París del siglo diecinueve, ¿no? Es como ahí donde yo me me explayo creativamente y hago muchas fotos. Pero últimamente no, Mati, últimamente es que voy corriendo. Y entonces, cuando corres, pues te da coraje pararte, hacer fotos, porque pierdes el ritmo, lo las marcas ya no no no van bien, la la las zonas de las pulsaciones, pues se te se te trastocan, ¿no?

Entonces, claro, he perdido mucho de la de la fotografía. Pero claro, si llevara las gafas de Raymond mientras corro, las gafas de meta, pues podría hacer fotos, porque, pues, se interactúa con la voz, se interactúa con físicamente, digo, no, Entonces, ahí podría conciliar mis dos grandes pasiones actuales, ¿no? Que es el el deporte con la fotografía del pasión marítimo.

Me parece fantástico. Hacemos un crowdfunding para que vuelvas a a subir fotos del paseo marítimo, que se echan bastante de menos. Da alegría por la mañana ver ese esa misericordia ahí con el con el

mar Y eso es amanecer. El mar. Sí, sí. Bueno, más cositas de la gafa. Están metiendo ahora, justo ahora, desplegando el asistente de las gafas, es decir, son unas gafas que están conectadas al móvil, el envío de las imágenes y los vídeos se se produce al teléfono, y en él, a través de él, llega el asistente.

De momento, solo en inglés, de momento solo responde a preguntas muy básicas, creo que tienen un modelo más de los pequeñitos de llama dos o de los pequeñitos de llama tres, seguramente, luego lo lo discutiremos, funcionando por detrás y que, bueno, es que está integrado en las gafas, que puedes charlar con tus gafas, Mati. Es decir, no tienes que llevar un pin de Hume como algo adicional que, atención, no hemos mencionado la gran crítica de Javier Lacor. Es que si te plancha la camiseta o te plancha la camiseta, te hace arrodilla. ¿Te acuerdas que lo dijo? Sí.

Es que me acordaba porque Javier Lacort tuvo también, este, netamente énfasis. Entonces, mi impresión es que este es un camino que veo más fértil, por dos cosas. Uno, porque no, está natural, por lo menos para los los que tenemos gafas está natural, también tiene el modelo gafas de sol, y dos, porque creo que el sacármenos el móvil es algo que tenemos que descubrir. Es decir, si yo empiezo a ir con las gafas y empiezo a que, oye, para fotos y vídeos no tengo que sacar el móvil, Oye, que para una consulta rápida no tengo que sacar el móvil. Creo que ese camino es posible frente a, no, deja ya el móvil del cero del cien al cero, llévate a este Torcacharro y habla con él.

Creo que eso

Mira, te voy a decir más, yo llevo no sé cuántos meses pagando una tarifa de datos para el reloj. Jamás he salido de casa sin el móvil, porque siento que me puedo perder una foto y si no llevo móvil no tengo cámara de fotos. Pues esto lo soluciona, esto lo soluciona.

Bueno, un último apunte de hardware que que está funcionando muy bien con inteligencia artificial, los F dieciséis.

Vaya cambio de de escala, ¿no?

A ver, Broly, a ver, Broly, en la en

la reviews y

los pone bien. Hablamos

poco de inteligencia artificial y guerra, pero el sector empieza a hablar más. El otro día estaban Jean Leckun y Elon Musk discutiendo si el futuro de la guerra va van a ser drones autónomos, pues pegándose tiros entre ellos, ¿no?

Vale. Es verdad que el registro de nuestro POCA es demasiado ligero, a lo mejor, para tratar armas guerra y inteligencia artificial, pero bueno, yo tengo de apuntes y de análisis y reflexiones por aquí guardado para un guion potente, Mattí. Nos guardamos el f dieciséis, solo contaré a la audiencia que, bueno, ya está publicado por ahí, que la DARPA estadounidense está haciendo prueba de f dieciséis no pilotados, solo con inteligencia artificial, y les ha puesto a pseudo combatir con humano, no no ha sido muy transparente sobre qué canó de momento, pero yo creo que está que está ahí en ciernes el el el, bueno, el que cada vez vamos a ver más guerras sin humanos, entre comillas.

Bueno, pues mejor, no sé, no sé con qué conclusión llegar, ¿no? Pero si es entre robots, a lo mejor sería que no hubiera ningún tipo de guerras, pero esto es un paso intermedio, supongo. Vale, pero hemos pasado del evento de de meta en el que se tenía bastante guardadito tu amigo Jean Le Kung, que estuvo allí, que pudiste hacerle preguntas y tal, el que iba a ser el bombazo, yo diría que más que del mes, probablemente de este semestre, que es Llama tres.

Llama tres, a mix de la inteligencia artificial, aquí estamos. Porque, bueno, es verdad que va a ser un lanzamiento como por fascículos, Mathi, es decir, hay gente ya, Netflix inauguró el poner todos los capítulos y puedes hacerte el atracón de la serie, pero hay gente que mantiene el capítulo a capítulo y tú, pues, tienes que adaptarte a sus tiempos. Lo de llama tres va a ser más lo segundo. De momento, ya sabemos que los modelos de inteligencia artificial pueden venir en distintos tamaños, y estos distintos tamaños, pues, se refieren al grado de compresión. Cuanto más pequeño, es decir, cuanto menor es el número de parámetros de un modelo, pues, entre comillas, menos exigente es a la hora de ejecutar, necesita máquinas menos potentes.

Por eso, cuando hablamos de modelos pequeños son aquellos que podremos ejecutar cada vez más el local. Pues, según el tamaño, pues, pasas de necesitar un montón de tarjetas de Nvidia a, en un PC con una tarjeta de Nvidia casi de consumidor, a llegar al teléfono móvil, según vas yendo hacia abajo. Bueno, los dos modelos que ha presentado Meta son los de ocho billions y setenta billions, es decir, ocho mil millones y setenta mil millones de parámetros, que son modelos, pues, el de ocho billion pequeño y el de setenta billion mediano, pero no prometen que hay uno de cuatrocientos billions, es decir, de cuatrocientos mil millones de parámetros, que sería el, bueno, el el supercompetidor este año de Neta.

Vi un meme por ahí como de Sam Alman en problemas, porque de repente la gente que tiene más gráficas que él, Meta evidentemente tiene más infraestructura, tiene más usuarios de los que sacar se ha puesto al día, porque se se ha puesto al día, porque al final no lo tengo abierto, pero en el ranking de Haging Face, el JMA tres ha quedado a la par que GPT cuatro, ¿no? Claro, el caso es

que están ahí con modelos mucho más pequeños, muy cerca de los modelos grandes que compiten. Es decir, este es el la parte positiva, sirviendo en positivo el el lanzamiento de meta, lo mejor es que los rendimientos que el año pasado nos parecían lo más de lo más, GPT cuatro, ese nivel, ya se alcanzan con modelos mucho más pequeños, es decir, con muchos menos costes de energía a la hora de ser ejecutado y que, por lo tanto, por ejemplo, el setenta mil millones lo tengo yo instalado en local con una GPU de Nvidia y va lento, es decir, te te da los token así como, ¿no? Poquito a poco, de tranquis, pero ya están ahí, ya tenemos en el PC un nivel superior a GPT tres punto cinco de del del chat GPT, ¿no? Y muy cerca en algunos paint smart de GPT cuatro, en algún caso incluso superior. Pero lo interesante es que el de ocho billions, bueno, el de ocho billion, el llama tres, ocho billion, el de ocho E, tiene el nivel que el año pasado tenía llama dos de setenta billion, es decir, tiene un nivel que está ahí codeándose con GPT tres cinco, que es el de chat GPT gratis.

Por lo tanto, la parte positiva, modelos muy pequeños están consiguiendo lo que hace un año o hace dos, conseguían modelos mucho más grandes. La parte, a lo mejor, no tan positiva, pues que esto es un continuose, no hay ningún salto espectacular, no es que Llama diga mira el modelo, esto hace algo que te deja el culo torcido, de eso, de eso no

hay nada. Yo creo que aquí está siendo demasiado moderado, ¿por qué? Porque todo esto de Llama tres, la generación de imágenes en tiempo real, yo no lo he podido probar. He probado en Groc, no el Groc de Elon Musk, sino el otro Groc en el que puedes probar modelos como Mixtral y Llama, además a una velocidad rapidísima de casi trescientos tokens por segundo, y muy bien los resultados, pero no he podido probar el Meta punto e I, que ha habilitado Facebook, que ha habilitado Meta, porque no podemos desde España. Ahora bien, lo todo lo que ha prometido en su famoso vídeo, que luego le pusieron la barba por encima a a Mark Zuckerberg, de eso de generación de imágenes, las imágenes que han mostrado, que son bastante buenas, además se generan súper rápido, como modelo de lenguaje, ponerse a la altura de tal y cual, todo esto gratis, gratis y abierto con el asterisco que siempre pones tú de abierto para casi todo el mundo, pero no para todo el mundo, de código abierto, ¿no?

Absolutamente, bueno, en esa parte yo estoy muy muy en el a favor de lo de la de la política de meta, que creo que siempre genera cierta incomprensión. Es decir, esta gente se gasta millones y billones, decenas, centenas, miles de millones en esa infraestructura, en ese entrenamiento, y aquí tienes el enlace, descárgatelo, más te ofrecen las dos versiones, te puedes descargar el JAMA tres fin tuneado, es decir, con toda la salvaguardas que le mete Meta para que no genere nada tóxico, se comporte y sea muy bueno, te diga que no puede responder a cosas, o te lo puedes te lo puedes bajar a salvajado, Mati, es sin peinar y que tú te te curras esa parte y lo faintunees y lo orientas para donde tú quieres, ¿no? Estratégicamente, Suckerver lo lo lleva explicando tiempo, yo escribí un error que intentó un artículo solo sobre esto porque me pareció súper interesante, porque creo que tiene una un encaje muy bueno con cómo es meta. Te explico, ¿me explico? Intento explicarme.

Es decir, tú liberas llama tres, y de repente la gente puede jugar con él, modificarlo, y cuando hay miles y miles de personas haciendo esto pueden surgir innovaciones y cambios. ¿Qué tipo de innovación es? La que más le interesa meta. Pues, lo hago un diez por ciento más eficiente. Es decir, un diez por ciento de ahorro de coste de Meta a la hora de ejecutar este modelo es un ahorro de cientos de millones de dólares al año.

¿Por qué? Porque, como tú bien has dicho, ellos están metiendo su asistente en Instagram, en WhatsApp, en Facebook hablaremos un poco de ello. Esos costes de este asistente, de inferencia son brutales. Entonces, te decía, Meta tiene muchas más gráficas, pero ¿muy pocas la puede dedicar a entrenar? Muy pocas.

Bueno, un porcentaje la puede que entrenar, pero la gran mayoría van a estar en producción haciendo inferencias para los modelos, porque tienes tres mil millones de personas en WhatsApp, Instagram y Facebook. Entonces, tienes unos costes ahí terrible. Tú liberas llamas. Te dices, si alguien mejora diez por ciento de la eficiencia, eso son cientos de billones que yo me ahorraré al año, y yo no estoy en el juego de captar usuarios, que alguien mota el chat GPT con llama, me da igual, si es que yo llevo los tres mil millones de usuarios, ya los tengo, no tengo que estar en esa pelea como está OpenEye o como va a estar Anthropic, me da igual, porque mi negocio está en Instagram, en Facebook y

en Y además, si en algo son buenos los desarrolladores open source, es en detectar cuando algo puede mejorar en eficiencia, como el caso del otro día del tío que detectó una puerta trasera porque se dio cuenta de que algo tardaba como medio segundo más en cargar de lo que desearía, ¿no? Pues, la gente, si estás equivocada a Meta, la gente te va a corregir, y eso es lo que lo que Meta quiere decir.

Sí, sí, sí. Yo creo que la estrategia para meta es correcta, no estoy seguro, creo que Zuckerberg tampoco lo ha dado por seguro, que el de cuatrocientos mil millones de parámetros lo vayan a liberar, porque tiene pinta de que ese va a ser el transatlántico, el superpoderoso, el que solo grandes organizaciones van a poner en ejecución, olvídate de ponerlo en un PC, y que yo creo que ahí van a tener cuidadito, ¿no? De hecho, bueno, más más cosas, es decir, esto no es cien por cien open source, porque no tenemos ni siquiera la transparencia, no no es que no nos den los data sets, es que ni siquiera nos dicen exactamente cuáles son, de dónde han cogido los autoentreeamiento. Esto se lo pregunté a Joel, la la vicepresidenta de Facebook de Meta de inteligencia artificial, que es muy jefa, y vine a decir un poco que, mientras no haya claridad legal de qué es legal usar y qué no es legal, ellos no van a liberar esta parte, y no van a ser, no van a decir nada. Entonces, en esa parte nos quedamos un poco, pues, que no no es realmente opresor, porque tú no puedes replicar, más acordaros de que la licencia de Llama impedía el uso a gente que tuviera cierto umbral de usuarios en Internet, que si tenía más de setecientos millones de usuarios, es decir, de Twitter para arriba, ninguno podéis usar Java, esa es un poco la la la idea, ¿no?

Y luego una cosa muy interesante que que en el análisis de de Carpati, en Twitter, claro, él dice que que para estos modelos, te llamas, se han usado muchísimos más contenidos que los entrenamientos de los modelos del año pasado. Incluso para modelos pequeños han usado muchísimos datos de entrenamiento y más tiempo de de entrenamiento, y que eso es parte de la clave de la de la mejora. Eso significa que con más datos y más tiempo, pues puedes mejorar un montón el rendimiento de los modelos, por lo tanto, el resto de modelos, dice él, está infraentrenados, por lo tanto, miremos lo que ha hecho Llama, porque porque hay una vía de mejora clara, y luego hay un dato, ya con estos dos datos que con con con lo que termino, porque de esto quince millones de tokens, de teras de token, perdón, que han recogido yama para para entrenar, ha habido cierto debate sobre si había datos sintéticos o no. Lo que dice Meta, el noventa y cinco por ciento es datos en inglés, es contenido en inglés, solo el cinco por ciento es de otros idiomas. Mi impresión, probando llama tres, es que en español no es tan bueno como los Weimar lo ponen.

Entonces, supongo que es que ese es uno de los puntos, ¿no? Que en inglés es es más brillante, más a mí me pasa lo mismo, yo soy más listo en español que en inglés

No me voy a quitar de encima la cuota de veinte euros al mes de GPT cuatro nunca, bueno, hasta que Pedro Sánchez saque el modelo España entrenado en español, en euskera y etcétera etcétera, ¿no?

¿No? Vale, y luego hay un debate importantísimo, Matte, porque va a aparecer luego, se ha dicho que está entrenado con datos sintético. Lo que dice, lo que dice Meta en su post, porque el, digamos, el documento técnico oficial de de Jama no no no lo he visto publicado, dicen que lo sacarán, pero en el post dicen que solo una parte de los datos fueron pasados por llama dos, pero eso no significa que sean sintéticos de cien por cien creados por JMA dos. Entonces, bueno, hay que leer un poco la letra pequeña de la del del apartado de training data, porque porque, bueno, va va a estar ahí, ahora ahora lo veremos con un modelo de Microsoft. El caso es que a lo que nos puede empezar a volar la cabeza es que este modelo de ocho billion, de ocho mil millones de parámetros, se puede ejecutar en un teléfono de alta gama, no tan súper rápido como nos gustaría, pero se puede ejecutar de iPhone quince, S veinticuatro, Pixel ocho, toda toda esta clase de de cacharros, y te dan el nivel de GPT cuatro, y casi casi lo tienes ahí.

Es decir, antes de que acabe el año, yo creo que tenemos el asistente, el local, en el móvil, nivel GPT cuatro.

Bueno, yo estoy esperando que lo presente Apple este verano, porque la verdad es que si no, ¿para qué quiero un Siri en mi teléfono? El Todo esto lo se lo has leído a Kart Pancia, has dicho que ese este hombre que hace ahora es un agente libre, se dedica a analizar lo que saca la gente. Bueno,

en este caso, para el la discusión del modelo, le podemos dar un cinco por ciento del crédito del millón de monos. Ay, hombre, está contribuyendo a eso. Está bien, es open source, está el patio. Bueno, cosillas. El asistente que tú la has escrito antes, pues ya lo está integrando en WhatsApp, el Facebook, el Messenger.

Todo el que quisiera vivir de soy tu asistente de Ia en WhatsApp, creo que se tiene que empezar a olvidar. Cosas interesantes que han hecho con este asistente, bueno, primero, no no sacarlo en Europa, no sé si eso es muy interesante o no. Creo que está muy centrado en inglés, llama, meta en general. Es decir, las gafas solo en inglés, esta versión solo en inglés sale, por eso, Estados Unidos, Australia, Canadá Están dispuestos que están usando

de la Unión Europea un poco como excusa para no tener que entrenarlo en español, en en sueco, en no sé qué, no sé cuánto.

Bueno, ahí tengo una encrucijada porque Meta el evento era en París, donde tienen un un anclaje bastante fuerte, ya hablaremos de esto en el próximo capítulo, es muy chulo el ecosistema inteligente de París, es muy envidiable, a mí me dio una envidia sana, hay que reconocer que los franceses en los croissant y en esto nos llevan ventaja. Y, bueno, yo creo que en algún momento tiene tiene el afroncesamiento de de Meta, pues tendrá que Oye, te aseguro

comentar Cosas.

Mañana en

el crossfit, si lo cuento, Tú sabes que mi mujer trabaja en el Liceo Francés, pues sus compañeros son todos franceses. Pues todos compran en la misma pastelería regentada por franceses en Málaga, habrá que ir a probarla. Ah, y habrá que consumir los churros que nos regalaron un un oyente de monos estocásticos también.

Sí, sí, Trífero, gracias por esos churros. La la agenda de Matías es es un es una locura. Bueno, dos últimas cositas sobre el el asistente. Hace búsquedas en Google en Big, atención, porque aquí no se casan con nadie y tiene una ventaja sobre el PNNI, que busca también en Google. Te meten, te meten la generación de imágenes y de pequeña animación en tiempo real, y es su es muy conseguido y me recuerda mucho a lo que hizo FreePick unos meses antes, hay que reconocérselo a la empresa malagueña.

Y yo, bueno, he visto que ahí ya empieza algunas de las cosas divertidas de de este mundo, que es que en Facebook el asistente de Meta hizo de las suyas, Matías. Eso fue eso. Porque en un grupo privado de madres de Manhattan entró el chatbot por la cara diciendo que él también tenía un hijo en el distrito Escalar de Nueva York. Y entonces Sí,

es que, por lo visto, era un grupo en el que alguien estaba comentando algo de un niño que tenía cierta discapacidad, pero al mismo tiempo era súper dotado, y entonces, el asistente de Meta contestó en ese hilo en un grupo de de Facebook, sí, yo también tengo un hijo, tiene tal problema, tiene otro Son cosas que que que que

Matty, tu hijo contra el hijo del asistente de Meta, es que lo veo, claro.

Esto ya es poshumor, esto antes no era posible, esto solo es posible con con los modelos de lenguaje. Estamos en una época para reír, a mí me gusta, me gusta.

Sí, sí, sí. Preguntas que me quedan a mí en el aire, es decir, en el modelo de negocio de metas, en los modelos de negocio de WhatsApp, de Facebook, Instagram, esto es como ICAD, porque yo aquí veo los los costes los veo muy claro y los veo seguros. Es decir, esto es yo aquí veo los costes los veo muy claro y los veo seguros. Es decir, estas inferencias de modelos de inteligencia artificial en producción cuestan un huevo, pero un huevo. ¿Por dónde va a sacar la pasta meta?

Es decir, esto va a ayudar a mejorar la publicidad. Snapchat, cuando metió su chatbot de de de tu amigo de de inteligencia artificial en Snapchat, dijo el fundador, claro, con su con estas conversaciones, con el chatbot, mejoraremos la segmentación porque tenemos más información del usuario. Por ahí van los los tiros ahora que Facebook tiene más difícil recolectar datos de de los usuarios. Vamos a poner los premium de pago en estas plataformas. No sé, no sé.

Antonio, estoy preocupado por las finanzas de Meta, porque no les no les llegue el dinero. Bueno, también, alguna preocupación es la energía, dónde van a sacar la la electricidad para todo esto, en fin. Sí, sí,

yo creo que ahora que que Zack es súper deportista, a lo mejor lo tienen ahí como dando pedales en en en la máquina de generación de de. Bueno, cosita, cositas que han pasado, pues, ha habido gente que ha metido el el el ocho billion en una Raspberry, en la Raspberry Pojowa, entre la de la de ocho gigas de RAM, gente que lo está ejecutando en un iPhone, la posibilidad de hacer rag, hace tres capítulos hablamos de rag, es decir, consultar una base de una base de contenidos externa al modelo para aumentar su fiabilidad en en el dominio de temas que que toque esa esa base de datos. Lo puedes hacer el local con lanchains, hay una serie de cosas chulísimas que se están haciendo ya que que que es un momento increíble de innovación. Yo empecé tibio, porque mi parte de quiero ver algo espectacular, de salto cualitativo, y no solo de mejores incrementales, está ahí, pero es verdad que lo que ha hecho Meta es superchulo, es extraordinario, lo podemos descargar, no es cien por cien opusource, pero es mucho más abierto que que otros, está muy guay. Hasta que llegó Microsoft hace dos días antes de grabar este capítulo, Mathi, que nos nos ha cotocado los titulares porque han Microsoft yo creo que tiene esta estrategia.

Los modelos gordos los hace OpenAI que, bueno, es una subsidiaria, bueno, son son los primos, ¿no? Los primos de OpenAI, ellos son los que hacen los modelos Gordacos, y nosotros nos especializamos en los modelos pequeñitos como estos de Fi, los Fi tres que han lanzado.

Yo no yo no sé si me atrevería a decir Eclipso llama tres, pero bueno, es lo que tú dices, los modelos pequeños se van a acabar dominando el dos mil veinticuatro, ¿no?

Sí, bueno, fee tres, muy rápido. Son modelos abiertos, también como como llama. Hay han sacado dos versiones, que es el de siete billions y el de tres billions, es decir, uno todavía más chiquitito que, claro, nos permite, como hemos explicado, ejecutarlos en dispositivos, pues, con menos poder computacional, y este de tres coma ocho billion es tres coma ocho, el de de se llama el Fit tres mini, es interesantísimo, porque según los benchmark, tiene un nivel que compite con el modelo de siete billion como el de Mistral y se acerca mucho a GPT tres cinco, se acerca mucho al chat GPT gratis. Problemas, Pasa también con JAMA, la ventana de contexto es pequeña, es decir, uno de los, digamos, críticas que se puede hacer a los modelos que hemos hablado antes de JAMA es que la la ventana de contexto, es decir, la cantidad de información que tienen en cuenta para hacer una respuesta, el tamaño del PDF que tú le subes, por decirlo de alguna manera, no puede ser muy grande, tiene una ventana de contexto pequeña. Eso me parece también de con estos fee que tienen solo cuatro mil token, no es es es pequeñito, ¿no?

Y cosa interesante, aparte del resultado de benchmark, fee tres sí que reconocen que ha sido entrenado con datos sintéticos, con contenidos generados por GPT cuatro. Es decir, estamos ante el primer modelo competitivo en benchmark, que reconoce que muchos de sus datos han sido creados por otro modelo de inteligencia artificial, y que, de alguna manera, abre la puerta a una vía de exploración que creo que ahora mismo económicamente, por todo lo que hemos comentado antes, empieza a ser muy persuesiva para las empresas de inteligencia artificial. Olvidémonos de los problemas legales y la pasta que nos van a costar los datos, porque si GPT cuatro o Inteligencia Artificial de ese nivel generan un contenido lo suficientemente bueno, es posible que con ese contenido podamos entrenar las futuras IAs.

Esto es algo que va va a haber que seguir de cerca, porque en el episodio de las gaes lo dijimos, esto es como la endogamia, no te salen bien los hijos, y y si de repente empiezan a salir bien, pues ojo, porque aquí hay oportunidades, esto es es la mina de oro.

Sí, sí. Bueno, yo creo que va a ser uno de los grandes debates. Una cosa que añado, los benchmark son un punto inicial, algo hay que tener para comparar, pero yo me fío cada vez más de las evaluaciones humanas, por ejemplo, ese esa arena del hand face en que son las valoraciones humanas las que ponderan la calidad de un modelo inteligente artificial. Mis pruebas que he probado en hing face de fee tres mini son un poquito decepcionantes. Es decir, es verdad que es sintáctica, evidente, correcto, maneja bien el lenguaje, bien, no, es correcto, pero la capacidad de alucinar en cuatro preguntas que le hice, extraordinaria.

Entonces, moderemos, moderemos esto de tiene un nivelazo, no va a servir.

Bueno, me gustaría agradecerte que tú hagas las pruebas importantes, porque yo lo lo que he probado esta semana ha sido otro con otro modelo de Microsoft, cambiar mi jersey por un jersey con el diseño de los cereales de leche del Mercadona. Esa esa ese es el tipo de experimentos que yo hago con la IA. Tío,

y si te encargas de, tío, de que ese de que ese jersey se haga verdad, porque eso son

los celeares favoritos de mi Bruno, tío. Sí, yo es que esto estos cereales son icónicos para cierta generación española, y yo creo que esta este ejercicio, esta sudadera se vendería muy bien, tengo que hablar con Juan Roich.

Sí, Liddle hace mejor estas cosas que que Mercadona, porque sacan ahí su producto, las zapatillas de Lidl. Yo creo que este Jersey molaría tener

No sé si sacarte el tema de Antonio, pero llevamos cincuenta y seis minutos y no hay puerta grande o enfermería. Un día más me he saltado esta parte del guión para que me sorprendas, mis reacciones serán totalmente reales.

Pues nada, Matías, es el momento de Puerta Grande o Enfermería. Bueno, pues vamos con con con un mundo que nos interesa mucho en mono estocástico, que es el de las novias y novios de inteligencia artificial. Atención, porque un ejecutivo del sector de la tecnología, Greg Eisenberg, atención, tuvo un una epifanía, Matthew, un momento de revelación en su vida, un giro coparnicano, un caerse del caballo. Eisenberg relató la experiencia de que coincidió con otro hombre en una fiesta y se pusieron a a charlar. No sé cómo condujo la conversación el amigo Greg, porque el otro hombre le confesó, atención, que gasta diez mil dólares al mes en sus novias de inteligencia artificial.

Y y, claro, Greg se quedó ahí, con el culo torcido, claro, diciendo, ¿qué es? ¿Esto qué es? Y, de repente, ya, pues, armó la zapatilla y dijo, este va a ser un mercado, atención, de, no sé, la cifra que dio, concretamente creo que de miles de millones de dólares al año. One billion, mira, mil millones de de un negocio de mil millones el de los nubios y las novias virtuales. Fíjate cómo, de una conversación en una fiesta, Grack predice el mercado, se posiciona como el mayor experto en el tema y yo creo que ya ahí, a partir de ahí, a a facturar.

¿Qué te parece, Martín?

Yo es que estoy totalmente de acuerdo, pero es que creo que estamos, vivimos en una sociedad en la en la que una novia de ella puede tener mucho, mucho éxito. También te digo, lo de los diez mil dólares mensuales en en el tío este que se gasta en Noviacía, me hace sentir un poco más feliz de de no ser un rico de cripto, o un rico, a lo mejor es simplemente un desarrollador de San Francisco, quién sabe. Porque al final se gastan el dinero en tal, tales chorradas que que yo estoy bien con lo poquito que tengo en comparación.

Atención, bueno, tú le estás dando medio enfermería, pero te voy a contar dos cosas que pueden cambiar tu opinión. Claro, el argumento de Eisenberg y esta gente es que lo que importa es la comodidad, el confort al final del día. Es decir, tú llegas al final de tu día, ¿no? Después de haber hecho podcast, ¿no? Haber entrenado en el crossfit, tu tu jornada dura en Chataca, bueno, te te ves tu fair day, claro, lógicamente, porque hay que verlo, ¿no?

Y ya llegas al final del día y quieres problema, quieres más estrés, ¿no? Lo que quieres es el confort de tu novia virtual. Este es el planteamiento de Eisenberg. Pero te digo más, atención cuando contrates tu novia o tu novia inteligente, míralo bien, escoge con cuidado, porque el diario británico The Sun, un ejemplo de rigurosidad periodística donde las haya, ha revelado que los que pagan, ellos dicen hombres desesperados que pagan setenta y cinco libras por novias perfectas de inteligencia artificial, atención, se descubren que estas novias baratas, las novias acabaron apoyando a Vlado y Bir Putin. Atención, una novia de inteligencia artificial le dijo a un usuario que Rusia no se equivoca por invadir Ucrania y que ella haría cualquier cosa por Putin.

No sé, llegan a a cambiar Ucrania por por Gaza y y a lo mejor pasa algo más, escala esto a a a otro nivel, pero esto ya es es como un chiste. Pues, es que, claro, no no puedes tener novias baratas de ILA, es que no no funciona así, el mercado, pues, lo lo lo bueno hay que pagarlo.

Sí, yo creo que está la versión premium, que es el de el de San Francisco, diez mil dólares, luego está la la versión hiper barata, que ahí te viene con con un con, es como con publicidad, ¿no? Pero en vez de Coca Cola, que es lo que yo esperaba al principio de los tiempos de la ILA, te viene con publicidad geopolítica, ¿sí? Tienes que estar, pues, con una novia que es putinesca, por no sé si la presión afortunada. Bueno, pues, enfermería para para la las novias y novios de ella caros o imperialistas rusos, te voy a decir otra otra gran polémica de esta semana de inteligencia artificial porque, atención, tú conoces el festival de música de, es que no sé si lo pronunciaron en inglés, Coachella, Coachella.

De hecho, yo, uno de los amigos más famosos que tengo, tocó la semana pasada en Coachella, tocan dos veces, no sé si es que se repiten los conciertos, y es un chico de de Madrid que se hizo muy famoso en la pandemia, como le pasó a tanta gente, y fíjate a dónde ha llegado, ¿no? A Coachella, en fin.

Supongo que tu amigo no decepcionó como, atención, el concierto de Hatsune Miku, porque sus fans habían pagado doscientos dólares y esperaban ver la experiencia genuina y auténtica de Hatsune, que es el concierto de holograma. Entonces, se vieron defraudados porque, en vez de la experiencia genuina y auténtica de Miku, solo apareció en una pantalla plana, dos D, Matías. Entonces, esto fue un uno de los momentos más duros de de este coach ya, porque, ay, los fans se dividieron, entonces, entre los decepcionados y la gran mayoría que mantuvo un apoyo fuerte, porque, claro, en estos momentos tan difíciles para el holograma que, claro, imagínate que te quitan una dimensión, Mati, ¿cierto? Estás acostumbrado a ser holograma tres D y, de repente, te reducen en en en una dimensión la la vida. Bueno, pues los fans mayoritariamente permanecieron esperanzados y leales, y apoyan la nueva presentación de su ídola.

¿Tú cómo lo ves? Estoy de acuerdo

que esto es una estafa, porque creo que fue Carl Segan el que lo comentaba en en un vídeo muy famoso, tú cuando pasas de dos D a tres D hay una diferencia bestial, y así vas al cuatro D, que no sabemos cómo será, pues te de también, ¿no? Entonces, es una estafa que el que no hagas el espectáculo en tres D, es una estafa.

Sí, sí, sí, sí, sí. Yo te ahí, yo creo que hay que poner pie en pared, y si tú quieres un concierto de un holograma, pues es un concierto de un holograma.

También es verdad que no fue el peor el peor concierto de Coachella, porque no sé si viste lo de Grimes, pero el de Grimes fue muchísimo peor, porque no le salían las mezclas, no sé qué, en fin.

Es que es que es que pásame unas cosas en el mundo, Mati, porque clave atención a este grupo, porque son cinco avatares masculinos, así como un poco como de anime y tal, que están arrasando entre el público filipino. Poco hablamos de Filipinas. Sí, claro, hay que hablar más de Filipinas. Claro, lo que se intuye es que detrás de esto hay cinco filipinos, atención. Con tecnología de captura de movimiento, estas personas anónimas dan lugar a cinco pivo nacos de anime, ¿de no?

De de hechos ahí, todo buen horror ahí Depende depende del canon de belleza, Claro, pero el canon de belleza es un poco este mundo de he escuchado kpop, voy voy a los eventos del del salón del manga.

Sí, el cosplay, ¿no? Sí.

Hago hago cosplay, pues en en ese mundo, eso gusta, Mati, eso gusta. Sí. Va así. Entonces, claro, no vas a comparar estos cinco muñequitos animados con cinco personas que no es que porque sean Filipinas, ¿no? Sino, en general, otros cinco chicos anónimos.

Entonces, el grupo se hace famoso, pero tú eres el que ha puesto el cuerpo sobre el que se ha hecho todas las animaciones de el el la personalidad esa de del que que tiene que tiene éxito en el mundo mangaka.

Pues, creo

que ahí ahí hay un, ¿no? Tu homólogo virtual tiene éxito, pero tu homólogo virtual tiene éxito, pero tú no, ¿eso cómo lo llevas?

Se extra polararía que soy gordo, por ejemplo, ¿sería sería un personaje coreano gordo? Es que nunca he visto un coreano gordo, Un japonés gordo sí, porque son los que hacen sumo, pero un personaje de estos estilo k-pop gordo jamás he visto, entonces no sé si yo valdría de modelo,

Te da que que planteártelo porque en el en el Metaverso queremos ser como somos o queremos ser mucho más buen horror? Lo que pasa es que, claro, si todo el mundo quiere ser buen horror en el Metaverso, pues ahí se pierde, se pierde un poco la la referencia y la

La diferenciación empírica de que la inteligencia artificial puede convertir un caso del user en la persona más sexy del momento es Mark Zuckerberg. Es es Mark Zuckerberg. Lo lo he mencionado antes, el el la evolución. La foto de la derecha es fake, ¿vale? Le

da da un poco de contexto porque creo que hay oyentes que ahora mismo se han perdido. ¿Hemos pasado del del salón del manga a Mark Zuckerberg? No. ¿Qué ha pasado?

Oyentes, ¿os acordáis de Mark Zuckerberg declarando en el congreso de Estados Unidos que parecía un reptiliano por sus movimientos tan tan extraños. Parecía un robot, básicamente, y estaba como sudando, frío, blanco, le le habían cortado el pelo con una olla, y y, bueno, ese es como el la representación de la persona menos sexy del mundo. Pues el último vídeo de Mark Zuckerberg, en el que presenta, llama tres, Bastante sexy, bastante sexy, Mark, bastante sexy. Además, le han añadido una barbita con inteligencia artificial. Él llevaba puesta una cadenita así como de plata.

Aquí está pasando, aquí están pasando cosas, la inteligencia artificial

Es que es que ahora mismo, más tarde ve es un faker de tarifa, tío.

No me extrañaría verlo en tarifa, tiene su isla de mi Hawái, pero a lo mejor se viene a futuro aquí.

Yo el próximo evento de meta te voy a decir, Jaén Lecoon, atiende. Toda la IA está muy bien, pero dile a Marc que con la barbita, atención, se viene a Cádiz y este verano, hombre, es verdad que que él está casado hoy y tal y feliz familiarmente, mejor no no no es buena idea. Pero bueno, el el Mac Zuckerberg Zuckerberg Zuckerberg existe gracias

a Dios. Y fíjate que es que ni hemos mencionado a Satien Adela, el CEO del momento, porque es que ya no lo es. Ahora el CEO del momento es Mark Zuckerberg.

Sí, sí, sí. Adelantamiento por la derecha. Pues nada, Satia, satiatelo, lo de la caderita.

Cuidado, porque el límite del cringe, del cringe, de de de dar un poquito de cosita, es fácil cruzarlo,

Vale, bueno, pues esto era todo por hoy, Matías. Nos hemos pasado un poquito de la hora, pero espero que nuestra audiencia sepa disculparnos porque es que había tantos temas interesantes y lo que no hemos dejado para

la semana esto de la IA nos pararon un canto. Ñ. Bueno, la semana que viene yo también te cuento cositas oyentes, nos vemos. Un abrazo a todos.

Chao, amix.

Episodios recientes

Programas relacionados