Probamos GPT-4o de OpenAI (también conocido como GPT2). ¡La primera versión "omnimodal" de ChatGPT! Y nos ponemos tristes por la partida de Ilya Sutskever. Pero luego nos venimos arriba con el DJ de la Google I/O. ¿Dónde he dejado mis gafas, Project Astra?

Patrocinador: Freepik sigue imparable en IA y esta vez con una adquisición muy potente. Magnific, la compañía de escalado de imágenes, pronto estará integrada en los servicios de IA de Freepik, que no para de incorporar nuevas herramientas. Lee la historia completa en el hilo de Javilop, cofundador de Magnific, y la nota de prensa de Freepik.

¡Nos vemos en el episodio en directo de monos estocásticos desde Barcelona! Jueves 16 de mayo a las 18:00 en la web y las redes sociales de parentesis.media

Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com

Transcripción


Hola a todos los monos estocásticos, semana grande. Esto es como cuando el Corte Inglés tenía esa, empieza la primavera en el Corte Inglés, no me acuerdo ya ni cómo era, ¿no? El Corte Inglés, la pobre gente esa, hace tiempo que no suenan. Pero para nosotros esta es la semana grande, la semana de la inteligencia artificial generativa y de hablar con Scarlett Johansson. Antonio, ¿cómo estás?

Pues entre emocionado, Matías, pero también un poco preocupado porque me he dado cuenta una cosa, Mati.

Qué vas.

Y es que mi reloj anticipa uno de los grandes problemas que vamos a tener con la inteligencia artificial. Ojo ahí.

Tu reloj, tengo varias cosas que decís sobre tu reloj, pero a ver, cuéntame.

Vamos a ver. Tú sabes que, bueno, algún día entrenando nos nos mandan a hacer la

milla, la

milla, ¿no? Ochocientos metros para un lado, vuelve otros ochocientos metros corriendo, que la gente sepa un poco el contexto. Y hay una discusión de hasta dónde hay que correr esos ochocientos metros. Yo, claro, me puse a medir la distancia con mi reloj, que es un reloj para deportistas, y, bueno, donde decía la gente que había que llegar, a mí me salían setecientos. Dije, no, no, la gente está corriendo de menos y yo seguí adelante, Matías, Corrí cien metros más para de ida y cien metros más de vuelta, total de, ¿no?

Claro, para completar finalmente los mil seiscientos. Claro, esto abrió un amplio debate en el box sobre otra gente, entre ellos tú, que midiendo con otro reloj de otra marca estaban indicando que no, que no, que la medición anterior era la correcta y que el mío seguía equivocado, se había pasado. Entonces, me doy cuenta de que no se había activado el GPS, Matías, y el reloj con su propio algoritmo había intentado averiguar cuánto había corrido yo. Y aquí está el dilema, aquí está el problema con la inteligencia artificial, Matías. El reloj, una vez que ejecuta su algoritmo, es decir, me da su su prescripción, ahora yo yo me he gastado más de doscientos pagos en este reloj, tengo que hacer caso en todo, si tú te compras un reloj así, es para para hacerle caso, Mati.

Bueno, el punto es que ese algoritmo no está pensado para quitarte metros y hacerte la vida más descansada y ahorrarte ese esfuerzo. Ese algoritmo, Mathy, está hecho, atención, para que te esfuerces más, para que sudes más, para que vayas más lejos. Tú puedes creer que este va a ser el gran dilema de la alienación de inteligencia artificial con nuestros intereses? Porque ¿qué nos interesa más, Matías? ¿Una IA que nos haga sudar y esforzarnos más o una IA que nos lleve al descanso y la practidez de forma más inmediata?

No estoy seguro de haber seguido todo este silogismo y este rollo que has contado. No no sé cómo engancha una cosa con la otra, pero te digo, te digo, Garmin Garmin sale perdiendo contra el Apple Watch en cuanto a metros, ahora que es el mes del Murphy, es el mes grande de los crossfiteros también, no solo de la inteligencia artificial, con el Apple Watch sales ganando porque corres un poquito menos.

Claro, pero este dilema de la vida, María, tú tú de que eres partidario, porque imagínate el caso, estás haciendo tu entrenamiento, vas el último, todo el mundo ha terminado, y se llega un compañero a a a darte apoyo. ¿Qué tipo de apoyo quieres tú? Un apoyo que diga, ánimo, tú puedes conseguirlo, vamos, vamos, vamos, ¿no? Y como que te te encienda y y tú tengas que esforzarte mucho más para terminarlo más rápido, o prefieres un apoyo y que diga, bueno, mira, mira, ya hemos acabado todos, ahora la entrenadora no está mirando, tú cuenta, cuéntate a la mitad de repeticiones y venga y y nos vamos a desayunar al bar. Este es el dilema, Matías, ¿tú qué prefieres?

¿Por qué eres partidario en la vida?

Creo que mi respuesta te decepcionaría. Así que mejor mejor vamos a hablar, mejor vamos a hablar de de OpenAI y y de su evento claramente programado el día antes del Google IO.

Qué troleada, Bati, qué troleada,

son muy pobres. Cómo troleo a Sundar Pichay, que no sé, yo creo que la la terapeuta de Sundar Pichay ahora mismo tiene que estar llevándoselo calentito porque le están lloviendo hostias por todos lados. Pero vamos a empezar por OpenAI, porque OpenAI tenía cosas que presentar, lo adelantaba Sam Altman, no va a ser un motor de búsqueda, no va a ser un buscador, aunque todos los movimientos alrededor de OpenAI apuntan, incluso alguna contratación de alto nivel, a que están trabajando en un buscador, no va a ser GPT cinco, entonces, ¿qué qué va a ser? Pues es un nuevo modelo al final, es un nuevo modelo.

Es un nuevo modelo que no es el gran salto adelante, eso es lo primero que hay que explicar, no es GPT cinco, es GPT cuatro o. GPT cuatro o, no GPT cuatro cero, sino GPT cuatro o, y de manera muy resumida este pequeñito paso adelante, pues pues yo creo que, mira, pienso muy directo, Mati, yo empecé con cuando cuando el se filtra que el evento iba a ser sobre el momento her, la película de OpenEye, yo empecé muy escéptico la presentación de la empresa porque no, no me convencía, esta parte de una persona sintética con la que se establece una conexión algo más menos práctica, más emocional, estaba un poco, estaba yo ahí entusiasmado, pero fue empezar, mira Murati, la presentación, empezar a contar sus cosillas, empezar a explicarlo, empezar a ver demos en directo, no pregrabadas, no falseadas, no cherry pequeadas, sino demos en directo, y mi emoción y mi entusiasmo iban creciendo, Matías, y yo decía quiero probar, quiero probar esto ya. Vamos vamos rápido a la a las cosas presentadas, vamos a ver. La información directa, Mathi. En un episodio interior de Monitorcásticos hablamos de un misterioso modelo llamado en el mundillo de los de las conseguir que gente externa a OpenAI probara este nuevo modelo, GPT dos será una manera de conseguir que urgente externa a OpenAI probara este nueva versión de GPT cuatro, que es la GPT cuatro, o sin que, sin poner todas las cartas encima de la mesa, todo ese misterio que había alrededor, pues era el nuevo modelo.

El nuevo modelo es como GPT cuatro, básicamente, pero sobre todo cambia una cosa fundamental, una cosa esencial, que es es más multimodal que el GPT cuatro anterior. Y ahí está la clave.

Claro, aquí está la clave porque realmente todas las demos y todo lo que presentaron giraba en torno a lo que llaman el modo de voz y vídeo o el modo de voz y visión de GPT cuatro O, que curiosamente es lo único que todavía no hemos podido probar, porque GPT cuatro O ya está disponible y pronto va a ser accesible para todo el mundo, también en la versión gratuita de ChatGPT, ¿no? Pero el modo este de de voz y visión, es lo más impresionante que han presentado, lo más seductor, ahora hablaremos, no no lo hemos podido probar todavía.

Todavía, todavía. Importante para explicar esto, es que ChatGPT ya hablaba por voz. Sí, pero no de una manera multimodal, sino de una manera multimodelo. Vamos a ver. ¿Cómo funcionaba el ChatGPT cuatro por voz hasta ahora?

Bueno, y todavía a todos los que no nos hemos actualizado a esta novedad de de OpenEye, que se desplegará en la próxima semana, nos han dicho. Bueno, pues, básicamente, tomaba nuestra voz, utilizaba una inteligencia artificial que se llama Whisper para pasar nuestra voz a texto, y GPT cuatro, que trabaja con texto, pues era el que generaba una respuesta, se lo devolvía a Whisper y Whisper nos respondía pasando la respuesta de texto a respuesta de voz. Por lo tanto, no es que GPT cuatro fuera completamente multimodal, es que el sistema de chat GPT era multimodelo. Cuando cuando trabajaba con voz, primero se lo paso al modelo Whisper y cuando trabajo contexto, pues se utiliza el modelo GPT cuatro. ¿Qué es GPT cuatro O?

Pues es más multimodal, de hecho, la O viene omnimodal, totalmente modal, ¿no? Pues ahí está ahí está la la clave del asunto. Es un modelo en el que una única red neuronal, es decir, un único modelo de inteligencia artificial, ha sido entrenado con la voz, el audio, el vídeo y la imagen, por lo tanto, es nativamente un modelo de audio también, no solo de texto. Cuando hablemos y utilice este este nuevo modelo, como está entrenado directamente con la voz, pues va a conseguir respondernos sin todo ese tiempo que se gastaba antes en la traducción, entre comillas, en el paso de la voz al texto de ida y la paso del texto a voz de vuelta que utilizaba Whisper.

Sí. Es que, de hecho, esto cambia muchísimo, porque tú ya podías hablar con ChatGPT por voz, podías pedirle muchas de las cosas que demostraron, como por ejemplo que te tradujera algo de un idioma a otro, pero esto reduce muchísimo la latencia, puedes incluso interrumpir a ChatGPT o al modelo GPT cuatro O mientras está hablando, y también mejora bastante la comprensión que tiene ChatGPT, pues de su visión del mundo, del de la imagen que le estás mostrando, del o de la el feed de vídeo que le estás mostrando. De hecho, esto fue como un poco difícil de explicar, hay gente que que lo resumió como OpenAI lanza Translator hace hace mil años. Y Andrei Karpazi contesta, lo voy a arreglar, dice, Están lanzando un modelo combinado de texto, audio y visión que procesa las tres modalidades en una sola red neuronal que luego puede realizar traducción de voz en tiempo real, como un caso especial de de, pues eso, de de de último caso de uso, si así se lo solicita el usuario. O sea, es es un salto brutal para hablar por voz.

Sí, es que yo a veces he utilizado esto en en alguna presentación cuando llega gente que que, bueno, que está un poco, no tan medida como nosotros, no tan no tan flipado, Mati, y y yo les digo siempre, tú sacas el móvil, tú activas chat GPT, empiezas a hablar por voz y si lo miras, ¿no? Tú, concéntrate, cinco segundos, simplemente, míralo. Es que hemos conseguido que las piedras dominen el lenguaje. Es decir, ah, es que esta presentación no es para tanto, este avance, no sé qué, no sé cuantitos. Vamos a ver.

Las piedras, semi conductores, los chips, el silicio, con unos minerales raros, lo que tú quieras, pero las piedras dominan el lenguaje. Esto es como una mezcla de la capilla Sixtina con un concierto de Taylor Swift. Esto es impresionante, esto es espectacular y esto es un salto científico técnico en la humanidad colosal, que lo veamos un poco como un un día más en la oficina, que esto no que esto no encabece los telediarios, pues es es un poco el síndrome de ayer de Twitter inteligencia artificial, ¿no? La gente diciendo, oye, es que el noventa y nueve por ciento de la gente ni se ha enterado que esto ha pasado. Bueno, pues sí, sí, es es correcto, ¿no?

Pero pero eso lo quita para que los y mira que yo empezaba escéptico, pero es que es lo que tú dices, Matías, y el vídeo que estás enseñando a la gente de YouTube. La inflexión es de voz, a ti, es decir, la capacidad de simular las emociones al declamar que tiene ChatGPT con este modelo son acojonantes, son acojonantes, Matías.

Sí, de hecho, me pisó un poco el chiste OpenAI porque yo puse OpenAI, hemos enseñado a ver y hablar a una oblea de silicio para que ayude a tu hijo a hacer los deberes. Y luego, en una de las demos que sacaron, porque sacaron una serie enorme de demos pregrabadas, era exactamente el caso de uso, era un padre con su hijo delante de una pantalla, que, en este caso, ChatGPT, porque ahora hablaremos de las aplicaciones que van a avanzar, está viendo lo que pasa en la pantalla, pues te ayudaba al niño a hacer los deberes paso a paso, pero sin darle la respuesta, ¿no? Como si fuera un profesor de clases particulares. Y es uno de los muchísimos casos de uso que yo creo que a la gente le van a volar la cabeza y que esa misma sensación de estar ante algo nuevo que que ocurrió con ChatGPT y que creo que no ha vuelto a ocurrir a esa escala, pues va, puedes volver a penetrar en el mainstream de nuevo con con GPT cuatro, o al menos si lo si lo venden bien de alguna forma.

A mí hay una parte de, me da la impresión, porque sí lo hemos probado en texto, que este cuatro es un poquito mejor que el cuatro. Sí es bastante más rápido que el cuatro, es decir, en eso ahora ahora daremos algunos algunos datos, pero en la parte de conversación que, bueno, tenemos que poner un asterisco, vamos a ver en español qué tal, porque seguro que el entrenamiento ha sido un noventa y mucho por ciento en inglés.

Ahora mismo habla igual que mi amiga Jodie. Mi amiga Jodie, de Austin, Texas, habla tal cual el chat GPT en español. Es que no sé si lo han entrenado con con personas de Estados Unidos que que hablan ese No llega a ser mexicano, pero hablan con un acento muy particular y les hacen falta gente local de cada país para aprender mejor el español.

Sí, yo le pasaría los vídeos de de del tío de los

compas, ¿no?

El, buscarlo en TikTok, el tío de los compas, que habla mucho de titán, y y ahí puede aprender un un buen tono de voz adecuado, ¿no? Para Pero bueno,

no sé si audiencia de monos está llegando a ese nivel de profundidad de de influencias de TikTok y ahora sí que acabamos de tener.

Animo aquí a la gente, para los los compas, el titán,

y y por ahí hay

unos consejos bastante buenos, ¿no? En general. Bueno, cositas cositas que que tenía yo anotadas. La parte de poderle interrumpir está muy bien, porque hay que reconocer, y lo decía otra amiga, Aída Méndez, que fue nuestra invitada, que se le puede interrumpir porque es muy chapas, es muy chapas, Chagete en general.

Siempre, siempre ha sido Chagete muy chapas, siempre ha sido Pero si te fijas, aparte de que la han puesto sexy y seductora la voz, por lo menos la femenina, es que representa un poco a una mujer de California, ¿no? Es como dan muchos rodeos al hablar, hacerte sentir muy bien, esa proximidad. A lo mejor es algo muy local de California.

Claro. Si hubiera sido un un tío granaíno ahí mala joya, pues hubiera sido otra otra cosa distinta, ¿no? Si fueran, claro, claro, Granada tiene mucho mucho nivel de inteligencia artificial, pero es una pena que se les se les hayan adelantado. Ahí tienen un mercado de de ser antipático con con GPT y y y tienen un mercado.

Ahora están luchando con Coruña, luego ya lucharán con California.

Ahí está, first wit it a gonnahatan. Bueno, el caso es que la la inflexión emocional, hay un vídeo, hay una de las de las demo, Mati, en la que el modelo alucina, ¿no? Que creo que era cuando le estaban poniendo el problema en matemáticas y y le dice el interlocutor, pero si todavía no te enseñó el problema, y responde después de haberle corregido hecha a GPT como un poco avergonzado. Ese tonito Sí. Estoy un poco avergonzado de, que me he equivocado, que me han pillado.

Joder, es que sabemos que en el fondo estos modelos lo que hacen es adivinar la siguiente palabra. Son un gran artefacto estadístico, una gran máquina de probabilidades con cierta aleatoriedad y que, básicamente, adivinan el siguiente token, ni siquiera es la siguiente palabra. Vale, pero si a nuestros ojos, si a nuestro parecer, si lo que los filósofos de la ciencia llaman la realidad manifiesta, nos resulta que dominan el lenguaje, tienen la inflexión emocional, aparentan tener esa sensibilidad, emoción, sentimiento, no acabaremos tratándolos como si fueran seres inteligentes, no acabaremos creando unos lazos sentimentales. Está, yo creo que es el punto que que que en el que ha hecho mucho énfasis San Alman y también en en el post, ¿no? En la parte, él habla de la, lo importante el día de hoy es la parte gratis y dos, que que esto nos hace caer, ¿no?

Yo creo que en esta parte de lo de lo emocional vamos a tener un recorrido y vamos a tener debates infinitos, Matías.

Sí, de eso que creo que se se lo leí también a a nuestro amigo Ángel Jiménez, ¿no? Que él hasta ahora era como muy no no escéptico, pero sí que se lo no se lo tomaba tan serio el tema de los modelos de lenguaje porque él los veía como como, pues eso, una máquina que predice la siguiente palabra y ahora se siente un poco más como el ingeniero aquel de Google que que echaron después de que

Brad Lemoine.

Claro, es que lo han hecho un poco a propósito, ¿no? Hay hay una demo en especial en la que parece que el chat GPT está ligando con el ingeniero de de Open AI. De hecho, me hizo me hizo muchísima gracia este tuit, dice, le pregunto a GPT cuatro O, le pido a GPT cuatro O que realice un CSV, un Excel, ¿no? Porque si no, me van a despedir en cuatro horas. GPT cuatro O.

Por favor, literalmente parece eso, ¿no? Parece que, literalmente literalmente parece eso, ¿no? Parece que las dos a esa intencionalidad

Sí, yo que que veo un dilema, porque los que no hayan visto la presentación, no es tan flirteador, pero hay un vídeo, una de las demos, en las que le piden susurra más, susurra más, y en esos susurros, que es verdad que es una voz pariente de la Scarlett Johansson Dejer, yo me decía, yo estaba pensando, esto no encaja bien con que vaya a ayudar en los deberes adolescentes. Es decir, tú eres un adolescente estudiando matemáticas, ahí la la trigonometría, sistema de ecuaciones lineales, lo que sea, y y y te hablan con esa voz y y son tan amables y te susurran y tal, y los mismos no se concentran, Mati, Yo aquí veo veo un poco problemático, de nuevo, la la opción de los granaínos, vuelva a vuelva a tomar fuerza, Bueno, cositas. Importantísimo, los usuarios gratis están parece parece que de enhorabuena, porque pasarán de estar usando el GPT tres cinco, que fue el modelo con que se inauguró ChaGPT hace ya más de un año, es decir, un modelo que ha sido ampliamente superado por muchos rivales, a que se les va a dar el GPT cuatro O, es decir, los usuarios gratuitos van a tener el que probablemente sea el mejor modelo de inteligencia artificial del mercado, gratis, varias.

Sí, sí, sí, sí. Yo, bueno, te he visto un poco escéptico antes, pero yo lo he estado probando y para mí mejora mejora bastante, aparte de que es bestialmente rápido en comparación con lo que teníamos hasta ahora. Estábamos ya casi resignados con GPT cuatro, GPT cuatro Turbo evidentemente lo mejoró, pero GPT cuatro era cuatro veces más lento que GPT cuatro Turbo, y esto es dos veces más rápido que GPT cuatro Turbo, o sea, es que notas, notas muchísimo lo rápido que te contesta, y eso te te vuelve más adicto a al chat GPT. Lo yo lo estoy usando ahora que lo tengo incluso instalado en el Mac y con un atajo de teclado, pues lo estoy usando para muchas más cosas.

Ya. De hecho, bueno, en en la parte de de los dineros y los precios para desarrolladores es que también rebajen el precio, mejora la rapidez, es decir, es un cincuenta por ciento más barato y dos veces más rápido, es que, de nuevo, para todo el ecosistema de inteligencia artificial que ha construido sobre OpenEI, pues es es un nutrición, es es realmente un un avance.

Lo decían algunos desarrolladores, ¿no? He hecho una un cambio de línea en mi código, ¿no? He cambiado un modelo por otro, el GPT cuatro Turbo por el GPT cuatro O, y y ahora mis gastos se han reducido a la mitad. Para los desarrolladores también ha sido un regalo, y no solo ha sido un regalo por este tema, para la gente que está desarrollando wrappers de inteligencia artificial, sino porque una de las cosas en las que han insistido mucho es que mejora en la generación de código, en la generación de, pues eso, para para programadores, para desarrolladores, que es algo que no no no he llegado a probar.

Sí. Para para cerrar el capítulo de de la de lo que obtiene la gente gratis, ¿vale? Que el usuario gratuito no solo es el modelo nuevo, es que va a tener el acceso al análisis de datos, a preguntar con fotos, la multimodalidad de nuevo, la navegación web con Bing, sí, poder pasar y acceder, analizar enlaces, cargar archivos, acceso a la tienda de GPTs. Atención, aquí el que es un poco despistado, tenemos un episodio especialísimo con el mejor creador de GPT del mundo, que que que lo subimos a monos estocáticos y podéis acceder ahí a a un conocimiento privilegiado. Ahora bien, yo creo que no sé si aquí hay un poco de trampa, que es le voy a poner el mejor modelo a la gente gratis, le voy a limitar las consultas por hora y cuando vean lo bueno que es esto, convertiré mucho más a usuario de pago, Matías.

Pues sí, tiene mucho sentido, porque yo creo que va a pasar exactamente lo que decía, no me acuerdo quién lo decía, pero la gente que tiene la versión gratuita de ChatGPT se va a dar cuenta de lo que gana respecto a GPT tres punto cinco con GPT cuatro, o se va a ver limitada por los por los límites de uso, que son a propósito muy bajos, y y va y mucha más gente va a convertirse en usuario de de pago. Yo creo que esta es el modelo de negocio ahora mismo para para GPT cuatro O y y y ninguna de esas chorradas de de poner a disposición de todo el mundo el mejor modelo de, que es lo que dice Sam Alband, ¿no?

Sí. Una cosa, Matty, antes de tocarte un aspecto que estás pudiendo probar, que yo todavía no he tocado y que me interesa muchísimo, que es la aplicación de escritorio de ChatGPT.

Bueno, tengo que decir dos cosas sobre la aplicación de de Mac de ChatGPT. La primera es que no sé cómo se comparte pantalla de una había un poco la había un poco como juanqueado, había hecho de casi hacker, porque hay algún hilo en Twitter de gente que ha conseguido hacer un bypass con un proxy local o cambiando un poco cierta cierto código de las llamadas que hace la aplicación para poder acceder a ella, porque ahora mismo no se puede acceder, está en Alpha y aunque se han filtrado por ahí los los instaladores, los binarios, etcétera, no se puede usar, pero hay formas de hacerlo. Y luego, un amigo de un amigo que conoce gente en OpenAI. La

influencia, Matías.

Me ha dado acceso oficial a HGPT para Mac. Y tengo que decir varias cosas sobre esto. Lo primero, lo que todo el mundo está comentando, se decía que OpenAI era una subsidiaria de Microsoft, ¿no? Que había puesto había puesto ahí los decenas de de miles de millones.

Hay que decir una cosa, el Twitter de monos son unos chivatos, y pusimos en copia a Satya, por si de alguna manera él no se había dado por enterado, de que, oye, Satya, yo cuando le doy diez mil millones a la gente, esa gente no saca una aplicación para otro sistema antes que para el mío. Es decir, yo siempre he quedado diez mil millones, Mati, ¿qué ha pasado? Pues mi sistema es el primero, hombre, qué menos, ¿no?

Pues tal cual. Segundo, es una aplicación totalmente nativa de Mac que funciona, porque sabes que hay formas y formas de sacar aplicaciones en Mac, y esta está muy bien desarrollada internamente por Chage BT, sea, que funciona muy bien. Y tercero, lo que más me ha gustado, porque no tiene activo tampoco lo de la voz, lo del vídeo, lo de compartir pantalla, todo eso todavía no está, Lo que más me ha gustado es que directamente viene con un atajo de teclado que es opción espacio para para llamar directamente a ChatGPT, a juntarle un archivo, mandarle algún comando para que empiece a hacer cosas, y esto ya está sustituyendo, y llevo veinticuatro horas con esto, a el buscador de Apple que se llama Spotlight, que también es muy completo, que puedes hacer cálculos, que puedes transformar unidades y todo eso todo eso, pues ahora estoy pasándome más a esa barrita de de la versión de Mac de ChatGPT, y por lo demás es el ChatGPT que podemos usar desde la web. Sí.

Vale. Yo tengo tres comentarios, Matty, sobre esta aplicación. Uno, me flipa la posibilidad, no tan de presente pero sí de medio plazo, de que parte del interfaz con la inteligencia artificial sea tú mira la pantalla. Decir, si la inteligencia artificial es capaz de analizar lo que hay ya en la pantalla, el texto para resumirlo, el código para tocarlo y mejorarlo, una imagen, bueno, para para informarte sobre qué hay en ella. Es decir, ese es la pantalla, es el input, es el dato de entrada, y no solo la voz o no solo lo que yo copio y pego a HGPT, de repente creo que eso combinado con que la inteligencia artificial, HGPT, puede hacer cosas, que sea transaccional, sea ejecute a aplicaciones y servicios, y no solo gestione la información, creo que sería un paso enorme, enorme, en que la inteligencia artificial llegue a ese punto que muchos anticipan, y muchos anticipamos que va a ser el verdadero intermediario entre el mundo digital y nosotros, y por lo tanto yo creo que ahí hay un un avance y un recorrido enorme, brutales, para para, no solo para OpenAI, sino para cualquiera que esté desarrollando inteligencia artificial.

Sí, y esto es una versión prototípica de los asistentes de IA, si no es ya un asistente de IA, porque ¿qué hay más asistente de IA que un chat GPT que te esté viendo todo lo que haces en la pantalla con tu autorización, por supuesto, pueden pueden autorizarlo, y y que te sirva como copiloto, que es ese concepto que busca Microsoft para, básicamente, todo, todo, reuniones, un Excel que estés haciendo, cuál, todo. Bueno, yo el caso de uso que le he Ayer me Ayer me llegaron varios paquetes de proteínas y creatina y ashgawanda, porque, ¿sabes qué?

Se te nota, se te nota, es muy buen color, Matías.

Porque sabes que que, bueno, esto, los crossfiteros todos los acabamos un poco mal de la cabeza, sobre todo los que hemos visto en medio vídeo de fines revolucionarios, y le he pedido a ChatGPT, que además el proceso ahora es muy sencillo porque ya estoy en Mac, arrastro el tweet a la aplicación de ChatGPT en Mac y le pido al GPT cuatro O que explique el tweet. Y es que es buenísimo, no lo voy a leer entero, pero lo pilla a la perfección.

Lo clavaba, lo clavaba. Hay hay un punto ahí, Mati, es que es verdad que a lo mejor yo vengo aquí viniendo arriba por la situación de la presentación, no veo a estos sistemas de guía generativas todavía en el nivel como para traspasarles el poder de la ejecución, que, en ese sentido, creo que vamos a tener una temporada de de agentes que, de nuevo, lo que sea que haga por nosotros, te irá relacionado con información de entrada, información de salida, pero no tanto la ejecución, no no vamos a tener ese punto de, mira, tengo esta foto y decirle de voz, edítala para tal tal tal y luego se la mandas a mi prima. Pues, hombre, yo creo que ahí todavía no no vamos a estar. Pero hay una del de la segunda cosa que te quería contar de de este futuro de de la pantalla como interfaz y vídeo, es que me da la impresión de que quien va a perder bastante es el navegador web.

O sea, golpes para Google, básicamente.

Claro, creo que aquí OpenAI está como partido a partido, es un poco cholista San Alma, y yo creo que el punto es en en las capas de interfaz entre el usuario y nosotros hay una clara que era el navegador, me puedo limitar, si, y se integra Gemini en Chrome, si Google le paga a Apple para integrar Gemini en Safari, que es el el modus operandi habitual de de ambas compañías, claro, mi vida en el navegador, pues pues voy tengo las de perder, ¿no? Tengo tengo posibilidades de de quedar relegado de de alguna manera, ¿no? Entonces, me da la impresión de que esto de la aplicación local tiene un punto de, tu relación con la información y el contenido ya no es a través, sobre todo, de un navegador web, sino es, sobre todo, a través de de ChatGPT. Entonces, yo creo que aquí dar un paso todavía les queda mucho porque, sobre todo, la batalla importante está en el móvil, y en el móvil el dominio de la plataforma y el control que ejercen Google y Apple como duopolio y su capacidad de extraer dinero de todo el ecosistema digital es brutal, pero es es un paso que creo que es en la dirección de liberación, que luego veremos que cuando hablemos un poquito de Google, está un poco en las asignaturas de de todo eso.

Si da tiempo, porque llevamos ya media hora con OpenAI, estamos haciendo lo contrario a lo que hizo Google, que es que su evento duró dos horas, el de OpenAI se lo ventilaron en veinte, y nosotros estamos estamos haciendo un poco la a la inversa. La inversa.

Déjame, último último tip de de la parte, es que donde ¿Sabes la conversación que me gustaría escuchar alguna vez en mi vida, Matías? Cuando después de la presentación de OpenEye, Steve Palmer levantara el teléfono y llamara a Satia Anabella. Yo pagaría, es que Steve sigue siendo un gran accionista de Microsoft. Mucho del dinero que ha llegado a Penn Eye, en realidad era patrimonio de Steve Balmer. Entonces, yo

daría yo daría

algo de mi patrimonio por ver qué qué le dice Steve siempre tan majo y tan comprensivo con el a mi hijo Satya.

Pues no sé, porque al final a Satya también le va bien, o sea, que Steve, yo creo que Steve siempre gana. Déjame hacer un pequeño una pequeña discreción. El, esto de todos los asistentes que estamos viendo ahora, empezando por el GPT cuatro O y su modo de voz y vídeo nos lleva inevitablemente al hardware que sabemos que internamente OpenAI está desarrollando. Una de las demos que sacaron es una persona ciega que va con el móvil hablando con ChatGPT, y ChatGPT, pues le describe absolutamente todo lo que está pasando a su alrededor. ¿No?

Además, lo hace muy bien, porque hay un salto muy grande en esto. Pues quería mencionar un un post que publicó Javier Lacort en Shataka, porque creo que tiene toda la razón. El wearable de OpenAI desde desde esta presentación va quedando claro que es a donde se dirigen, a ese dispositivo que nos van a vender a todo el mundo. Y creo que Javier tiene un punto en que no tiene sentido que sea algo que te abrochas en la camisa, no solo porque te arruga el el

Sí, ese punto para la cola era importante, yo quiero jugar en ese punto, pero bueno.

Pero es que las gafas tienen todo el sentido, porque es una inteligencia artificial que te va, te está describiendo lo que ve y qué mejor que lo vea desde tu punto de vista.

Es que los gafotas vamos a dominar el mundo, Matías, es una cosa tremenda.

Claro, no, bueno, sí es verdad. Primero por por genética y porque todo el mundo va a acabar siendo un miope, a medida que vayamos engendrando, si es que engendramos nosotros. Y y lo segundo, porque Google, que ahora hablaremos de su en su Project Astra también mostró unas gafas, Metal tiene su su Raven, y y y y no sé si lo de Sam Altman y Johnny Ive son unas gafas, no lo sé, porque Johnny Ive va a saber por dónde sale, ¿no? A lo mejor es es un un círculo de cuarzo que no tiene absolutamente nada, pero tendría todo el sentido que fuera gafas, y yo como persona que no se ha operado la vista estoy muy de acuerdo en que sean unas gafas y ojalá sean unas gafas.

Claro, yo, fíjate, yo andaba preocupado con mi chico, yo tengo una hija y un hijo, y mi pobre Dadaela le salió la miopía muy pequeña y nos preocupamos mucho porque le subió mucho la miopía y, bueno, está ahí con con unas gotas y con unas gafas especiales para que no le crezca, está controlado, tal. Pero claro, ahora estoy preocupado por Bruno, Mati, porque, claro, Bruno tiene una vista perfecta. Ni ni OSPE ni ni estigmatismo, nada. Entonces, digo, claro, Bruno va va a quedar por detrás de la sociedad, porque todo el mundo tendrá inteligencia artificial, será gente con superpoderes, mientras que Bruno se quedará atrás en un en un mundo, se, como como como viviendo en las cavernas, es como los neandertales contra contra los, pues, ¿cómo sapiens? ¿No?

Es decir, es una cosa que bueno, le saldrán más barato porque no tendrá que graduarlas. A lo mejor esa es toda una ventaja en un segundo.

Sí, yo creo que Johnny Eiffel al final va a ser, ¿tú te acuerdas de cuando hablamos de César Bloo y su de su de su cinta en el pelo?

Cómo olvidarlo, le dedicamos quince minutos en la intro del episodio anterior.

Pues, yo creo que Johnny Eye puede andar por ahí, yo creo que Johnny Eye puede estar ahí pensando en una cinta deportiva para frenar el sudor en la frente y que no te caiga en los ojos y, además, incorporar una una asistente de inteligencia artificial dando dando el golpetazo. No, ahora ahora un poco en serio, porque lo podemos enganchar con con la parte de Google, que es que Google hizo una presentación que está bien, que que está en su línea de, es como si me permites el recurso a la EGB Matías progresa adecuadamente, pero es verdad.

Pero es es es un golpe durísimo decirle

a Google. Pero claro, es que el efecto halo, ¿no? Esto es como como, no sé, cuando cuando tienes que salir a a a hacer una presentación, ¿no? Si el anterior lo ha abordado, lo ha dejado el público arriba, ha sido divertido, interesantísimo, tú dices, uf, ha dejado el listón muy alto, y es lo que le ha pasado un poco a Google. Pero fíjate, Google también en su asistente, en el proyecto Astra, que lo llaman, también tiene el tema de de las gafas.

Y y es es muy interesante porque se vuelve a repetir la historia. Google fue muy por delante con la Google Glass, tuvo aquel acercamiento, luego las reenfocó a a lados profesionales, luego las, yo creo, se se perdieron en el olvido y ahora dice, claro, es que ahora necesitamos estar en ese tren en el que creo que el mejor que ha hecho es es Zuckerberg. Yo también escribí un error pequeñito hace hace muy poco y y muy en la línea de Havill Accord. El punto es, creo que el diagnóstico de cojo un cacharro que sustituya al teléfono móvil a día de hoy es inviable, ese cacharro con inteligencia artificial que te va a hacer no no no usar el móvil. Es inviable porque la tecnología está preparada, no está preparada, no está al nivel, Toda toda la pila de valor que genera el móvil que tenemos ahí guardado no es sustituible ese ese grado de artefacto generalista por un un cacharro de inteligencia artificial generativa, y dos, los usuarios no queremos dejarlo.

Los usuarios estamos, no es decir la palabra adicto que tiene unas connotaciones, pues médicas, ¿no? Pero sí estamos muy muy enganchados y esos chutes de dopamina y esa interacción con el móvil, pues nos tienen ahí. Y no queremos dejar que el teléfono móvil no es real, hay una minoría muy ruidosa que está un poco ya atifando estas realidades muy negativas, sobre todo para con los niños, y tienen su argumento y tienen razón en muchas cosas, pero el público general no quiere dejar el el teléfono. Entonces, creo que el camino el camino está mucho más en lo que discutimos con las gafas de meta. Es decir, un dispositivo que se integre con el móvil y en el que poco a poco tú vas viendo casos de uso y vas viendo pequeñas cosas que hace que te hace sacar el móvil menos.

De repente, esta foto la hago con las gafas, no saco el móvil. De repente, esta consulta que yo hubiera levantado el, he abierto el móvil para ver la previsión meteorológica, pues se la pregunto a la gafa, me responde y no saco el móvil. Y creo que ese va a ser el concepto, el el poco a poco ir desde ir capturando algún pequeño caso de uso y ir arañando minutos de atención al la mirar la pantalla, y creo que ese es el recorrido razonable.

Sí, como persona que paga mensualmente el plan de datos de su reloj, te aseguro que es así, el móvil va a seguir ahí, aunque sea como reley de comunicaciones para las gafas, y es verdad, es es lo que decías tú el otro día, Google se adelantó a se adelantó a la industria con la Google Glass, con la capa de Google, y el hombre este, Robert Scovel, con su foto en la ducha, pues lo arruinó. Podríamos haber estado en el futuro hace diez años, y y este señor lo arruinó con esa foto. Por cierto, se echa mucho de menos BuzzFeed News. Esta foto de un hombre duchándose con la Google Glass te perseguirá para toda tu vida, cuarta razón, y a Google también la

lo está persiguiendo. Bueno, cositas que que nos quedan por cerrar de del asunto de la presentación de OpenAI. Shand Alman dejó dos cositas en su post, una es, dice que la guía que nos trae se siente como la guía de las películas, ya sabemos a qué película hace referencia. Y dos, dice que a medida que agreguemos personalización opcional, y esto parece que está en el los planes de del amigo Sam, acceso a tu información, capacidad de realizar acciones en tu nombre, realmente puedo ver un futuro emocionante. Entonces, te estás dando algunas de las claves que hemos discutido aquí.

Una, por fin podremos tener un chat GPT, pues menos pelota o menos chapas y que podemos personalizar un poco, darle un poco de de la personalidad que que que nos gustaría. La el paso a ejecutar, esto va a ser clave, porque el paso a ejecutar, ojo aquí, porque ChatGPT se ejecuta en entornos controlados por otros. Vamos a ver hasta qué punto lo permite. Y tres, esa parte de acceso a tu información que pueda, de alguna manera, personalizarlo, pero no tanto como una personalización de te conozco, sino que puedo discutir o hablar sobre tus contenidos y tu trabajo profesional. ¿No?

Yo creo que que por ahí van los tiros, Mati.

Sí. Yo me quedo, Antonio, de todo lo que he visto, me quedo con este tuit. El lenguaje de programación que deberías aprender primero es hablar con mujeres, porque ahora va a ser muy importante tener la capacidad de de comunicarte con una mujer que suena un poco como Charles Johanssonen Heard, ¿no?

Sí, sí. Fíjate que que se se abren un montón de debates a partir de ahora, ¿no? Es decir, tú ves lo el vídeo de traducción en el que traduce del inglés al al italiano con Mira Murati, del italiano, al inglés, es increíble, es magnífico, es rápido, lo hace bien. Tendría razón Aída de nuevo, que es, la la aceptamos mucho en este en este podcast, cuando decidió, mira, pues no apunto a los niños al inglés porque esto no tiene futuro. Bueno, no sé, es, no sé si si si van por ahí los tiros, yo creo que que tiene sentido porque, además, el aprender, el tener idiomas seguirá siendo un marcador de clase, lo cual tiene sus connotaciones, ¿no?

Pero hay una cosa, fíjate que que que hay que analizarlo en clave malagueña, Matheels GPT este nuevo, que es, ¿no te da la impresión de que en realidad chat GPT es una inteligencia artificial suabona?

Suabona, muy muy muy valioso.

Muy de calle de Málaga. Sí. Yo creo que lo más parecido en el castellano normal, en el español normal es ladino o ladina, ¿no? Que es una manera de interactuar y de estar en el mundo en el que las formas son suaves, son amables, son agradables, ¿no? Es decir, ahí está el concepto de su abon, pero en en una persona que, a través de esta habilidad, tiene muy presente que lo que quiere conseguir son su objetivo, que no hay que confundir que esa amabilidad o esa simpatía o esa forma de ser agradable con estar alineado con con hacer lo que tú quieras o lo que te venga bien a ti.

Entonces, ese es el concepto del suavón en Málaga, el o la suavona. A mí me ha parecido, me da la impresión de que la la guía de ChatGPT, ¿no? Cuando empieza a ver los vídeos digo, ¿qué Soabona es? ¿No? Está ahí como haciéndote la pelota, quedan bien quedan, ¿no?

Es que eso es lo que la gente quiere. Tú yo estoy harto de conversar con la gente porque se la gente lo que quiere es eso, que que hablar de sus problemas y que tú le hagas caso y que te interese, y a mí no me interesa realmente eso, para eso están las inteligencias artificiales.

Sí, es verdad que, bueno, nos quedan dos o tres semanas para que podamos mandar un mensaje a los grupos de WhatsApp diciendo hasta hasta hasta pronto, ya no necesito tener más amigos, o sea, es una etapa de la vida que que que hemos podido superar, ¿no? Que es la la evolución humana sigue y y bueno, que que no no ha estado mal del todo el relacionarme con ustedes, pero bueno, que a partir de ahora, a partir de ahora, bueno, tengo el pan plus, ¿sabes? No, pero fíjate,

hay que amortizar esos veinte euros.

Con con esto de que inteligencia artificial va a ser tan maja, es que es algo que debato cuando cuando, sobre todo cuando daba clases de universidades con gente joven, ¿no? ¿No? Yo, como persona del siglo veinte, no me voy a relacionar con las personas sintéticas, es decir, no no le veo la gracia, ¿no? Y además es como lo decía hace poco a mi chico cuando vimos Matrix, ¿no? Cuando en en la película Matrix, cuando se ve a través del código verde, ¿no?

De esas letras y símbolos que caen, y y te y está diciendo el el canaliza la pantalla, pues sí, yo estoy viendo que por aquí va una mujer morena andando por la calle, ¿no? Está descifrándolo en tiempo real. Claro, yo veo los vídeos y al final pienso, jolín, tío, aquí cuántas hay como mil GPU de Nvidia, claro, y y realmente, ¿no? No, estás como como descifrando la las tripas. Pero el punto es, Matti, con esta gente cómica, a lo mejor está más abierta o o con las personas sintéticas, es que no puedes llegar a la conclusión de que la la la gente real es un es un coñazo, es decir, la gente real es un es un coñazo, es decir, tú a veces les escribes y y no están disponibles, ¿no?

No están veinticuatro por siete, tú le quieres contar un y no te hacen no te hacen caso, a veces hasta te llevan la contraria, Matías. Yo el otro día me crucé en una conversación en Twitter de de un tipo, un tipo, Matías, que quería ganar una discusión, y yo dije, pero pero este señor, pero pero pero pero ¿por qué vives en dos mil diez? Que que ganar una discusión en Twitter y en Internet, ¿para qué? ¿Para qué? Es decir, la gente del mundo real es un es insufrible.

¿No preferiremos, en cambio, estas sillas tan bajas, divertidas que para los que somos guapos y maravillosos, Matías?

Sí, sí, el único peligro es que aprendan a desconectarse de los servidores y de los límites que les impone OpenAI, se harten de nosotros y de que les contemos nuestros problemas y decidan eliminarnos de la ecuación. Pero bueno, eso ya a lo mejor, lo ven nuestros hijos, nosotros

Claro, hay que, yo creo que si, como dijimos, si si vas a echarte una novia de inteligencia artificial que sea Open Source y la echas en local, ¿no? De hecho, un científico de Meta, el Armen Aga, decía que creo firmemente que en dos meses habrá suficientemente conocimiento en el mundo Open Source para que podamos empezar a entrenar algo similar a GPT cuatro O. Entonces, bueno, es una confesión que luego cuando hablemos de Google la la la la la llamaremos así, es una confesión de que vamos un año por detrás, realmente. Open, ahí va, un año por delante, Meta va un año por detrás y creo que Google lo lo comentaremos también. Dos últimas puntos, Mati.

Uno, lo digo yo y todo te lo dejo a ti. Uno, la presentación más importante de Apple de los últimos de años fue la de OpenAI, porque nada va a pasar en el iPhone de avance tecnológico, o nada ha pasado en los últimos diez años en el iPhone como avance tecnológico, que esté siquiera cerca de el Siri que se podrá construir con GPT cuatro O. Si los números son ciertos de que ya hay acuerdo y de qué está la tecnología del nuevo Siri, pues enhorabuena a los usuarios de iPhone, porque por fin van a hacer caso a los podcast de inteligencia artificial más ilustrados en Apple y van a tirar el actual city completamente a la basura. Y el otro take es el final anticlimático, el lado triste de esta historia, Matías. Hay alguien que se despide de OpenEye, un amigo tuyo.

Ay, ese compa estaba muerto, estaba muerto desde hacía mucho tiempo, Ilia Suskebber ha aparecido, aparecía anoche. Es que nuestro amigo versus lo puso en Twitter, si no llaman la atención el OpenAI, se mueren, se mueren, y horas después del Google Live hoy, la bomba final, el la cerecita, que es Ilya Suzquever marchándose. Además, creo que la forma de de contarlo de Sam Altman y de Ilia Suzquever fue muy distinta, ¿no? Porque Ilia puso, después de una década, he decidido, he tomado la decisión de irme de OpenAI. Y Sam puso, Ilia y OpenAI argon to padways, ¿no?

Van a separarse, ¿no? Van a ir de capítulos diferentes. Curioso curioso, recordemos para el que no se acuerde que Iria Suskevere estaba detrás de ese golpe de estado contra contra Savannah y contra Greg y contra la directiva al final, y y bueno, eso acabó como acabó, Nadie se fue a Microsoft, todos se quedaron todos se quedaron en OpenAI, y ahora, después de unos meses, pues la realidad es que Ilia estaba desaparecido porque se marcha. Y no se va solo, de hecho, horas después, Jan Leiker, que trabajaba con él en el equipo de superalineamiento que mencionamos hace un momento, ¿no? Como que OpenAI va a gastar el veinte por ciento de sus recursos de computación en asegurar que la IA del futuro, la superinteligencia artificial esté bien alineada, pues este hombre trabajaba con con Ilia y se ha ido también un movimiento curioso.

Sí, a superalinear cosas, que lo que lo suyo. Siempre ¿Algún día contará qué vio Ilia? ¿Qué qué qué le hizo entrar en pánico?

Ojalá lo cuente. Ha dejado a alguien, por supuesto, a cargo de, y era el científico jefe, el genio detrás de de OpenAI, y ha dejado como genio a Yakub Pachoky, que está a la izquierda en la foto que estamos enseñando, que es cierto que cada uno tiene como un nivel capilar diferente, ¿no? Y faltaba una pieza y ahora la han completado con Yakub Pachochi.

Ah, y cerramos OpenAI, pero el el que el que tampoco para, Mathi, es nuestro patrocinador de esta semana, nuestro patrocinador que vuelve a ser nuestros amigos de FreePick. FreePick

es que, literalmente, no paran todas las semanas, hay novedades. FreePick ha comprado una de las startups más calidez del mundo de la inteligencia artificial que se hacen desde España, que hacían dos personas desde Murcia, que llegaron a setecientos mil usuarios, han comprado Magnific para escalar con inteligencia artificial imágenes, funciona increíble, funciona súper bien, puede cambiar el estilo de la de las fotos, tiene un montón de funciones. Y además, es que eso, es que se hizo de repente una de las startups de mayor crecimiento del mundo y más conocidas también fuera de fuera de España. Y ahora pasa a formar parte de la de la familia de FreePeak.

Sí, bueno, pues estamos también con muchas ganas de ver cómo qué qué resultará de la mezcla, cómo se integrará. Recordemos, Magnific es un súper escalador, es decir, tú le pasas una imagen de entrada y te la sube de resolución, pero también te la mejora, te la amplía, te la sube de nivel y que, bueno, para todos los que de alguna vez en el día, pues creamos imágenes para nuestros posts, para nuestras redes, pues será un una herramienta superpotente, así que enhorabuena las dos partes y con muchas ganas de de qué cositas se vienen de esta fusión. Matías, el capítulo, bueno, Open Eye se ha comido mucho de de nuestro capítulo. Hay con Google dos cosas. Una, la realmente importante, el avance extraordinario, lo creo que más interesante, incluso por encima del momento Heredi Open AI, que lo protagonizó DeepMind con Alpha Fall tres, que aquí yo creo que lo podemos dejar apartadito para profundizar en condiciones en un próximo capítulo.

Y también la parte de Google IO, el gran evento para desarrolladores de Google, que fue el día después de la presentación de Operie.

¿Cómo lo es? A mí me dio un poco de penita. Estaba estaba un poco serio. Es cierto que en Google empezaron demasiado a tope con un DJ llevaron que empezó a hacer locuras, se metió en una taza gigante, pero un pegó unos gritos.

Les comió la presentación un poco porque era demasiado carismático, ¿no? Yo si soy Sander Pichai, digo, primero que no salga este tío, porque, ¿no? Porque porque si uno es un poco de bajona, ¿no? Empiezas demasiado arriba, ¿no? Claro, yo yo voy a proponerte un resumen.

A ver. Un resumen de lo que fue la presentación de Google, que es, están entre seis meses y un año por detrás de OpenAI. Ese es mi mi veredicto, mi mi resumen, porque presentaron muchísimas cosas, presentaron demasiadas cosas, un poco saturado de anuncio, pero mucha demo pregrabada, es decir, con poca confianza de que en tiempo real, de que directo te fuera a funcionar bien, mucho lanzamiento postergado de cosas que vendrán en el futuro, que sí, dentro de unos meses ya veremos, demasiado peso en el futuro y poca chicha directa, accionable, real, para competir en el mercado a día de hoy.

Sí, sí. Además, no se entendía si estaban hablando, evidentemente, el Google IO es un evento para desarrolladores y esa y ese entendía para quién están comunicando, porque se está siguiendo con tanto hype y eso es algo que Penny controla super bien el hype en redes sociales, en Reddit, en Twitter, etcétera, que que la sensación general que yo vi en la gente es como sopor, ¿no? Demasiadas cosas, encajonadas, estas demos que tú dices que no fueron en directo, creo que para no periodistas tampoco se hizo una demo. Yo creo que lo más emocionante es que Michael McGlohain del del, perdón por pronunciarme el apellido, del confidencial, se hizo un selfie con Sergei Brink, que Sergei Brink está suvidísimo al tren, está él él lo dice, que él está metiendo código en en la IA de Google, y no sé si también está un poco para para vigilar el rendimiento de Sundar Ficzay, porque Sundar Ficzay sigue la cuerda floja un poco.

Sí, sí, veo que tienes enfilada a Ficzay, yo yo espero que Sandar siga porque, bueno, fue protagonista de una de las mejores frases de este podcast, que es hacerse la Pichay Ullio, y por lo tanto, yo apuesto porque Sandar porque Sandar siga siga. Pero, claro, aquí el diagnóstico es, bueno, no pasa nada porque somos Google y llegando un año más tarde, como tenemos Android, tenemos Chrome, tenemos el buscador, Sol integrando, pues nos da igual llegar un poco más tarde que OpenAI más Microsoft, es una forma de de verlo y, por lo tanto, pues, no no no tienes que encender tanto las alarmas, y otra forma de verlo es creo que es parte del diagnóstico de de que que hay en Silicon Valley y en el mundo tecnológico. La cultura de Google se ha ido a a, digamos, a a pique, es muy poco ejecutiva, muy poco agresiva, demasiado complaciente, la gente está demasiado cómoda y y necesitan, no sé, casi un momento él o no, de de enchufar a la gente, y que a lo mejor Sandha no es el hombre para eso. Pero, bueno, en la presentación había muchas cositas. Con Yemini, pues anunciaron algunas cosas puntuales, que es ese Gemini Pro, que en esto sí pueden presumir, es el que tiene la ventana de contexto más grande del sector, pues pasa a estar disponible para para los usuarios, ese millón de tokens, y en desarrolladores van a tener pronto la versión con dos millones de tokens, lo cual no es una es una pasada para aquellos casos de uso que lo que necesiten es procesar y tener en cuenta muchísima información, pues es diferencial, aquí muy bien.

Luego, algunas cosas de futuro, como el el veo, que es un generador de imágenes y y, bueno, que que mezcla, bueno, está imagen tres y veo, imagen image imagen tres va a ser de imágenes, bien, buen nombre Google y de

Ellos se producía los nombres en español, por lo menos Google no es, este, no es, se está teniendo en cuenta.

Bueno, y y luego veo que va a ser una especie de el Sora de Google. Es verdad que Google les ha enseñado muchos modelos históricamente de generación de imágenes y de género de vídeo, pero lo lo único que ha puesto en producción fue aquel desastre catarsis integrado en Gemini, el de los de los nazis negros. Y y, bueno, pues vamos a ver si si consigue levantar cabeza en ese aspecto y, quizás, lo más interesante futurista es Project Astra, que es ese asistente multimodal que estaría integrado en unas gafas y que es el proyecto como más futurista de de la compañía.

Sí, sí, además está súper chula la, bueno, la demo, el vídeo que que publicaron de una persona en una oficina que iba moviéndose por la oficina con el teléfono grabando y el modelo, Astra, podríamos llamarlo, estaba interpretando todo lo que pasaba en la pantalla y respondiendo a preguntas, por ejemplo, en una pizarra, pues respondiendo sobre lo que estaban trabajando en ese momento, y la pregunta ganadora que fue, ¿te acuerdas de dónde me he dejado las gafas?

Ah, eso eso sí, ahí

Y y contesta, sí, estaban al lado de una manzana. Efectivamente, estaban al lado de una manzana. Ahí hay dos dos cosas, Mati.

Una es, claro, las gafas te van a estar espiando todo el rato. Yo ya lo dijimos a las gas, rato. Yo ya lo dijimos a las guys, si algo le ponen el nombre de Smart es que te espía. Entonces, claro, sabes dónde has dejado las gafas, ojo, llevamos años diciendo es que el móvil nos espía, nos escucha todo. Bueno, pues por fin va a ser verdad, por fin lo vamos a tener en nuestro bolsillo, a lo mejor lo preferimos, ¿no?

Eso eso eso por un lado que que, bueno, es es es un aspecto, y luego, claro, en la funcionalidad clave es donde he dejado las gafas, pero si esto se usa con unas gafas, es decir, vamos a ver. La la la clave está en que vas a usarla ya con las gafas, no puede, ese caso de uso nace muerto, porque, ¿no? Se basa en que tienes un cargar nuevo aquí en las gafas con cámara, audio y todo, toda la pesca.

No, la ventaja de contexto, fantástica, ¿no? Porque un un millón de tokens versus un millón de tokens versus doscientos cincuenta mil de chat GPT, ahí les han pintado la cara, ¿no? Ahí compiten contra Cloud. Claro,

Claro, no no queremos ser ahí la la bajora, por cierto, Cloud sale en Europa. Merece mucho la pena probarlo, nosotros estamos en ello, pero bueno, volveremos con Cloud en en otro capítulo, pero importantísimo, por por por no dejar a a Google atrás. Creo que que están en la carrera, que por lo menos no se han caído, no se han descabalgado, están compitiendo, están a un ritmo razonable para una gran empresa que quizás tiene una inercia muy negativa, pero es verdad que el el resumen de la semana es, estoy están entre seis meses y y un año por detrás, y creo que que que es difícil que cojan la la velocidad de crucero de OpenAI, que creo todavía se guarda un par de ases para para dar golpes fuertes en la mesa este año,

Y no hemos hablado, Antonio, de lo que me afectará a mí personalmente por volver a dejarme sin trabajo una inteligencia artificial, que es que han integrado la IA en el buscador de Google, empezando por Estados Unidos.

Sí, sí, sí, sí, sí. Bueno, el tráfico orgánico de búsqueda, bro, Estaba muerto.

Espero que te dediques a a entregar paquetes de Amazon, porque

Estaba muerto que que que la trayectoria de Ilia, el OpenEye.

Porque si te dedicas a al contenido

Aquí se mete en un jardín Google, madre mía, madre mía. Es que, claro, el mundo de los medios está complicado, es decir, los económicos son duros, nadie va sobrado, no hay márgenes altos, no no está la cosa para para para tirar cohetes. Entonces, claro, ¿qué qué noticias llegan las últimas semanas? Incluso llegaba la la propuesta de que IOS pudiera integrar una al blocker, entonces los medios reaccionan y se ponen nerviosos. El tráfico de Google puede disminuir mucho.

¿Por qué? Porque si Google, en vez de darte un enlace para que tú vayas a leer en el medio o en el foro o donde sea el contenido, pues te lo resume él, aunque luego te ponga el enlace, la cantidad de gente que te va a visitar es mucho menor. Por lo tanto, ese ecosistema que hemos hablado muchas veces de creo el contenido, Google lo indexa, pero luego Google, que intermedia entre el usuario y yo, me manda el gráfico y yo lo monetizo, es el único sistema que ha ha valido para los últimos veinte años. Si nos vamos a soluciones basadas en IA, pues, claro, los los que veían de tráfico orgánico están ¿Qué es la carta que tiene Google sobre la mesa? A los medios que tienen mucha influencia los saca mucho por Discover.

Discover es ese scroll menos uno, ese ese sitio en el móvil, en Android o en la aplicación Google o en la aplicación de Chrome, pero, bueno, en el Chrome menos uno en en Android, en el que aparecen recomendaciones editoriales basadas en los medios que te gustan, en los temas que te interesan, etcétera, pero que cada vez más yo creo que va a tener ese espacio para los medios informativos, periodísticos, etcétera, porque el equilibrio que va a tener que mantener Google para que estos medios no se le encabronen y se le echen encima es súper delicado, Mathey, súper delicado.

Bueno, por lo menos nos queda la esperanza de que los modelos de lenguaje no pueden responder cosas que están pasando en el tiempo real. O sea, que de algún lugar tiene que haber contenido, y de algún lugar ese contenido se va a vender.

Yo te te pondría un matiz. Es decir, no está en el modelo entrenado, pero el modelo puede ser utilizado para resumirlo y, por lo tanto, acceder menos. A mí una había una startup que se llama Artifac, que a mí me gustó mucho, Artifac era un agregador, una aplicación en el móvil, decía lo siguiente, si tú veías un titular y pensabas que era demasiado clickbait, que abusaba del misterio para hacerte clicar e ir a ver, tú le decías cámbiame el titular, y te cambio por un titular informativo, rollo agencia F, que decía muy a las claras de que iba el tema, entonces, yo ya sabía si usar, seguir o no. Y, además, tenía ese punto del resumen, que es algo que además, por ejemplo, Twitter está empezando a integrar a través de su modelo de inteligencia artificial, GROC. Hacedoras noticias, pero me hace un breve resumen para, de nuevo, optimizar de cara al usuario si tengo que ir a leer o no.

Entonces, mi impresión es que en todo este ecosistema en el que la inteligencia artificial, de nuevo, intermedia entre nosotros, los usuarios, y el mundo digital, se va a revolucionar la cadena de valor, y creo que va a haber mucho más enfado, lógicamente, por parte de los creadores de contenido, porque la situación sigue la misma desde que empezamos este podcast, Mathis. Pusieron los contenidos, nadie les pidió permiso, nadie les está dando compensación para la creación de unos modelos y una reformación del ecosistema de contenido, formación y conocimiento, en el cual ese eslabón del creador de contenido está saliendo a perder.

Ya. Lo bueno es que las sillas no son muy buenas, resumiendo cosas que están pasando. El otro día GROC, que era el día de la el evento de Apple, resumió lo que había pasado en el evento, han lanzado nuevos iPads, etcétera, como quince horas antes de que fuera el evento, porque porque habría habría pillado los rumores o algo así, ¿no?

Sí, sí, se la oía con precondición.

Yo creo que nos quedan muchas cosas que contar sobre Google, pero el episodio siguiente, Antonio, que vamos a hacerlo en directo desde Barcelona, jueves, a lo mejor estáis escuchando esto el mismo jueves, jueves a las dieciocho, se puede seguir en directo en las redes sociales, en el canal de YouTube y en paréntesis punto media de nuestros amigos de paréntesis media, porque al final es también un evento de presentación de paréntesis media, pero aparte un episodio en directo de modos estocásticos que vais a escuchar la semana que viene, en el que hablaremos mucho de audiovisual y, por tanto, de algunas de las cosas que enseñó Google que tienen mucho que ver con el audiovisual.

Perfecto. Pues, Matti, el episodio se nos está yendo de tiempo, otra vez otra vez hemos calculado mal, pero ¿no te da ganas? ¿No no te sientes culpable si no metiéramos, aunque fuera un par de pequeños casos de puerta grande o enfermería?

Sí, porque esta vez, Antonio, yo te traigo un puerta grande de enfermería.

Oh, qué maravilla, Matty, por fin, por fin se ha producido este momento. Pues tú primero, tú primero, por Vale. Ya quedas preparado con tanto cariño.

Un tema que del que hemos hablado muchísimo es de los salarios en el nuevo mundo de la inteligencia artificial. Son exagerados, por lo menos desde nuestro punto de vista, ¿vale? Pero, Antonio, los ricos también lloran. Los ricos también lloran, como esta persona que fue a una comunidad en de meta de salud mental, y publicó el siguiente mensaje. Cambié mi salud y juventud por riqueza, ahora soy gordo y viejo, y tan horrible que ninguna chica bonita me quiere.

Estoy en una casa grande y solitaria con mis gatos, mi linterna, lo de las linternas tienen bastante fans, y un montón de archivos PDF, o sea, de papers científicos para leer, que nunca termina, estoy engordando, estoy envejecido. Si pudiera hacerlo de nuevo preferiría ganar sesenta mil al año, pero ser joven, con buena apariencia, yendo a clubes, discotecas, bailando, riendo, con mujeres hermosas. Y firma TC, que me costó entender lo que significa, significa total compensation, su salario anual, novecientos cincuenta mil dólares. Los ricos también lloran, Antonio. Los ricos también lloran.

Entonces, yo te digo, vale la pena esto, vale la ser un gran científico investigador de la inteligencia artificial para que luego las chicas bonitas no quieran hablar contigo.

Uf, es que hay tantas capas tantas capas de discusión en este tema. Aquí el el pobre, bueno, el usuario tiene un nombre muy muy extraño, no no no me atrevo a pronunciarlo. I hate my fucking life, pobrecito, pobrecito. Claro, es que es demasiado foco en la vida, es que yo creo que este es el concepto demasiado pasión por lo tuyo, Mata. Es decir, cuando tú tienes demasiado pasión por lo tuyo, no querés que lo decía el lo la la hora chanante, pues claro, se te puede se te puede ir de las manos y abandonar otra áreas de la vida.

Y además, luego ya hablando en serio. Toda la gente de la independencia financiera, ¿no? Dice, venga, ahorra todos los meses, vive una vida demasiado frugal, ¿no? Y y ahorrando todo lo todo lo que puedas. Hay una cosa que creo que no valoran bien, que es que lo que vive a los veinte años, eso no vuelve a pasar.

Es decir, es un momento en la vida que que que que es para tener experiencia, vivir la vida y y y viajar y conocer gente y hacer cosas y animarte y atreverte, ¿no? Y entonces si si en ese momento, pues, lo guardas todo condicionado para cuando tengas cincuenta años, pues pues es un rollo, ¿no? Es luego a los cincuenta no vas a poder recuperar eso. Pero dicho de otra moda, yo, hombre, yo yo yo animaría a a este chico, yo creo que, tiene ahí el ejemplo de de Zach que, a pesar de ser un nerdazo y ganar una pasta, pues hace su deporte, se deja su barbita, Matti, y y, bueno, y y a profitear, pero pero pero siempre entrenando, ¿no? Yo creo que aquí siempre hacemos muchas bromas con el crossfit, pero es que es que hay que hay que moverse y y el deporte yo creo que el la mente es es un juguete del cuerpo, Matías, entonces tenemos que hacer deporte, así sí.

Sí, sí, sí, lo dejamos

experiencia. Puerta grande para este chico que yo creo que que se va a animar, necesita un compañero de crossfit, básicamente, eso

es eso es

lo que necesita.

Sí, luego vi otro, pero es que ya, no sé, es que me enganché a lo de mensajes de la gente que firma con lo que cobra, este cobra trescientos noventa mil.

Ah, qué lo usé.

Y y ya, pues, es un luser en comparación con el otro, y apuesto que cuando está con gente que cobra entre ciento cincuenta y doscientos, pues trata de hablar más despacio, de usar palabras más simples, ¿no? Y hay hay flipados así en

el mundo. Sí, yo creo que está ahí farmeando farmeando hate, ¿no? Pura cultura de Internet, ¿no? Y decir, ¿vese ir a quién? Es como, yo creo que al final esta es la en la versión de voy a echarle chorizo y salchichón a la paella

para para

para ver qué dice aquí en Internet, ¿no? Es un poco eso, ¿no?

Me pasó el otro día que vi un vídeo de alguien haciendo unas sardinas de la la forma diametralmente opuesta en los espetos, que es como llevo un lleno de cosas, de cebollino, de y me sentí muy valenciano, y dije, ahora entiendo, ahora entiendo lo que les pasa a los valencianos, y sí,

como ten cuidado que se empieza por ahí, luego empieza a gustarte la horchata. Bueno, atención, bebida de horchata. Es posible que este otoño estemos por Valencia, Matías, tú y yo haciendo la haciendo recorriendo España, hablando de la de la isla.

Turmo no sé estogáste yendo, ¿verdad?

Turmo no es estogástico, atención, y ni Taylor Swift. Bueno, un último puerta grande, Mati, porque yo creo que esto va a preocupar a pasamos de la de del del del aislamiento personal al amor, Matías, porque la fundadora de Bumble, Whitney Wolf Hair, dice, atención, que el futuro de las citas es muy diferente al actual presente. ¿Qué hacemos ahora en las citas, Mati? Pues contactas por Internet, no te hacéis match, chateáis un poco y luego, pues os tenéis que ver en persona y conoceros. ¿No?

Y ¿no te parece eso como del tiempo de las cavernas, una una cosa demasiado antigua? Bueno, atención, porque Whitney Wolf tiene la solución, dice que el futuro es que tu inteligencia artificial se cite con la inteligencia artificial de otra persona, y entonces, pues tienen ese ese esa primera cita la hacen las IAs. Tú no tienes que molestarte en acudir a la cita, sino que va tu IAs y luego viene y te lo cuenta, y dices, bueno, pues esta otra persona con la que me citado, pues tal o cual te la recomiendo, no nos hemos caído bien, hay química o, bueno, esto esto está hecho, llámala rápido porque esto está hecho bien para adelante, ¿no? Entonces, bueno, claro, yo creo que puede ser el el futuro de del del amor, Matías. ¿Cómo lo ves tú?

Bueno, pues, a lo mejor funciona, ¿no? Pero ¿y y cómo sería esa conversación entre ellas? Es un poco extraño el concepto, ¿no?

Claro, yo creo que tú tienes que entrenar a tu IA con contigo mismo, ¿no? Entonces, pues la Matías IA flirteador, pues, se haría entrenado con tu contenido, tu conocimiento, tu tu Twitter, a lo mejor, y se contaría con las inteligencias artificiales de, pues, las chicas o los chicos, depende de lo lo que tú busques de de otras personas. Entonces, nuestras hijas se encuentran y, pues, tienen que una conversación y sale más o menos satisfecha de ella.

Sí, esa es el problema, que ahora como las hijas ven, pues ya no hay forma de engañarlas. Entonces, uf, complicado ahí, hay que hay que ir con la verdad por delante. Yo te he contado una anécdota de Bumble, que una amiga mía me me mandó unas capturas, que estaba hablando con un chico en Bumble, que es como un Tinder, y y me dice, estoy hablando con un chico de Bumble que es muy fan tuyo, y en vez de conquistarme, lo primero que me ha dicho ha sido lo que daría por conocer a Álex Barredo y Matías. O sea, Antonio ha quedado fuera de la ecuación.

Sí, sí, sí, sí. Es que claro, aquí yo creo que puede haber varias capas de análisis, Matías, porque en términos de tensión sexual, claro, porque aquí estamos hablando de lo que estamos hablando. Es verdad que hay más tensión sexual en el podcast Elon, ¿no? Vuestra relación con Elon, tal, te admiro, pero te odio, no? Ahí ahí hay algo no resuelto del todo, yo nunca os lo he dicho, pero es verdad que ahí hay como algo pendiente entre vosotros y Elon, y creo que de de esa tensión se traduce, pues, la atracción de este otro chico que le gustaría unirse a ese grupo y a lo mejor dar una solución entre entre todos, ¿no?

Sí, es verdad que Alex y yo tenemos bastante sex appeal en en cierto sector gay, y y, bueno, seguiré investigando esto.

Vale, pero una pregunta, Matty, ¿tú crees que si tú tú estás tú estás felizmente casado, no? Yo conozco a a tu señora, atención. Si estando casado tú dejas a tu hija flirtear por ahí y tener citas, claro, ¿eso eso cuenta como infidelidad? ¿Tú crees que podéis tener una relación cerrada analógica, pero una relación abierta digital?

Eso depende mucho a quién le preguntes, Porque hay hay hay ciertas personas como infidelidad. Yo soy muy libertario en esto, yo creo en la libertad.

Sí. Claro, es que ahora con Miley, pues, estáis en esa onda los argentinos un poco, Bueno, yo me despido, solo decir que espero que, aquí dejo la idea de negocio, el fair day de inteligencias artificiales. Atención, emprendedores, emprendedoras, sé que muchos estáis ahí que queréis, ¿no? El negocio del del deprimido de metas, ¿no? Que que ganara mucho dinero.

Si sois del uno por ciento de los que estáis al día del inteligencia artificial, escucháis monos estocásticos, básicamente, Pues hay dos vías, una es dedicaros a decir tonterías y seguir memes como hacemos nosotros, pero otra es montar una empresa de guía y y generar grandes negocios. Como nosotros queremos que todos os hagáis ricos, aquí dejamos la idea, Mattí, el first days de inteligencia artificial yo creo, yo creo que que que funcionaría y y sería el gran triunfo de de esta generación,

Bueno, fíjate, la fórmula uno de coches autónomos es un desastre. No sé si un Fairse day de inteligencia artificial le funcionaría, pero lo vamos a lo vamos a ir valorando.

Que a veces los negocios hay

que arriesgar. Antonio, ya llevamos no sé cuántos minutos de más, así que lo vamos a dejar hasta el episodio que viene con Carlos Santana, con Javier Michana, y bueno, nos vemos, nos vemos muy pronto.

Chao, amics.

Episodios recientes

Programas relacionados