Transcripción
Hola a todos los monos estocásticos, aquí estamos con un episodio más sobre inteligencia artificial y cosas que vayan pasando en el mundo. Antonio Ortiz, ¿cómo estás?
Bien, bien, Mathey, muy, voy a ser un poco preocupado por tu situación legal, Matías.
A ver, yo tengo la nacionalidad española desde hace mucho tiempo, Antonio, no sé a qué te refieres.
Claro, de hecho, nunca lo has revelado, pero si si hubiera una selección de podcast, ¿con qué selección jugaría? Porque en el fútbol pasa mucho esto, ¿con España, con Argentina? Bueno, vetelo pensando, porque antes tienes que cumplir tus obligaciones legales, porque tenemos la la el nuevo decreto ley de de los influencers, Mathi, que que acecha en el horizonte de los creadores de contenido como tú.
La la verdad es que no me he enterado muy bien a quién afecta exactamente esto y, sobre todo, de qué modo los afecta, porque ahora en España tenemos muchísimos tipos de influencers, tenemos los influencers, los micro influencers, nano influencers. ¿Hasta dónde llega los brazos de la ley, Antonio?
Claro, si yo lo he entendido bien, y he estado he estado mirando ahí un par de fuentes, será considerado usuario de especial relevancia si se cumple uno de dos requisitos, facturarme de trescientos mil euros, que de eso no vamos a hablar porque, bueno, no queremos aquí destapar tu tu vida financiera, y o no, o mejor dicho, o superar el millón de seguidores en única plataforma o los dos millones en el global de tu actividad, y que hayas hayas creado más de veinticuatro vídeos al año, Si es creas uno o dos, no. Entonces, Matías, yo tengo la teoría de que imagina que, por ejemplo, tú te quedaste tu usuario en Pinterest o te quedaste tu usuario en, bueno, cualquier red social de estas en BIN, ¿no? Y y de repente Elon resucita a BIN y nos damos cuenta de que ahí tenías un, como estaba por defecto, pues se fueron llegando pods y tenías un millón de seguidores. Pues, en ese momento, tendrás que añadirte, inscribirte en el registro estatal de prestadores audiovisuales, y tendrás las obligaciones que que que ello comporta con con Multasat de diez mil a setecientos cincuenta mil euros. Ojo ojo a al al gasto, Matías.
Revisa todas tus cuentas viejas en plataformas y redes, porque puede ser un usuario súper relevante para para la ley.
Yo creo que por ahora por ahora me libro, como me voy a librar de responder a la pregunta de con qué selección voy en los mundiales, soy muy chaquetero, depende de depende de quién vaya pasando las diferentes fases. Pasemos ahí la inteligencia artificial, porque hoy volvemos a hablar mucho de dinero, ¿no? Sobre todo el dinero que están teniendo que invertir las empresas para sacar adelante su negociado de inteligencia
artificial. Sí, sí, sí, sí. Ha habido resultados trimestrales y creo que permiten estos resultados trimestrales de las grandes empresas tecnológicas un análisis que nos ayuda a tomar el pulso de la inteligencia artificial, su éxito, su despliegue y su desarrollo. Vamos por partes. Quizás lo más destacado es que tanto Alphabet, la matriz de de Google, como Microsoft anunciaron dos cosas.
Una es que sus resultados operativos eran bastante buenos y que económicamente van muy bien, y otro es que sus unidades de inteligencia artificial empiezan a ser rentables, sobre todo la parte de cloud computing, es decir, ese es esas plataformas, el caso de de Google es Google Cloud, en el caso de Microsoft es Azure, que permiten a otros, pues, usar la potencia de computación y ejecutar los modelos en en la nube, los ordenadores de de estas empresas. Entonces, por esas líneas van muy bien y también unen el mensaje de que van a invertir un montón en en inteligencia artificial, ¿no? Estas son un poco las tres claves. Resultado operativo, el negocio de siempre, muy bien. La parte con inteligencia artificial, también bien.
Y además vamos a a invertir mucho más en, pues eso, servidores, equipos, investigación, inteligencia artificial. Claro, Meta en parte querían meterse en esta liga, Mathi, y aquí el amigo Zack cambió un poquito el discurso. Meta dijo, los resultados de la publicidad en nuestras plataformas, Instagram, Facebook, etcétera. Muy bien, aquí estamos en en la liga. También vamos a gastar una cantidad obscena en inteligencia artificial, igual que Microsoft y Google, pero Mac lo reconoce.
Dice, nos va a llevar muchos años hacer dinero de la inteligencia artificial generativa, que es algo que además, bueno, que que no te cansas de tener razón. Es que esto lo adelantó monos estogásticos. Muchos bots, muchas muchos modelos, muchos ejecución, integraciones en WhatsApp, en Instagram, en Facebook, en todos lados. Esto es caro, y el amigo Zaadlo ha reconocido. Si de momento no le vemos ingresos a este lado de la inteligencia artificial creativa a corto plazo.
Y claro, Google y Microsoft para arriba, Meta se ha pegado un buen golpetazo en la bolsa, Matías.
La empresa ha proyectado que en gastos de capital, el dinero que invierte en chips, en centros de datos, etcétera, para la IA aumentará hasta cuarenta mil millones de dólares este año frente a los veintiocho mil millones del año pasado. Eso es mucho dinero, pero lo que más me preocupa, Antonio, es que en Europa no nos llega, con los fondos Next Generation Ahora habría que mirarlo. Artificial.
Un fondo Next Generation para monos necrocásticos, que sea que sea ahí como algún bot que responda con con toda la sabiduría que repartimos en nuestros capítulos, que que la pueda diseminar por la sociedad. Bueno, el caso es que, fíjate, creo que los lo que dice Zack y los números de meta son más sinceros del estado actual del inteligencia artificial que lo que vemos en Microsoft y Google. Me voy a explicar, es decir, Meta tiene que hacer negocio con el usuario final, es decir, tiene que o conseguir que la inteligencia artificial le ayude a mejorar la el rendimiento publicitario, porque personalice mejor, porque haga que los usuarios pasen más tiempo y por ende tienes más stock, más posiciones publicitarias, más posibilidad de meter anuncio. O sea, es una manera que podrías meta cobrando al usuario. ¿No?
Que pague por por charlar con esos bots famosos en Instagram, si si si que eso tiene recorrido, lo que sea, tendrás que buscarte la vida. Entonces, eso es negocio real de necesidad oficial. Lo que tienen Microsoft y Google en la cloud es que todos los otros actores, es decir, todo el conjunto de empresas que está explorando y que está buscando hacer negocios con inteligencia artificial, pues en algún sitio tiene que ejecutar esos prototipos, esos primeros servicios, aplicaciones, y de entrada ya tienes que pagar de la Microsoft Facebook, el que facturan igual que está facturando Nvidia detrás de ellos. Pero eso no significa que todos estos que construyen en aplicaciones y servicios realmente estén haciendo ya negocio con la inteligencia artificial. No sé si me explico, esto es como Microsoft y Google te venden la las palas, el el el la la exploración del oeste norteamericano, las palas y y los vaqueros para buscar el oro.
Todos los buscadores de oro le pagan a Microsoft y Google, pero eso no significa que estén encontrando oro con la inteligencia artificial.
Por ahora, pero ya lo están integrando, por ejemplo, el copylot de el Microsoft Edge del navegador, puedes pagar la versión Pro si quieres que te hagan mejores resúmenes, por ejemplo. Entonces, yo confío más en que esta gente empiece a generar dinero en en Microsoft Dialphabet, porque en Meta esto yo creo que lo vamos a acabar financiando con publicidad en WhatsApp. No se me ocurre ahora mismo otra forma de financiar esta inversión de Meta a corto plazo, ¿no? Pero bueno, nos iremos comentando en monos estocásticos.
Hay una parte interesante de de la de la, bueno, de la de la call de Sander Pichai, de Alphabet, que en la que me he me he estado mirándolo un poquito con más de detalle, porque sabes que Google está haciendo experimentos, sobre todo con usuarios estadounidenses y británicos, de respuestas generadas con inteligencia artificial. Tenía un una un experimento que era la SGE, ¿no? La search generative experience del buscador, y también tienen esta parte de, en vez de darte los resultados, pues lo típico de Google, ¿no? Tus diez tus diez links azulitos para que tú escojas, pues te ofrecen una respuesta más más extendida, como daría el chatbot a través de de Jimin Air, ¿no? Y claro, este es un tema supersensible y superdelicado por varios frentes.
En el frente de el resto de ecosistemas de Internet, si Google responde con un chatbot, pues eso es menos tráfico para los medios, la gente de que crea contenidos, los blogueros, los foreros, ¿no? Todo toda esta gente, pues, que era menos tráfico de Google, con una una cosa especial, que que todo el contenido de esta gente ayudó a crear ese chatbot. Entonces, se rompe, digamos, la la la relación simbiótica y empieza una relación más parásita. Además, está un poco la duda de si Google con esto va a poder hacer negocio, porque el negocio de AdWords, de anuncios basado en enlaces, pues lleva décadas funcionando y y le va muy bien, pero el no está claro con con la idea generativa si van a poder replicarlo, además, teniendo en cuenta que la guía generativa cuesta mucho más dinero que ponerte un enlace, porque los chatbots ya sabemos que consumen mucha energía. Bueno, Xander Picha ha dicho que todo perfecto, que a los usuarios les encanta estos resúmenes, uno, y dos, que ellos se la van a apañar para que cueste poco dinero y para generar negocio.
Así que no te preocupes, Matías.
Yo estoy muy preocupado, Antonio, porque esto de los medios con la inteligencia artificial, si ya en Google cambia radicalmente cómo funciona, lo veo complicado. Entonces, por suerte, tengo por ahí el negocio de la micro influencia y también nuestro negocio de predecir cosas en monos estocásticos, que también tiene un tiene un precio. Como consultores de la industria deberíamos empezar a ingresar cantidades importantes. Sí, por ejemplo, ¿tú qué predices con que
Mark Zuckerberg? Estoy diciendo a la gente, seguimos gastándonos miles de millones de dólares al año en toda la experimentación con realidad aumentada, realidad mixta, realidad virtual, blablablá, ¿no? Y además también vamos a invertir miles de millones al año en inteligencia artificial, y de las dos cosas el negocio vendrá en cinco años, en diez años, bueno, en el futuro. ¿Tú tú cuánta paciencia crees que va a conseguir Martha Caber que tengan con él los los inversores?
¿Por qué te crees que estás subiendo tantas fotos de Fucker, tantas fotos sexys con su cadenita y con el el borreguito ese que se puso en Japón, con sus gafas de RayBan, pues porque necesita de alguna forma seducir a los inversores, y y esa es la forma que han que han encontrado en su equipo de asesores.
Bueno, bueno, vamos a ver, vamos a ver cuánto dura la paciencia con con el amigo Marc, porque, bueno, es verdad que la parte de publicidad lo está haciendo asombrosamente bien, es decir, los números son increíbles. Es más, asumiendo una cosa, que es que Meta está sufriendo como dos frentes que van un poco en su contra. Un frente es el de la regulación de la Unión Europea y y todas las exigencias que tiene sobre sobre datos y cookies de terceros, etcétera, que eso, pues impacta en la eficiencia publicitaria de de estas plataformas, y dos, cuando Apple empezó a a a doblarle el brazo con ATT, ¿no? Es decir, la la la implementación de por ahí lo que haces por con otras aplicaciones? Tal tal, y, claro, todo mundo dice verdad, ¿verdad que no?
Pues eso realmente también tuvo un impacto muy fuerte en el rendimiento publicitario de los usuarios de iPhone cuando la publicidad le servía a meta. Así que, bueno, están navegando aguas turbulentas en el negocio de siempre mientras intentan conquistar el el negocio del del futuro. El caso es que la el el resumen de noticias, Maddie, es que es que, de alguna manera, los inversores no parece que vayan a tener mucha paciencia. Es decir, mientras Google y Microsoft dicen, ya hacemos pasta, pues, esos suben. Cuando Meta dice, oye, que esto es una cosa de futuro, ya iremos viendo, tú mientras dame dinero, ahí no parece que que haya tanta confianza.
Bueno, le ha pasado lo mismo y le está pasando y le sigue pasando a nuestro amigo Elon con con Tesla, ¿no? Porque las ventas van como van, los coches chinos van como un tiro y, pues, como dicen los los soldados de él, o los fans, estos fanboys que tiene, Elon se ha convertido de nuevo en un CEO de guerra, ¿no? Como en El Padrino, ¿no? Tienes que ser un conselleri, no estás hecho para ser un conselliere de para la guerra, para la batalla, algo así decía ya hace mucho tiempo que vi El Padrino. Entonces, lo que ha hecho este hombre es lo que lo que ya solía, lo que lo que suele hacer en estos casos, que es despedir a un montón de gente a catorce mil personas por ahora, el diez por ciento de la plantilla de Tesla, y de hecho estamos grabando esto y ayer se se anunciaron todavía más despidos, Ha despedido a toda la a casi toda la división de los Super Chargers, lo cual es un poco extraño, ¿no?
Porque si hay algo que que brillante en Tesla y que funciona muy bien y que le están licenciando otras marcas, son los Super Chargers. Y y además se filtró un un mail interno en el que era donde decía que no sean excelentes, necesarios y y fiables, pues iba también a la calle. O sea, yo no sé si yo pasaría el test en ninguno de los proyectos en los que participo, pero en Tesla deben de estar un poco con el culo apretado, ¿no?
Madre mía. Bueno, es que, claro, yo la la impresión que tengo es que ahora mismo el mercado se ha enfriado del coche eléctrico, yo creo que las expectativas de crecimientos vertiginosos, pues, no no se están dando, bueno, se han subido mucho los precios de los coches también, yo creo que ahora compré el coche nuevo, se hace se hace durete, y la competencia china aprieta. Es decir, yo creo que hay un dilema, un dilema que tiene que ver con cuál es mi diferenciación. Empiezo a pelear fuerte por el coche eléctrico barato con los chinos, que es que es un camino, o me diferencio como empresas súper tecnológica con con, bueno, con mucha inteligencia artificial, y ahí entra yo creo que lo que parece que, por lo que parece que Logan apuesta más, ¿no? Que es por más coche autónomo, teníamos anuncios sobre robotaxis, y se ha ido además a China a negociar que que el full shell driving, que de los Tesla se pueda utilizar allí.
Entonces, parece o pinta que la apuesta de Tesla para diferenciarse y volver a ser, pues mucho más preferido en el en el mercado del coche eléctrico, va por el autopilot, el full shell driving, los coches autónomos.
Lo de lo de China es curioso, ¿no? Porque es raro, pero funcionó. Elon fue a China y consiguió que desbloqueara el Fusion Driving en en muchas regiones de China donde donde estaba muy limitado. Y es curioso porque, claro, en China podrían proteger con más ahínco su su negocio interno, pero pero parece que Elon les hace gracia, ¿no? Es un caso como como el iPhone, a muchos chinos les sigue gustando comprar iPhones, en lugar de comprar el Huawei de turno.
Ya, pero
fíjate que, incluso, el mercado chino se les está complicando a los dos, los resultados de Apple muy latrado por porque han bajado de mercado en China con una subida fuerte de Huawei, y también la bajada de Tesla tiene que ver con con menos menos venta en China. De todas maneras, vamos a ver, vamos a discutir dos planes de futuro que tienen mucho que ver con buenos estocásticos. Una es, bueno, el Tesla el Tesla Optimus, que sigue en el horizonte planeado, recordemos, el robot antropomórfico, que tantos tanta ilusión no no tiene a los amantes del gazpacho, Matías.
Sí, que ahora tendrá que con que competir con el con el nuevo robot de Boston Dynamics eléctrico en lugar de hidráulico, y ahí cuidado porque tienen un competidor con mucha experiencia, pero Ellen dice que el Tesla Optimus, el robot de Tesla, va a costar menos de la mitad que un coche. Las predicciones de precio de de Elon no siempre se cumplen, en el cibertrack iba a costar treinta mil dólares y y acabado costando mucho más, ¿no? Pero menos de la mitad de de un coche para un Tesla Optimum, pues puede significar eso, veinte mil, treinta mil dólares. Y y y yo me pregunto, ¿a ese precio a mí me podría hasta valer la pena comprar un Tesla Optimum? Porque sigue habiendo muchas tareas que que dependen de mí, de hacerlas manualmente, que me encantaría quitarme de encima.
Y hay muchas
¿Has dejado ahí, has dejado la la pelota votando? ¿Qué tareas, Mati? ¿Qué qué le encargarías óptimo? Porque te aviso de una cosa, es decir, lo que se ha contado, o que está diciendo Tesla, es que ahora mismo puede hacer tareas sencillas, pero como que a finales de año, pues ya puede hacer cosas más complejas. Entonces, claro, como como no dan ejemplos de de tarea sencilla y tareas complejas, uno no tiene claro esos casos de uso que ya vemos materializados como ejecutados por el humanoide, ¿qué qué qué podrían ser?
¿No? ¿Tú cuáles esperas?
Mira, no quiero entrar en lo escatológico, pero ayer cuando volví de crossfit, ¿vale? Mi perra está bastante vieja, tiene diecisiete años, cualquier cosa que coma fuera de lo normal, le sienta mal. Pues, en este caso, en lugar de sentarle mal en un estado líquido, le le sentó mal en un estado un poco más sólido y entonces con el culo cagado fue arrastrándolo por toda la casa. Entonces, yo llego a la casa y me encuentro un rastro de mierda por todo el pasillo, por todas las habitaciones, como si fuera una una rumba que hubiera mapeado perfectamente mi mi casa, pues se fue paseando por por toda la casa y, claro, luego me tocó, aparte de fregar el suelo, bañarla para terminar terminar de limpiar el desastre que ella misma había extendido en por todas sus partes traseras. Y una vez que la estaba bañando, decidió la perra sacudir el culo con un aspersor, extendiendo, pues el alcance de los daños.
Por ejemplo, eso me habría encantado tener un Tesla Optimus, porque yo ya había entrado en mi jornada laboral para encargarse de fregar, de lavar a la perra. No sé si la primera versión de del Optimus me fiaría para para bañar a la perra, no sé si tendrá esa delicadeza en en ese tipo de de tareas o empezará siendo una cosa más más basta, ¿no?
Bueno, bueno, pues, claro, ahí habría que ver si si va incluido en el precio o es una una un un add on que se paga aparte, ¿no? El lavado de perrillos. En fin,
pues es Como el full side driving, ¿no? Por ocho mil dólares.
Hay distintos modos, a lo mejor en el modo suscripción, ¿no? Quién sabe, quién sabe. Bueno, veremos veremos Optimum, yo no me creo nada, es decir, yo yo básicamente veo a los robots humanoides lejísimos de cualquier uso del mundo real por la complejidad de este, y a a la prueba me remito. Es decir, luego discutiremos cuando hablemos del del futuro de la IEA, que tenemos un momento muy especial, algo alrededor del de la conducción y la diferencia entre humanos y coches eléctricos, pero claro, yo yo no me creo nada. De todas maneras, lo que sí creo más probable es la idea que ha lanzado Ela, Elo, que es que quiere utilizar los millones de coches Tesla que ha vendido, es decir, que está en los garajes de la de los subclientes, como plataforma de computación para la inteligencia artificial.
Claro, aquí tenemos un una propuesta bastante interesante. El planteamiento de Elon es claro, es decir, estos entrenamientos de la inteligencia artificial y también la ejecución y producción de los de de los modelos grandes del lenguaje y otros y otros modelos de inteligencia artificial son muy costosos computacionalmente. Entonces, energía, esto es compra de tarjetas gráficas. Si yo tengo por ahí un montón de ordenadores con ruedas, son los coches Tesla, ¿por qué no hacer una computación distribuida de estos modelos? Pues, lógicamente, tiene sentido, pues realmente es así, hay mucha, los coches pasan mucho tiempo parados, que en ese momento podrían dedicar ese ordenador a algo útil.
Hay casos de éxito de modelos de computación distribuida en grandes proyectos. Uno, por ejemplo, es de bitcoin, otro es, no me va a salir el nombre, el el el proyecto este de de búsqueda de vida extraterrestre que utilizaban los ordenadores de las personas para procesar señales. No me va a salir del nombre, pero, bueno, ese es ese es otro ejemplo. Pero, claro, lo que no quedó muy claro es, ¿los propietarios qué incentivos tienen para permitir que Elon use su coche? Porque la energía la pones tú, el coche lo ha pagado tú.
Oye, no no tengo muy claro que que a mí me convenga que Tesla entrene sus cositas
Claro, y entiendo que el coche esto lo hace cuando está enchufado en el garaje de tu casa, porque si si está gastando energía para el entrenamiento, la inferencia de ida, lo que sea, mientras estás yendo al trabajo y te baja la la autonomía, es un poco complicado, ¿no?
Claro, yo luego tengo que ir al pollo del tío Paco, entonces tú te vas allí. Contá, ¿no? Sales contento, las mejores croquetas de pollo de Málaga, amigos.
También te digo que esto ha funcionado a gran escala sin grandes incentivos, o sea, hay gente que sigue usando el emule con tal de poder ver torrete dos, torrete tres, torrete cuatro.
Claro, pero dices que no hay incentivo, Mati, es que te te delatas tu comentario inmediatamente. Corriente cinco, puede haber.
A ver, no, en fin, es que se pueden hacer muchas cosas con lo que Tesla lleva construyendo muchos años, que es el full ser driving. Está, por mencionarlo rápidamente, el caso de la aplicación que han presentado, bueno, tenía por aquí la pestaña, con el plan del full side Driving para convertir los Teslas en robotaxis, como un servicio para para el dueño del Tesla, ¿no? Cuando yo estoy en mi casa viendo la tele, mi Tesla está trabajando solo, ¿no? Sí, es otra es otra opción interesante.
¿Pero ahí no tendría la tentación de quedarte tú dentro del Tesla? Es decir, voy a hacer un un robo taxi, ¿no? Mi Tesla, y yo me quedo dentro, ¿va? A ver a dónde va y y conozco gente, ¿no? Pudiera ser como un como un robo taxi con sorpresa, ¿no?
De repente tú coges, encargas el robotaxi, hay como como un Cabify, ¿no? Como un Uber, pero viene con un Matías dentro. Entonces, tú dices, mira, por mi compañía además cobro un par de euros más. Yo creo que algún amigo nuestro, que además tiene Tesla, que es muy conocido por nosotros dos y ha sido mencionado varias veces en este podcast, seguro que piensa algo así para maximizar ahí los ingresos.
Sí, no, pero esto me recuerda a mí a a los jubilados que se jubilan de la obra, y luego en cada obra que ven entran de alguna forma a ayudar o a colaborar o o a preguntar o a corregir, esto te tiene que que gustar mucho tu tu trabajo.
Bueno, Matty, pues disculpa porque estamos hablando aquí del del Optimus de Tesla y todo lo que podría hacer, pero un inciso, ya que en este episodio no vamos a hablar mucho de Apple, pero hay un punto de las cosas de Apple en la que, por la ley, esté muy relacionado con lo que estamos hablando, Matías.
Sí, porque Apple no se libra de de los despidos, se han despedido a setecientos empleados, por ejemplo, en la división de micro LEDs, ahora van a seguir este analizando la la fabricación de pantalla. ¿Y hacia dónde están mirando? Pues mira, hemos leído en paréntesis media, paréntesis punto media, que ya sabéis que es nuestro medio socio que estamos todos, todas las semanas leyendo noticias allí y suscrito también a su newsletter, que Apple ha virado de alguna forma o está intentando adentrarse en el mundo de la robótica con un robot de estos que te persigue por la casa. Amazon presentó algo parecido hace un tiempo, y también con uno que está encima de tu mesa y y va girando para hablar de alguna manera en los planes de Apple de la inteligencia artificial y también en los planes generales de las planes tecnológicas de la robótica con con IA integrada. Entonces os recomiendo que entréis en paréntesis media y y leáis todo lo que se rumorea que está haciendo Apple internamente para desarrollar pequeños robots.
Hombre, yo aquí solo veo una cosa problemática, Mati, que que, claro, los modelos de negocio de Apple, muchas veces el usuario general no es consciente de ello. Es decir, que en la App Store comisionan el treinta por ciento de todo lo que produce esa economía digital de de bienes y servicios y y le pegan un buen bocado de hacer un gran negocio con el control que hacen sobre el iPhone. ¿Tú te imaginas que cuando crean el robot y tú coges al robot le le mandas a por un recado? No dices, mira, vete por por por arándanos y y leche para hacerme un batido al al Mercadona, ¿no? Y, claro, él se va, tú tú le das el dinerito, ¿no?
Para para que haga el recado, pero cada vez que compra se queda al treinta por ciento. Mathey, yo no veo claro que Apple sea confiable en todas estas tareas porque le gusta mucho el Ricky Ricky y Matías.
Pues nada, Apple es como un niño de diez años que se queda con la vuelta.
Sí, sí. Bueno, luego luego en el Porta grande te voy a plantear un aspecto de Elon, porque yo creo que hay un un interés oculto en esto de usar los Tesla como computación, y yo tengo una hipótesis ahí, a ver, a ti qué te parece, en el puerto grande de enfermería dentro de un ratito, pero mientras tenemos que hablar de de unos buenos amigos, Matías, que nos acompañan en este episodio.
La gente de FreePeak, nuestros amigos que llevan ya patrocinando unos cuantos episodios, lo repito cada vez que hablamos de FreePick, pero es que no paran, no paran, no paran de lanzar nuevos productos integrados dentro de la plataforma de de FreePick. Y el último además a mí me viene muy bien, porque es es el MockUp Editor de FreePick, un un editor de de mockups online para que puedas hacer tus diseños, y esto yo lo uso mucho. Si estoy hablando de una aplicación, necesito una foto de un iPhone para poner, hacer un mockup con la aplicación. Pues esto ahora se puede hacer en FreePick punto com, de forma totalmente gratuita. Es una herramienta muy sencilla, muy intuitiva y con un montón de categorías, para ropa, para portadas de libros, para productos, pues de belleza, o sea, para todo lo que te imagines, y si tienes una una pequeña empresa, una tienda, lo que sea, aparte de ser editor como yo, pues te puede servir.
Mira, yo, por ejemplo, he hecho un producto porque en en monos no vendemos todavía merchandising.
Qué belleza, es una pena que la que los que oyen el podcast y no y no ven el vídeo no puedan percibir la la la belleza de tu creación, Matías, con el con el free pick mockup editor.
Pues lo voy a intentar describir, es una es una hoodie, una sudadera que por detrás tiene el mono, el monito, el logo de monos estocásticos, y por delante tiene una foto de Antonio dando una charla a Ted el otro día en Málaga, que no pude ir a verlo porque porque se agotaron las entradas. Antonio, es que tienes mucha tienes mucho público, mucha audiencia.
Bueno, pues yo creo que audiencia es lo que va a tener el este herramienta FreePick, porque es es de gratis, Mattí, es rápida, no hay que saber prácticamente nada para utilizarlo, es muy muy básica de una una parte de entrada muy muy ligera, así que súper recomendada desde bonus.
Pues nada, FreePick punto com barra mockup guion generator, lo tenéis también, me imagino que se puede encontrar en Google. Es gratuita de usar y algunas mockups que son de pago, pero la verdad es una herramienta muy útil.
Perfecto. Pues, Matty, viene el plato fuerte del episodio porque estuve en Francia, hice un amiguito, Matías, que me explicó quién y cómo va a ganar la carrera por la inteligencia artificial de nivel humano, Matías, ni más ni menos.
Me compartiste la diapositiva que usó Jean Lecoon en el evento de París al que fuimos invitados en monos estocásticos, y es exactamente como yo me imaginaba que hacía las diapositivas de Jean Lecour, ¿no? Es muy de de persona que a la que le importa más lo que se dice que que el diseño de la diapositiva en sí.
Sí, Design is my passion, Jean, son diapositivas, pues eso, con mucho texto, muchas frases, muchas vibes de soy profesora en los dos mil que acabo de descubrir las páginas web, ¿no? Es un poco ese ese punto
Noventa y siete diapositivas. Sí.
Se echa la tarde, Cuando Jan va a dar una conferencia y traeos la merienda, porque realmente esto aquí hay muchas cosas que contar. Bueno, una cosa, una expresión primera, a mí, el amigo Lecoon, y por eso me me gustó mucho el ecosistema de París, es un poco rockstar. Es decir, para los malagueños, le voy a dar una referencia, es una mezcla como entre el Antonio Banderas de la ciudad, ¿no? El tío ahí como cool, famoso, que que hace cosas en la ciudad, y también como Bernardo Quintero, ¿no? Que es el tío geek, ¿no?
Como supertécnico que tiene la empresa tecnológica de éxito. Si mezclas a los dos, entonces te sale te sale el amigo Lecoon en París. Llegó allí al evento así con sus gafas RayBan de de sol, ¿no? Tal, con una corte, ¿no? Con una ganga ahí detrás de de de gente que que le sigue y le gestiona las cosas, ¿no?
Y el sol tiene que soltar ahí sus sus predicciones de futuro de investigador, ¿no? Te voy a contar las tesis de Jean Lecoon, esto es realmente muy interesante porque Lecoon es un poco, claro, por por dar contexto, es de uno de los grandes investigadores históricos del machine learning, es decir, no hay, probablemente, trabajo de la inteligencia artificial actual de esta generación que no le deba bastante a las investigaciones y desarrollos de de Jean Lekun, y es el jefe de investigación inteligencia artificial de Meta de hace unos años. Sus tesis. El machine learning apesta, esto es lo primero que te cuenta el amigo. A mí me recuerdo cuando San Alma decía, GPT cuatro es es una porquería, ¿no?
Está esta gente ya un poco como harta de de esta generación, pues, el machine learning. AP está, pero párale comparado con lo con los seres humanos. ¿No le gusta eso de de AGI, no? De la inteligencia artificial general y tal, bueno, porque, bueno, él ve que la inteligencia humana tampoco que sea general, pero entonces prefiere otras otras expresiones como inteligencia artificial de nivel humano y cosas similares. La tesis fuerte y fundamental, la inteligencia artificial generativa, todo lo que estamos viendo con lo que alucinamos, todo lo que está detrás de hecha GPT, de JAMA, de Sora, de MidJourney, no va a dar ni para una inteligencia artificial de nivel humano, nunca va a llegar ahí, ojo, nunca, en su opinión, ni siquiera va a llegar al nivel de poder crearnos esos asistentes o esos agentes que puedan resolver de una manera fiable tarea compleja.
Entonces, el principio del discurso de Lecume, Matías, es la bajona.
Pues no no es algo que no hayamos comentado intuitivamente en monos estocásticos, porque prometía mucho, por ejemplo, el lanzamiento de GPT cuatro, ¿y para qué nos está sirviendo? Pues para crearnos nuestros GPTs para corregir errores ortográficos que ya le hacía el autocorrector de Word en mil novecientos noventa y cuántos, ¿no? Pues tiene sentido, tiene sentido lo que dice.
Sí, bueno, fíjate que él, claro, como Meta tiene llama y está metiendo el asistente de Meta AI, hay una parte que ya parece que la compra dice, no, no, es que los modelos grandes de lenguaje, como Java, como GPT, tienen utilidad, por ejemplo, para crear código software, para ayudarnos en el en la creación de texto, pero no más. De hecho, creo que el resto de la empresa piensa que son un poco más útiles y por eso Zuckerberg lo está metiendo como asistente en WhatsApp y todas las plataformas, no en Europa, de muchos otros están en Estados Unidos, pero el amigo Jan, que además no lo dijo claro, yo de llama y de esas, no dijo de esas Sí. De esas de esas tecnologías del pasado, podamos decirlo así, de eso yo ya no me ocupo nada. A mí no me preguntéis porque yo estoy en el futuro, yo estoy en el futuro, y esto es la reflexión que que plantean desde desde Fair, desde el laboratorio de inteligencia artificial de Meta, que es un diagnóstico muy claro y que y que él ponía con con varios ejemplos. Relacionado con lo de antes de Elon, un chaval de dieciocho años tú lo apuntas a la tu escuela y da quince horas de clase, veinte horas de clase, veinticinco horas de clase, pues con veinte horas un joven de dieciocho años, una chica de dieciocho años, pues aprende a conducir.
¿Dónde están millones de horas de conducción después los coches con nivel cinco de autonomía, es decir, los coches realmente autónomos que puedan ir por cualquier lado y no solo por algunas calles de San Francisco. Con diez años, un chaval que tenga un poquito de voluntad aprende a poner y quitar la mesa. ¿Qué necesita? Un ejemplo, dos ejemplos, donde están los robots capaces de hacer una tarea como quitar y poner la mesa decenas de años después de que estemos intentando enseñarle. Hasta un gato puede planear cosas complejas.
Intenta tú usarlo a gente inteligente basados en modelos grandes de lenguaje o, en este caso, en vez de un gato que le gusta más a Lecuon, tu parrilla. Tu parrilla tenía ese plan de voy a prepararle una fiesta bonita a Matías, que es que es mi dueño y y mi amigo, entonces, vi a voy a decorar la la casa para él y hizo su plan, ¿no? De moverse por ahí y te la preparó. Sin embargo, los agentes inteligentes que estamos jugando con ello encima de los modelos grandes de lenguaje como ChatGPT, fallan escripitosamente al hacer planes. Y todo es por un motivo, hay una crítica que hace Lecum a los modelos de guía generativa, que es la autoregresión.
Como son autoregresivos, Matías, esto no va a ir a ninguna parte, nunca funcionará, y no funcionará no porque haya que hacer, aunque sea más grande, aunque lo entren es más, aunque le hagan más fine tuning. La autoregresión es el pecado original de estos modelos y que es la razón por la que nunca acabarán de funcionar.
No sé si estoy acuerde, porque yo aprobé el carnet de conducir a la primera, mi mujer lo aprobó a la cuarta, y ahora ella conduce mejor que yo. A lo mejor, un entrenamiento más severo o o más extenso sí que te ayuda a a fijar mejor los conocimientos y el razonamiento.
Claro, pero es porque, Mati, a lo mejor ella naturalmente estaba más nerviosa, yo, por ejemplo, yo el el carnet de conducirla por el que lo haga a la segunda. El primer día te pones muy nervioso, eres muy jovencillo, pero están turnidos de dedo de acero, Matías. Eres frío como jacuzzi a la hora de conducir y eso, pues claro, te te permitió aprobar a a la primera. Entonces, no no no es un problema del aprendizaje, es que tú tienes una virtud ahí especial, ¿me entiendes?
Bueno, entonces, a pesar de que ahora les pongamos los iPads en los restaurantes, los niños siguen
Sí, bueno, la historia de la autoregresión, si quiere lo explico, muy muy pequeñito, muy corto, y y por qué el ECUM piensa que es el problema y por qué piensa que hay que buscar un nuevo paradigma científico técnico para la inteligencia artificial que haga la las cosas que queremos. Claro, su punto con la autoregresión es la siguiente, ¿qué significa que un modelo grande de lenguaje, digamos, en llama, un un chat GPT, sea autorregresivo? Pues ya sabemos que estos sistemas, ¿cómo funcionan? Funcionan añadiendo la última, adivinando la siguiente palabra. Técnicamente es el siguiente token, pero, bueno, para entenderlo va a ser la siguiente palabra.
Tú dices, ¿no? La capital de España es, y el sistema intenta adivinar qué es lo que encaja en esa frase, porque es como ha aprendido. Muy bien. El caso es que siempre sabemos que hay un pequeño margen de error, siempre puede ser que esa siguiente palabra no sea la palabra correcta o lleve la frase hacia un sitio que haga que el modelo diga algo factualmente incorrecto. Ya los del nivel que tenemos, un llama o mucha GPS, no se van a equivocar con la capital de España, pero en otras muchas aspectos, ¿no?
Los ingredientes del gazpacho son tal, tal, tal, tal, o los ingredientes de la paella tal, tal, tal, y te pone guisante, ¿no? Porque, probablemente, en el en la máquina probabilística de de, que son los grandes modelos de lenguaje, guisante está cerca en el espacio latente del resto de ingredientes, entonces ve que hay una probabilidad y te pone el guisante en la receta de la paella. Claro, a partir de ese error, es decir, como guisante ya forma parte del lo siguiente que tiene que construir, ya a partir de ese error original vienen muchos más errores y crece de manera exponencial. ¿Por qué? Porque tú dices, los ingredientes de las paellas son guisantes.
¿Cómo predice el siguiente token este modelo grande de lenguaje? Pues dice, a partir de los ingredientes de la payasa son guisantes, coma y pone el siguiente, porque ya tiene en cuenta guisante. Entonces, guisante ya forma parte de lo que tiene en cuenta para predecir la siguiente palabra. Una vez que has cometido un error, ya el camino que ha cogido el modelo es el camino incorrecto. Entonces, ¿esto qué nos da?
Que los errores pueden crecer de una manera exponencial, lo cual hace que esta tecnología apeste, según Jean Lecoon, y además puede acabar con la salud mental del pueblo valenciano, lo cual nos mete un problema social también, ¿no?
Pero entonces la payas no lleva guisantes.
Yo creo que no, espero espero que no, porque porque estoy pasando toda mi explicación en intentar irritar. Hombre, yo creo que deberían que sí, ¿no? Porque los valencianos que salen de para allá. No, pero yo creo que no, y por eso lo uso de de ejemplo, pero pero, bueno, no no puedo poner a mano en el foco ahora mismo porque yo no soy muy ortodoxo en la en la
Que, por cierto, esto
el Cocin
es un poco lo contrario a lo que defendía el Descansa en paz, Ilya Schützkeber, desaparecido en algún momento en la revolución de Open AI, que él decía que, bueno, de alguna forma que la predicción sí puede llevar a una capacidad de inteligencia humana.
Claro, aquí está aquí está el núcleo del debate. Es decir, al final las dos partes, es decir, el el mundo OpenEye y el mundo jan le kung, vamos a a simplificarlo de esta manera, pedís lo siguiente, ¿por qué las inteligencias artificiales se equivocan? ¿Por qué las inteligencias artificiales actuales no son capaces de planificar una tarea compleja? Pues porque le falta un modelo del mundo. Este modelo del mundo es la clave para que las inteligencias oficiales lleguen a ser esos agentes inteligente, fiables, capaces de planificar, que aprendan como un ser humano.
¿Por qué el chaval de dieciocho años, que conduce sabe que no se tiene que pegar con el muro de enfrente? Porque entiende la física del mundo, es decir, sé que si pego un choquetazo, pues haré daño al coche, me puedo hacer daño yo y a los que están dentro del vehículo conmigo, sé que es algo intuitivamente, por sentido común, que tengo que evitar, porque tengo una idea de cómo funcionan las cosas del mundo y tengo una capacidad de establecer lazos causales, es decir, esto pasa porque si choco pasa que me hago daño, se estropea el coche, me echan de la toscue, suspendo, nunca tendré carne de conducir y no podré ir al pollo del tío Paco a las croquetas. Entonces, todo eso está en ese modelo del mundo, del adolescente y joven que se presenta y está estudiando en la toescuela, ¿no? Claro, este modelo del mundo, ¿cómo se crea? ¿Cómo conseguimos que las inteligencias artificiales, pues, tengan esa capacidad de previsión, de planificación, de aprender, de generalizar a partir de pocas experiencias previas, de entender la causalidad, es decir, todo esto se palabra, ¿Todo esto se hace con una máquina que, en vídeo, por ejemplo, con Sora, adivine al siguiente frame?
Pues el mundo de OpenAI te dice que sí, porque cuando presentan un OpenAI, y lo discutimos aquí en un episodio muy específico sobre esa inteligencia artificial, ellos decían, claro, es que al adivinar el siguiente frame está capturando, está aprendiendo cómo funciona el mundo viendo vídeos. Tengo que adivinar el siguiente frame, pues tengo que adivinar de alguna manera la ley de la gravedad, las cosas caen para abajo, no caen para arriba, por entenderlo. Pero, claro, para Jean-Llegung y su filosofía y su forma de ver la inteligencia artificial, esto no sucede realmente. Estáis siendo confundidos porque los modelos grandes de lenguaje, digamos, son escriben tan bien que te dan la impresión de que está entendiendo el mundo, pero no, no, no, no, solo está adivinando palabras en una máquina probabilística, y como tienen el pecado de la autoregresión, en el momento que se equivoquen un poco, ya se van, se escapan, se pierden porque se van a equivocar muchísimo. Hay que cambiar a un modelo que no sea generativo, que tenga una diferencia respecto a estas inteligencia artificial como Sora, porque con Sora y con la IA generativa no vamos a llegar a la inteligencia artificial de nivel humano, no vamos a llegar a tener a los agentes inteligentes que resuelvan cosas complejas y no van a conseguir que puedan planificar, que es una de las cosas que a él más le preocupa.
Él pone un ejemplo que yo me lo llevo a nosotros, Matty. Es decir, cuando tengamos el robot Optimus, ¿no? Optimus o cualquier otro, ¿no? Tu robot monoide. Tú lo usarás para limpiar cacas de perro, pero yo tengo un plan, Mati, es decir, a mí me vuelven loco las palmeras de chocolate de Morata de Tajuña.
Morata de Tajuña, pueblo de la Comunidad de Madrid. Tienen el día de la palmera de chocolate, Mati. Es decir, tú te imaginas, es que son una gente que es la mejor fiesta de España, pasa que está tapada, ¿no? Por el Ah, es que los azafermines, es que la falla, no, no, no, no. El día de la palmera de chocolate de morta de ajunia.
¿Tú te imaginas poder mandar al robot a que te traiga palmeras de chocolate de morta de ajunia? ¿Tú sabes qué vida es esa? Esa es, sé en la vida que queremos, ese es del futuro. Yo no quiero ir a Marte, yo quiero comprar palmeras. Bueno, Clarton dice, ¿cómo planifica una máquina que tiene que ir a comprar palmeras?
Pues no empieza calculando lo ¿No? Es decir, ¿cuántos movimientos de la pierna del robot tengo que hacer desde aquí hasta desde Málaga a Mordata de Dajunya? Lo primero tiene que decir, bueno, para ir de de aquí a Mordata de Dajunya tengo que comprar comprar un billete de tren para acercarme, ¿no? Para comprar un billete de tren tengo que conectar mi Internet a un servicio y comprarlo. Una vez que tengo el billete de tren, tengo que ir hasta la estación de tren.
Para ir a la estación de tren, ¿cómo me muevo mejor? Pues puedo coger un coche, puedo ir andando, dependiendo que haga unos cálculos, ¿no? Es decir, coges una tarea y jerárquicamente la divides en un montón de otras tareas, cada una de las cuales las divides y cada una de las cuales las planificas. Él dice, con Ia generativa, con adivinar el siguiente token, esto no va a pasar nunca. No flipéis nueva inteligencia artificial de nivel humano solo con máquinas que le lleguen al siguiente frame o al siguiente token.
OpenAI. ¿Cree que sí? Jean Le Coon dice que no.
Pues yo haciendo un análisis superficial, Jean Le Coon obviamente tiene muchísima experiencia, sabe muchísimo, pero también puede pescar un poco de polla vieja que cree que los jóvenes están equivocados, ¿no? Entonces, no sé, no lo sé, no lo sé.
Bueno, de todas maneras, Matty, ya termino con esto, el modelo de Jean L'Equung, que se llama Yepa, fíjate, ahí me me dio coraje porque pudimos hacer una entrevista con varios periodistas preguntando allá en Lecoon, yo solo pude meter pregunta y media. Digo, bueno, si al final nadie pregunta, yo le le voy a decir, ¿has pensado llamarlo mejor jepa? ¿No? El el el Porque con eso ganarían un montón, tío, ganaría, daría un salto espectacular de que Es que si lo dices así, ¿cómo no va a convencer más tu modelo? Bueno, pues esto es jepa, la diferencia principal con la ia generativa es que no predicen píxeles o palabras, ¿vale?
No se trata de una ia generativa, sino que lo que hace es predecir una representación abstracta del estado futuro del mundo. Tanto OpenAI, ¿no? La, digo, OpenAI porque ahí hay mucha gente más, Es decir, todos los que están apostando por el deep learning y la guía generativa, y a través de ello llegaremos a inteligencia artificial humana, lo hacen porque al final la salida es un nuevo frame y por eso, o una palabra, y por eso confundimos, ¿no? Hay una confusión en que si esto tiene un estado del mundo o solo genera eso, ¿no? Él dice, no, Yepa, para la diseñamos para que comprenda el estado del mundo que es hacer una predicción.
Si hago esto, ¿cómo será el mundo en el futuro? El mundo es el contexto de la máquina, el robot, lo que sea. Pues voy a hacer predicciones, no sobre salidas de píxeles o palabras, sino predicciones sobre representaciones abstractas de cómo será el mundo. Y con eso, a través del tiempo, la realimentación y el aprendizaje podrá planificar y razonar esta inteligencia artificial.
Pues, y esta. Pues oye, hay un colega de de Jean L'Qun en en Meta que se llama Axara Rai, que él piensa que para que una inteligencia artificial sea verdaderamente inteligente necesita un cuerpo, es decir, necesitamos embeber las inteligencias artificiales en robots como Optimus. De esto habló Jean Lecurion en París.
Bueno, él, claro, dice, Yepa, hay un problema, es, ¿lo entrenamos solo con vídeos o con también datos del mundo real? Él menciona las dos cosas, y mi sospecha es que cierran el que se capturen con las gafas, con las meta rayban que comentamos en las que se capturen con las gafas, con las meta raybank que comentamos la semana pasada, pues por ahí tenemos una vía de captura de información del mundo, de cómo funciona el mundo real para entrenar a nuestras jepas. Y, claro, puede ser una conjunción, ¿no? Una, se se cierra el círculo de manera que pueden intentar conseguirlo. De todas maneras, esto parece que va para largo, no es que vayan a hacer lanzamientos inminentes de cosas súper disruptoras en la empresa de Zuckerberg, sino que Young lo que advierte es moderar las expectativas con esta generación de degenerativa, porque no vamos a llegar a nivel humano.
Pues nada, después de esta de este guiño a la España vaciada con el Jet Pack, ¿a qué pasamos? Porque han presentado novedades, por ejemplo, Apple, pero no son Apple hay un montón de
cosas, Mati, te te te tienes que elegir, mira, elige tu propia aventura. Tenemos un montón de cosas de Apple, ¿vale? Que podemos profundizar ahí o subirlo, casos preocupantes de la IEA generativa en privado, el el misterioso GPT dos que ha renacido, ¿O porta granoenfermería? Tienes que elegir, Mati, ¿qué qué te apetece del virus?
Pues, me apetece lo de GPT dos, vaya a ser que se resuelva durante esta semana el misterio de de dónde sale GPT dos y y no tengamos contado lo que la la que se ha liado en en veinticuatro horas, porque resulta que en en la arena de probar modelos de lenguaje de Limsis punto org, apareció un modelo nuevo, GPT dos, sin guión, no como el GPT dos de de OpenAI, que era, pues, una versión mala, ¿no? De su modelo de lenguaje, que resulta que, según las pruebas y las investigaciones de la gente un poco obcecada con el tema, daba respuestas mejores, superiores a GPT cuatro, que es el modelo que podemos usar en en ChatGPT, ¿no? En la versión de pago de ChatGPT. Y entonces la gente, preguntándole al propio modelo de dónde venía, etcétera, también le tiene también le tiene cariño a GPT dos, jugando ahí con que su modelo antiguo también se llamaba GPT dos. Pero lo más probable es que esto no tenga
Está la gente muy excitada con este tema, Mati. Hombre, parece que es, en algunos casos, una pequeña mejora, pero claro, sería también, y esto yo creo que va a ser el síndrome dos mil veinticuatro, sería también un poco de, bueno, de cortar rollos, que si esto es lo que OpenEye tiene entre manos, es un pasito demasiado pequeño, ¿no? También.
Es que esto también lo mencionaba Jean Lecuen en en Twitter, tenemos que dejar de probar la inteligencia de los modelos con los típicos problemas lógicos, etcétera, porque al todas estas adivinanzas o de todas estas pruebas que hacemos, pues los resultados que arrojen no van a ser válidos, ¿no? Y tampoco es propio de OpenAI estar probando a vista de todos su próximo gran modelo de lenguaje. Entonces, este es un misterio un poco extraño, ¿no?
Sí, sí, además, ¿le podías poner otro nombre, hijo, de Sam, encúrratelo un poco, ¿no? Si si vas a colarnos esto por ahí, ¿no? Sí, sí, sí.
Aquí la gente, entrando ya en en el tema de conspiranoia, cree que lo de GPT dos es porque es lo la nueva versión de GPT, ¿no? Ya dejamos atrás GPT cuatro, ahora vamos con The New GPT, el GPT dos, pero bueno, ya esas son pajas mentales que se ha hecho la gente en en muy poco tiempo porque ya no está disponible, se pudo probar durante un rato y ya lo han quitado de de esta plataforma.
Oh, qué pena, qué pena. Bueno, pues, aclarado, bueno, aclarado, canteado el misterio de GPT dos, ¿te parece que vayamos a Puerta Grande o Enfermería?
Me parece, me parece, vamos a ver qué me interesa.
Lo anticipamos en mono, Mathi. La inteligencia artificial trae la edad dorada de hablar solo por la calle. Es una funcionalidad, un desarrollo de que la gente que habla sola, pues, creo que estaba esperando, y que ahora llega a una nueva dimensión, a un nivel nunca conocido en la historia de la humanidad, Matías, porque Reich Hoffman, cofundador de LinkedIn, ha hecho lo que creo que corresponde a un cofundador de LinkedIn, Matías, un deep fake de sí mismo. Es decir, ha creado un avatar de vídeo tomado creado con inteligencia artificial a partir de vídeos grabados de él mismo, ha clonado su propia voz, ¿vale? O sea, su eleven labs y tal, clona también su voz.
Y lo que dice este avatar de vídeo con su propia voz, es decir, su cara con su voz, es un chatbot que ha construido con GPT cuatro a partir de sus libros, sus artículos, sus podcast de los últimos veinte años. Claro, de repente has creado un otro yo, un Reich Hoffman AI. ¿Y qué se dedica este otro yo de Reich Hoffman? Pues a charlar con el Reich Hoffman verdadero. Es decir, el tío ha creado un súper una súper simulación de sí mismo para hablar con ella y charlar de sus cosas.
¿Cómo lo ves, Matías?
Este tipo es un genio. Este tipo es un genio porque yo un problema que me encuentro frecuentemente es gente que solo quiere hablar de sí misma y y de sus logros o de los problemas que ha tenido hoy en el trabajo o de cosas que no me interesan en absoluto. Entonces, hasta ahora la solución a la que habíamos llegado o consensuado en la sociedad es que la gente que le encanta hablar de sí misma se crea un podcast, pero esos podcasts, la gran mayoría, duran dos episodios porque nadie los escucha. Pero si te creas un clon de ti mismo con inteligencia artificial para hablar contigo mismo, tú mismo te escuchas a ti mismo y solucionas el problema de que tu podcast no era escuchado. Entonces, me parece que esto es puerta grande, claramente.
Claro, pero no abre otro problema, es decir, ¿y si y si tú mismo no estás de acuerdo contigo mismo, no? Es decir, me voy a pedir un consejo a mí mismo, ¿no? Y y el y tú mismo te das un consejo, Mati, pero ahora, a lo mejor no te viene bien en este momento, ¿no? A lo mejor es una cosa que tú mismo pensarías, pero no aplicado a ti mismo. Creo que creo que se supone abrir situaciones, harto problemáticas, ¿no?
De de de de discutir y discusiones muy largas, porque claro, el otro tiene toda la paciencia del
mundo. Sí, pero esto no suele pasar con unos modelos de lenguaje que hay detrás de este tipo de cosas, porque si tú le dices a Chajes Vete la mayor barra basada que se te ocurra, lo más probable es que te contesta que te conteste, pues esa es una teoría interesante, pero pero jamás se te va a decir tú es su normal, tú lo que estás diciendo tiene sentido. Entonces, creo que que a este hombre su clon va a ser muy complaciente.
Claro, claro, claro. Fíjate, yo me acuerdo de una frase de, perdona, lo voy a citar, que es nuestro archirrival en el mundo de del audio, que es Federico Gimiro Los Santos, que dijo aquella frase de, me recuerdas a mí mismo cuando eras Hipolla. Claro, la lectura de Giménez Los Santos sobre su pasado es que, en un momento dado de su vida, él fue bastante capullo. Esta es la opinión de él, Yo no le sigo ni ahora ni entonces en su nivel de inteligencia. Pero, claro, es que hace veinte años, Reicholman podía tener una opinión en que el Reicholman del presente, pues, no esté muy muy de acuerdo.
Es decir, yo ahora mismo no le pediría consejo al Antonio Ortiz adolescente porque, claro, el Antonio Ortiz adolescente era como superintenso, super de sus cosas y, oye, yo me he relajado un poco, ¿no? No sé, yo creo que esto hay que observarlo, voy a seguir a Ree Hodman en en sus redes a ver cómo cómo le va con su nueva relación consigo mismo, pero, de momento, en mono gestocástico puerta grande a la edad de oro de hablar solo, Bueno, ser influencer para ti, ahora que te vas a poner en el registro ahí con con con Ibai Llanos y con Cristinini, Spursito, imagino que también estará por ahí.
Me Me encanta tu Referente. De de influencers siempre siempre está Christinini
y Spursito. Ah, Spursito, qué grande. Vale. ¿Qué dice Instagram, por ejemplo, en Estados Unidos? Es que ser, el Billboarding lo lo llama influyente, no va a funcionar, amigos del New York Times, no no insistáis, es una traducción al español, se ha quedado ya influencer, que está hecho.
Esto puede costar mucho trabajo, dice Instagram, sí. Qué pelotas son, ¿no? Y inteligencia artificial puede ser de tu ayuda. Pues, ¿cómo va a ayudar Instagram a estos influencer tan ocupados y tan esforzados? Pues, una sistema de inteligencia artificial que crea un chatbot que permitirá a estos creadores interactuar con sus seguidores a través de mensajes directos.
Entonces, ¿cómo funcionará? Pues Matías, tú que, por ejemplo, una influencia que sea referencia para ti, Yados, ¿no? Yados, tú, claro, de de referencia, le preguntas cosas de entrenamiento, preguntas cosas de de de vuestros párpados, de de de coches molones, ¿no? Lo que sea. Pues, con Creator AI, Jados podría articular un sistema que le permita responderte y fingir que es él.
Así, básicamente, tanto con voz como contexto, pues los seguidores vivirán la ficción de que su influencer de referencia le dedica tiempo mientras este puede dedicarse a, pues, las cosas importantes, ¿no? A hacer merinda cena, stalkear por Instagram, lo lo cosas de influencer. ¿Tú cómo lo ves?
Pues otra otra buena idea, Antonio, porque este es un problema al que estamos llegando, estamos tan expuestos a a gente que vive vidas ideales todo el tiempo, siempre hay alguien de vacaciones mientras tú estás, yo que sé, en el baño, en una situación complicada, que necesitamos este tipo de innovaciones, pues para sentirnos un poco más integrados en esas vidas ideales. Lo que yo es que me estoy yendo, ¿sabes por qué? Porque no puedo creer que el New York Times sea el periódico más leído y más rentable con una frase que abre un artículo de ser influyente puede costar mucho trabajo, Instagram cree que la inteligencia artificial puede ser de gran ayuda. ¿Cómo puede ser esto el el periodismo, la cúspide del periodismo del mundo? Si esto parece una nota de prensa, por favor, New York Times.
No lo entiendo, no lo entiendo.
No, no, ahí muy mal el el
el New York
Times, sí,
sí, sí, totalmente.
Hombre, yo creo que yo quiero, fíjate, yo solo quiero hablar con el chatbot de Rehoffman, es que me he quedado pillado por él y, pero bueno, si si de repente, pues, tú quieres también hablar con el con el Choca, preguntarle cómo va la lo de la basura en el congelador y cosas así, me lo recomienda, pues, a lo mejor Chocajar te puede dar dar consejos, ¿yo creo? Puede puede puede ser, además, muy educativo la vida de los jóvenes que tienen a estos creadores como referente, pues, todo todo bien, todo a favor, así que otro puerta grande, estamos que estamos que lo tiramos. Último puerta grande, Matías, ya se se nos come el tiempo. Una teoría que tengo sobre Elon, la inteligencia artificial y los coches.
Te escucho atentamente.
Anteriormente, en el episodio dijimos, claro, Elon quiere usar los telas que hay por ahí distribuidos para computar.
Sí.
Y que uno usa computación, puedes crear nuevos modelos, inferir, ¿no? Ejecutar la la guía que necesita Tesla o otras compañías. Bueno. ¿No crees tú que en algún momento Elon usará parte de esta potencia para crearse un clon de Grimes? Contexto, Grimes, ex pareja de Elon.
Mi mi impresión con Elon es que no es la típica persona que lleva la las las relaciones con las ex bien, ¿no? De una manera sana, de una manera razonable, ¿no? De una manera, pues pues civilizada. Si no, yo creo que tiene toda la pinta de del del típico divorciado que se le ha pillado. Entonces, claro, tú puedes guardar muchas cosas de tus ex, Matías, ¿no?
Puedes guardar, pues, audios de WhatsApp, textos, vídeos juntos. No podrías entrenar una inteligencia artificial para que imite a ex y el chatbot finja que te sigue queriendo y sigue estando contigo. No solo eran los coches de de Tesla al final la gran herramienta para la gente que gestiona emocionalmente mal la ruptura, Matías?
Pues de depende de a quién le preguntes. Está está está claro que Elon está bastante despechado, dejó de seguir a Grimes el día que Grimes anunció que tiene nuevo novio, pero, por otro lado, si tú eres inversor accionista de Tesla, a ti te interesa que Elon esté sospechado y se convierta en un CEO de tiempos de guerra, como decía antes, para centrarse, volver a dormir en el suelo de Tesla y ese tipo de cosas que que hacen que Elon saquen las empresas adelante.
Bueno, pues, digamos que esto es puerta un poco puerta grande y un poco enfermería, puerta grande, porque ahí él él él se puede concentrar en las cosas, bueno, concentrar relativamente, es un tío que quiere llevarnos a Marte, intercambia la industria del del automóvil mundial, realiza los robots humanoides, nos mete un chip en el cerebro y y arregla el mundo de la información y los contenidos de Internet todo al mismo tiempo. Entonces, centrado, centrado, no creo que pueda estar este este hombre, pero, bueno, todo lo que es con es pareja y y simulaciones de personas no consentidas es enfermería que
que Exacto, yo también he visto una conspiración una conspiración sobre coches eléctricos y coches autónomos en en redes sociales, y es que el gobierno está intentando que nos pasemos a los coches eléctricos e inteligentes, porque los coches de gasolina no los pueden parar en remoto. O sea, la teoría de esta gente es que quieren que vayamos en coches eléctricos para que el gobierno pueda decidir que de repente todos los coches paren y y tener el control sobre nuestro movimiento en las ciudades. Esa es una teoría nueva que no había leído antes.
Bueno, bueno, ahí, pues, habrá que estar, habrá que estar atento. Yo, hombre, yo me imagino que no depende dentro del eléctrico, sino de que sea conectado y la electrónica propia del del coche, ¿no? Pero bueno, el caso es que, bueno. Te te te lanzo una última, Matty, porque la comentamos en el podcast. Rabbit R uno, es ese cacharrito tan simpático que, bueno, se planteaba como tu asistente, como tu compañero de inteligencia artificial, con una pantallita muy simpática y muchos muchos emoticonos y tal.
Bueno, el caso es que ha sido lanzado, al contrario que Umain, pues está teniendo unas críticas más repartiditas, más Parece que ha caído un poco más más majo este este cacharro, porque, claro, tiene un conejito en tres D pixelado, eso eso cae bien, Matías. El caso es que todos los diagnósticos que hicimos incluso desde desde monos y estocáticos apuntan, esto podría ser una aplicación del móvil. ¿Para qué quieres un cacharro y gastarte más pasta extra a no ser que, pues, que sea, si son fetichistas de los gatchers, no? Y, claro, cuando veo los usos que le está dando la gente, ¿no? Como dice, venga, lo dejo aquí al lado y es mi asistente mientras trabajo, le puedo hacer preguntas, ¿no?
Dame la fórmula del Excel para hacer esto, o cuéntame cosas sobre los jeepads de Meta, ¿no? Y él te responde y charlas con él. Claro, es que esto podía ser una aplicación del móvil hasta que se ha descubierto literalmente que es que es una aplicación del móvil. Es decir, lo que tiene Rabbit es un androide, un androide, un androide, un sistema Android, como los teléfonos móviles, y lo que ejecuta es una aplicación de Android.
Yo aquí, porque además ha vuelto a ser polémica Márquez Brownley, porque en su review el título era algo así como imposible de de analizar este dispositivo, ¿no? Yo aquí tengo una opinión un poco más tibia, que, por ejemplo, cuando hablamos del AIP. Esto cuesta creo que eran como trescientos dólares, una cosa así, tiene un diseño muy chulo, tiene, pues está bien diseñado, está bien pensado, el tema es que no funciona tan bien como un smartphone, obviamente. Pero si a mí me hubieran preguntado si hacía falta un smartphone teniendo un ordenador, probablemente habría dicho que no. Si me hubieran preguntado si hacía falta una tablet, que es un teléfono grande, teniendo ya el teléfono de smartphone, probablemente habría dicho que no.
Pues en esta búsqueda de dispositivos en los que tener una inteligencia artificial, que ha empezado un poco con mal pie, a lo mejor encontramos algo interesante, y recordemos que ahí están Sam Alman y Johnny Ivy intentando encontrar algo que que funcione. Pero
quedamos Bueno, pues ahí nos quedamos, nos quedamos con que, bueno, no, no condenemos demasiado pronto a estos cacharretes, a mí me caen bien. De hecho, mi impresión con la distancia es que, en el fondo, mucho del análisis de la opinión general es como caiga en gracia algo y de lo cool que se considere, lo de lo de I mean hicieron un vídeo como muy seriote, muy enfadados, y yo creo que eso ya no ya no conectó con la gente, además de que, bueno, digamos, el cachorro puede ser peor o mejor. Pero esto que sospecho que no es mucho mejor ni ni tal que que lo del pindium, de alguna manera creo que ha caído más en gracia, ¿no? Entonces, con ellos cerramos el episodio, Matías, y con ellos nos despedimos hacia las O sea, han
quedado muchísimas cosas en el guión, nos ha quedado mucha papel, nos ha quedado mucho Pennyye, así que intentaremos volver muy rápido con más noticias en monos estocásticos. Hasta la semana que viene.
Chao,