16.593 oyentes
El mundo ha cambiado para siempre con herramientas, más allá de nuestros sueños, y solo hemos empezado a escarbar la superficie de hasta dónde podremos llegar. No solo a nivel de herramientas, también con los futuros mundos que nos prometen compañías como Apple o Meta.
Windows Copilot, o cómo hacer que nuestro sistema operativo lo haga todo por nosotros, GitHub Copilot X que nos ayuda, sugiere y analiza incluso los errores lógicos en nuestro código, Midjourney para crear imágenes más allá de nuestra imaginación…
Pero, ¿sabemos realmente los riesgos que conlleva la IA? ¿Nos hemos parado a pensar que ni siquiera las propias compañías que crean estos grandes modelos, saben exactamente cómo funcionan y por qué hacen lo que hacen?, ¿somos conscientes de que pueden tener comportamientos impredecibles que habría que controlar?
Hoy analizamos por qué hay que tomar la IA con responsabilidad, por qué no hay que tomar a la ligera estas soluciones... qué oportunidades, y riesgos, hay delante de nosotros y cómo podemos evitar llegar a un mundo como en el que vive nuestro deslizador de combate: la Nebuchadnezzar. Un mundo dominado y destruido por la IA.
Aprende Swift y SwiftUI con nuestra última formación: Swift Developer Program 2023.
Oliver Nabani
Julio César Fernández
Transcripción
Cuonda, la comunidad de podcasts independientes en español. Bienvenidos a la Nemechanizer, la nave de combate donde regenerarás tu mente. La Nemechanizer ¿Está todo preparado? Sí, todo listo. ¿Todos los puntos de acceso controlados? Todos controlados y los firewalls de acceso cerrados. Perfecto. Es esencial que solo nos oigan aquellos que estén preparados. Exacto. Preparados para llevar su mente más allá.
Para liberarla. ¿Crees que estarán preparados para esto? Eso espero, porque ya no hay vuelta atrás. Pues entonces, allá vamos. El mundo ha cambiado para siempre con herramientas más allá de nuestros sueños, y solo hemos empezado a escalar la superficie de hasta donde podremos llegar. No solo a nivel de herramientas, también con los futuros mundos que nos prometen compañías como Apple o Meta. Windows Copilot, o como hacer que nuestro sistema operativo lo haga todo por nosotros.
Kitsap Copilot X, que nos ayuda, sugiere y analiza incluso los errores lógicos en nuestro código. MiJourney, para crear imágenes más allá de nuestra imaginación. ¿Pero sabemos realmente los riesgos que conlleva la IA? ¿Nos hemos parado a pensar que ni siquiera las propias compañías que crean estos grandes modelos saben exactamente cómo funcionan y por qué hacen lo que hacen? ¿Somos conscientes de que puede tener comportamientos impredecibles que habría que controlar?
Hoy analizamos por qué hay que tomar la inteligencia artificial con responsabilidad. ¿Por qué no hay que tomar a la ligera estas soluciones? ¿Qué oportunidades y riesgos hay delante de nosotros? ¿Y cómo podemos evitar llegar a un mundo como en el que vive nuestro deslizador de combate, la Nevekanazer? Un mundo dominado y destruido por la inteligencia artificial. Muy buenas y bienvenidos a un nuevo viaje de la Nevekanazer, que sí, todavía es capaz de volar, todavía es capaz de moverse y todavía seguimos aquí.
El problema es que ha habido, pues como siempre, demasiadas cosas, demasiadas obligaciones. Yo por mi parte he tenido una mudanza, me he mudado de una zona residencial de Sion a otra. Entonces ha sido todo un lío, en fin, y como no hay máquinas para que te ayuden con la mudanza, pues ha sido un poco un problema. Pero por fin hemos conseguido poner agendas y empezar a hablar, ¿no Oliver? Sí, la verdad es que nos ha costado.
Ha sido además de una forma un poquito improvisada, porque no ha sido algo... Habíamos planeado desde hace semanas, evidentemente, sentarnos a grabar, pero lo que ha sido el momento del arranque de decir oye, venga, tenemos que grabar ya un episodio que da un poco de vergüenza en no unirnos en este vuelo, que en principio iba a ser quincenal, te recuerdo. Sí, sí.
Pero quincenal, lo que pasa es que no dijimos en función de la rotación de qué planeta íbamos a medir el tiempo. No, la verdad es que eso ha estado complicado, pero bueno, ya estamos aquí porque al final es que estamos viviendo también unos meses en los que también es difícil elegir el momento en el que decidimos grabar. Ya nos pasó, ¿no? Que hicimos una grabación y para cuando la estábamos editando, y esta estaba despasada, ya estaba completamente obsoleta. Pero ¿qué acaba de pasar? Ese es el momento triste.
¿Qué acaba de pasar? En qué momento puede suceder que tú grabes un podcast de algo que además estás haciendo una predicción para dentro de unos meses y en 24 horas se te ha quedado obsoleto, ¿no? Entonces, bueno, pues es verdad que es un momento difícil, difícil porque hay muchos cambios, muchas presentaciones. Yo, personalmente, nunca había visto una etapa en este mundillo de la tecnología y tal en el que tantas marcas estén buscando la forma de pisarse unas a otras las presentaciones.
Está siendo una cosa de absolutos locos. No solo las presentaciones, sino el personal, etcétera, etcétera, ¿vale? Porque tienes ahí... Yo el otro día estuve mirando, por ejemplo, para que tengas una idea, bueno, pues como pequeña anécdota, ¿vale? El otro día me enteré que la gente de Magic Leap, ¿vale? Sabes quiénes son, las gafas estas de tal...
Pues uno de los motivos por los que no tienen tanta presencia y tal y cual es que llegó una empresa con una manzana en el logo, con una chequera en la mano y dijo, vénganse conmigo. Y se llevó como el veintitantos por ciento de la gente que había en proyectos. O sea, el problema es que llega un punto, lo hemos hablado muchas veces, que la necesidad de especialización es tan alta y no hay tanta gente que esté a ese nivel que, lógicamente, pues se están pisando presentaciones,
se están pisando gentes, se están pisando proyectos. De pronto, mágicamente, porque bueno, estamos grabando poco antes, todavía no sabemos nada sobre lo que Apple va a presentar en la WWDC y si finalmente veremos las famosas gafas, casco, como lo quieran llamar, lentes de realidad aumentada y virtual, realidad extendida. Parece ser que sí se presentará, pero todavía, hasta que no lo presenten, lógicamente no lo podemos dar por hecho.
Pero quien sí debe saberlo es Mark Zuckerberg, porque ha decidido presentar las MetaQuest 3 ahora cuando las va a sacar a la ventana en otoño. O sea, es como, hola, ¿qué tal? Y no solo eso, sino un detalle bonito, ¿sabes? De estos que dices, la madre que lo parió. Destacando las 4 o 5 cosas en las que sabe que probablemente le puede hacer daño a Apple. Y tú fíjate que, además, en este momento en meta tampoco es que esté compitiendo.
Es decir, ha dejado un poco de lado todo lo del metaverso, se ha metido un poco más con la inteligencia artificial, pero claro, te dice, oye, más resolución, 43% menos de volumen, 43% menos de peso, doble de potencia, 500 pavos, ¿vale? Es decir, donde puede hacer daño ha dicho, bueno, no estoy en la competición, estamos de acuerdo, pero de momento a Apple voy a hacerle daño. Es decir, que la presentación la hagan incómodos.
Sí, porque además, saber el precio final como medio año antes de que se lancen, o al menos 4 o 5 meses, si salen en otoño, vamos a suponer que saldrían en octubre. Estamos en junio, pues 4 o 5 meses pueden pasar hasta que aparezcan. Por lo que saber el precio final X meses antes es porque querías saberlo. Es porque sabes que ahí vas a hacer daño con respecto a Apple. Y además, como tú has dicho, también haciendo realidad extendida, que puede estar,
que si el jueguecito con el tablero que tiro el dado y todas esas cosas bonitas, que bueno, pues a ver, yo estoy convencido que las MetaWest 3 van a ser un gran dispositivo. Eso está claro, ¿vale? Pero ahí hay una diferencia, que luego si eso podemos hablar, con respecto a la filosofía de unas y de otras compañías. Pero no solo ha pasado eso, es que, en fin, yo, a ver, si supiera de valores bursátiles,
si supiera de trading y estas cosas, a día de hoy podría llegar a considerarme un gurú y podría llegar a considerarme que hacedme caso porque conmigo os vais a hacer millonarios. No es el caso. Pero ¿cuántas cosas hemos acertado de todo lo que fuimos diciendo que iba a pasar y ha pasado? Mira, te podría decir exactamente que hemos acertado, y aguántame esta reflexión, hemos acertado el 50%. ¿Y te digo por qué digo el 50%?
Te puedo decir el 50% porque hemos acertado básicamente el 100% de todo lo que iba a pasar, pero en ningún caso pensábamos que iba a ser tan pronto. Es decir, eso ha sido lo que a mí me ha dejado con la boca completamente abierta. Es decir, ahora hablaremos de temas de Microsoft, podemos hablar del tema de Apple, del tema de Meta, Google y compañía. Yo creo que todo lo que hemos dicho que iban a ir lanzando lo han lanzado.
Es decir, creo que nos hemos equivocado prácticamente en nada. Todo más o menos lo hemos seguido. Ahora, si a mí me dicen que las presentaciones que iban a lanzar, básicamente todos sus productos, como muy tarde, están para otoño de este año, de todas las marcas hablo, es decir, aquí sin especificar por ninguna en concreto, yo no me lo hubiese creído jamás. Es decir, son cosas que yo esperaba que sí, que saliesen, sí,
pero un año, dos años, tres años, dependiendo del caso, y sin embargo se han adelantado de forma increíble. Es decir, yo nunca me podía imaginar que tuviesen esa capacidad de decir, no, no, todo esto que hasta hace seis meses, un año, era ciencia ficción, no solo te digo que lo tengo, sino que te pongo fechapa dentro de dos meses. O sea, no te vas a pensar que es dentro de... No, no, no, dentro de dos meses estás funcionando con ello.
Es increíble. Es que yo recuerdo, claro, yo recuerdo hablar de, bueno, pues Google, Google, hombre, Google tiene que reaccionar, Google tiene que ponerse de tal, Google tiene mucho producto, pero, hombre, Google le costará mucho tiempo sacar un producto a nivel usuario, tal y cual. Sí, unos meses. Microsoft, hombre, Microsoft es lógico, se ha presentado Office, pues es lógico que tarde o temprano, más tarde que temprano,
pues meta esto en el sistema operativo y que le digas, oye, ponme en modo oscuro y 3D, pum, y te lo ponga. Oye, ¿y cómo se entra o cómo se hace tal cosa? O sea, ¿cómo se hace para que Google Cloud Base sea un asistente del sistema operativo? Pues, hombre, en un par de años o tres, podríamos tener un Windows 12 que, mis narices, es que de otoño ya está. De hecho, estábamos hablando, acuérdate, de Windows 12 y Windows 12, ni puñetas, en 11 y a tirar para adelante.
Sí, sí, es que de hecho se ha adelantado en el sentido, vamos, es como yo entiendo que es lo que han planteado, es decir, vamos a ver, si lo piensas fríamente, si lo piensas desde un punto de vista técnico, lo hemos hablado muchas veces, que el poder extrapolar, por decirlo de alguna forma, este chat GPT o este asistente o pilot a algo como el sistema operativo de Windows no debería ser muy complicado.
¿Por qué? Porque al final tú tienes todas tus APIs, las tienes bien documentadas, las tienes bien hechas, no debería ser problemático hacer un fine tuning en el que le digas, oye, tú lo que vamos a hacer básicamente es una mezcla de texto a texto, de texto a prompt, incluso de texto, a un poco de TypeScript para que sea capaz de generar botoncitos y cositas ahí en la pestaña esta del copiloto de Microsoft.
Pero es que directamente lo que han dicho es decir, bueno, pues mira, lo vamos a dejar apañado, lo vamos a dejar funcionando. Yo entiendo que lo que harán es, oye, mientras sea Windows 11 estará separado seguramente de la pestaña, no tendrá según qué conexiones o alguna cosa te dirá, espera, esto para más adelante, es que en un año tiene Windows 12 y supongo que eso ya dirá, vamos, será parte del kernel de Windows.
Yo directamente me he ido ahí todo. Es una locura el que hayan podido en tan poco tiempo plantear el decir, vamos a darle la vuelta completamente al sistema operativo. Es que el cambio para el usuario, es decir, esta frase es de la propia gente de Microsoft y es muy bestia, o sea, es muy profundo, es muy duro. Es decir, ellos lo que te están diciendo es a partir de ahora, voy a decirlo en inglés porque el nombre suena mejor,
pero es otra cosa, ¿vale? Cada user, cada usuario, es un power user. Es como se conoce a los usuarios que, digamos, manejan todo perfectamente del sistema operativo, saben cómo hacer cualquier cambio o lo que sea. Que power user, power user, por muy power user que sea, tú no sabes cuál es la entrada de registro para hacer tal cambio, pero es que este asistente sí lo va a saber porque claro, con que le hayas metido en el fine tuning
todos esos cambios, ¿qué significan? Pues hacerlo es una cosa bastante, relativamente sencilla, no tiene mucha historia, ¿no? Y claro, de repente, pues eso, vamos a ver en pocos meses unos cambios en sistema operativo, herramientas de oficina, navegación por internet, uf, todo. O sea, que es como, guau, es apabullante completamente. Desde luego está claro que aquí, bueno, a nivel de términos, digamos, técnicos o términos de marketing,
la marca diferenciadora de Microsoft va a ser Copilot, ¿vale? Su Copilot que va a estar unido a Office, unido a Windows, unido a GitHub, como ya lo ha estado durante mucho tiempo. Yo he tenido la oportunidad de poder probar GitHub Copilot X, no completo, ¿vale?, porque se está liberando por módulos, pero una de las cosas que Microsoft ha compartido es la posibilidad de usar el chat unido a GitHub Copilot,
es decir, tener un chat GPT, ¿vale?, que es capaz de analizar, explicar, buscar soluciones en tu código, entenderlo y echarte una mano con él, entendiendo lo que está haciendo porque el código es el contexto y él tiene el conocimiento. Y no estamos hablando de desarrollo de Python y desarrollo JavaScript, no, no. Yo lo pruebo con desarrollo de Swift, trabajando con una librería de lado servidor que se llama Vapor, que no es de Apple directamente,
pero sí tiene una cierta participación, que es una librería de código abierto y que podríamos decir, sin lugar a equivocarnos, que es un desarrollo muy minoritario en un lenguaje que no es de los más populares. Sí está siempre entre los 10, 15, 20 lenguajes de programación más populares, pero no es el más popular, no es Python, no es JavaScript, y encima no es desarrollo para entornos Apple directamente, SwiftUI, IOS, etcétera,
sino que es desarrollo sobre un framework concreto que tiene una forma de comportarse de manera concreta, etcétera, y del que tampoco hay tantos proyectos. Y sin embargo, es extremadamente sorprendente cómo es capaz de explicarte el código, explicarte dónde puedes mejorarlo, sugerirte cambios en el mismo, encontrar errores que puede haber, no errores de me he equivocado aquí, porque eso, obviamente, el error me lo demuestra y tal.
No, no, no, estamos hablando de, oye, yo he programado esto, pero no hace lo que yo quiero, no graba donde yo quiero, no hace lo que le he pedido, hace otra cosa, y que sea capaz de encontrar el error lógico, que ahí está lo duro, ¿vale? Entonces, eso nos demuestra el nivel al que estamos y cómo Microsoft quiere llegar hacia adelante y cómo quiere tomar una identidad a nivel de ese copiloto, ¿no?, que, de alguna manera, nos ayude en nuestra vida,
y si es capaz de hacer eso con el código, que no podrá hacer en un sistema operativo. Sí, quería interrumpirte un segundo para hacerte una pregunta. Es que yo no he tenido la oportunidad de probarlo hasta ahora. Honestamente, puede que me han dado la opción y no lo he visto, ¿vale?, porque estoy ahora del tema de desarrollo y tal un poquito despegado. Pero me gustaría que me contestases tú, porque esto no lo he hablado contigo.
¿Qué opinión das tú al copiloto X, este nuevo con chat, respecto al anterior? Porque me ha sorprendido mucho que dentro de mi Discord, de la gente que me sigue y demás, mucha gente que era muy crítica, yo creo que ni tú ni yo hemos sido tan críticos en absoluto con el copiloto, dentro de que, oye, sabemos que no hace cualquier cosa, pero hemos dicho, hostia, pues ayuda bastante, está bien, ¿no? Pero había gente muy crítica y, sin embargo,
cuando han probado la versión esta con chat, te dicen, hostia, es que nada que ver, es que es otra película, ¿es tanto la diferencia? No, no es tanta. No es tanta en el sentido de, no porque es algo, vamos a llamar, mediocre, y ahora es algo mejor. No, no. Desde mi punto de vista, pero entendiendo que es lo que realmente es la herramienta, lo que han hecho básicamente, o sea, lo que estamos viendo aquí es un salto cualitativo
que tiene que ver con lo que hay detrás. GitHub Copilot era GPT-3 y GitHub Copilot X es GPT-4, y se nota. Ah, vale, ya está, ya está. Y se nota. Esa es la diferencia. Ya está, ya está. El servicio, el funcionamiento, etcétera, es lo mismo. Lo que pasa que ahora es el contexto, es decir, sí es cierto que, por ejemplo, en el GitHub Copilot original, se notan mucho los entrenamientos basados en tutoriales X.
Cuando tú llevas muchos años como yo, trabajando en el mundo del desarrollo, llega un momento en el que te conoces incluso el estilo de programación de cada uno de la gente que hace tutoriales en internet. Y entonces eres capaz de identificar, es decir, uy, este código se parece un poco al de Ray Wendler. Uy, este está usando el patrón de las extensiones y tal. Uy, mira, este parece Paul Hudson, ¿no?
Es como que va directo, tal. Ya empiezas a verle las manías, porque cada programador tenemos nuestras manías a la hora de hacer las cosas, y empiezas a ver efectivamente por dónde va. Y se nota, el primer GitHub Copilot se notaba, y yo he trabajado con él prácticamente un año, ¿vale? El otro día lo revisé a nivel de facturas pagadas a Microsoft, ¿vale? Y ya llevo un año con él. Y la verdad que cuando empezaba a ser útil
es cuando ya llevabas tiempo trabajando en tu proyecto, ¿vale? Para ponerte un ejemplo. Normalmente, cuando empiezas con GitHub Copilot, lo que hace es tomar las riendas de esos tutoriales e intentar que lo que hagas se parezca a esos tutoriales en cuanto a lo que te propone, etcétera, etcétera. Y cuanto más vas trabajando con tu forma de hacer las cosas y con tu forma de hacer el código, vas viendo que va tomando esa iniciativa
y te va guiando de una forma que se parece más a como tú trabajas, ¿vale? Se va adaptando. Y esa adaptación, además, es por proyecto. Si empiezas un proyecto nuevo, tienes que empezar de cero a enseñarlo, ¿vale? No es capaz de saber cómo programas por otro proyecto y entonces ya en el nuevo te lo va a hacer de otra manera, ¿vale? Entonces eso, ahí se nota lo que es GPT, ¿vale? Pero sí es cierto que en la forma de entender el contexto
y en la forma de entender el total de tu código, se nota que ahora tiene mucho más contexto, ¿vale? Y que es capaz de entenderlo mejor. Por lo tanto, tarda menos en llegar a ese punto de entrenamiento y el hecho de que sea capaz de valorar lógicamente el código, más allá de que tenga errores gramaticales o no, desde luego es algo bastante importante. Al final, yo he insistido mucho, ¿vale? Y esto tenemos que tenerlo claro, ¿vale?
No hay más que ver el histórico, ¿vale? Es decir, GPT nace en el año 2018 y el objetivo de OpenAI es terminar oraciones con coherencia. Ese es el objetivo de GPT, ¿vale? De pronto, se dan cuenta de que aquello funciona y dicen, ah, genial, pues vamos a hacer GPT-2. Y entonces mejoran el algoritmo en base a cómo ellos aprendieron a cómo funcionaba, le dan más datos y se dan cuenta de que aquello, oye, que funciona muy bien, que esto completa los textos,
que es una maravilla, que si le pones aquí no sé qué, me complete, me hace cosas. Y entonces dicen, ah, pues genial, como ya he conseguido que este algoritmo funcione bien, me complete y haga cosas que realmente son sorprendentes, lo que voy a hacer es que con el mismo algoritmo, ¿vale? Lo que voy a hacer es darle 175.000 millones de referencias. Es decir, si GPT-2 se hizo con muchas menos, el 3 me voy a volver loco, le voy a dar...
Básicamente la prueba fue como decir, voy a sobrepasarlo y a ver qué buñetas sale de aquí. Y ni OpenAI tenía claro qué es lo que iba a salir de ahí. De pronto termina de entrenar, suena el microondas, ¡ping!, ya está entrenado, vamos a por el té. Y cuando abren aquello, se encuentran que el hijoputa ha aprendido idiomas, ha aprendido a programar... Sí, es muy loco, tío. Entonces, claro, y el gran problema que tiene ahora mismo
la inteligencia artificial, y lo hemos dicho, esta inteligencia artificial en concreto, ¿vale? Es que cuando yo hago un programa, yo sé lo que hace mi programa. Y si tú me preguntas a mí qué hace mi programa, yo te explico lo que hace mi programa y por qué mi programa se comporta como se comporta, porque yo lo he programado y sé cuáles son las rutas que le he dado y por qué pasa por donde pasa. El problema es que la cantidad de información
que tiene GPT-3 es tan enorme que hay una parte en la que OpenAI no es capaz de entender por qué puñetas su algoritmo hace lo que hace. Sí, de hecho, os voy a recomendar, te pasaré si quieres el enlace, Julio, para que lo pongas en la descripción, ha escrito un artículo, os lo advierto, es espeso hasta... Es como intentar saltar a una piscina de Alkitrán, ¿vale? Para que os hagáis una idea. De hecho, esto es espectacular.
Ha escrito un artículo, no sé en cuánto será en folios, pero hemos tardado en directo en hacernos dos tercios como seis horas o algo así. Es decir, en leérnoslo tranquilamente y tal. Escrito por Stephen Wolfram, explicando exactamente cómo funciona por dentro ChagGPT y por qué se producen cosas como las alucinaciones, por qué...
Pues eso, como tú dices. Es decir, cómo es posible... Es mola mucho porque la primera parte del artículo que se titula es sólo añadir una palabra más. ¿Vale? Es como lo inicia, pero claro. Cuando empieza a explicarte cómo toda esa secuencia de cómo crean las transformes, cómo los ordenan y cómo de repente se dan cuenta de que a partir de cierto punto de entrenamiento empiezan a crearse lo que él llama esas trayectorias de pensamiento,
que son esas cosas que ha aprendido. Es decir, a traducir a ciertas cosas no muy complejas, pero ciertas cosas de matemáticas, a ciertas cosas de programación. Como tú dices que a veces dices que ya no solamente me ha cogido algo que se pareció mucho a un ejemplo que hay en GitHub, sino que se ha dado cuenta de que aquí era N en vez de N más 1. ¿Cómo ha hecho eso? Es decir, ahí es donde viene esa cosa
que se te abre y de repente se te cierra la bombilla. Es decir, ¡guau! Cuidado con esto, que muchas veces como que te da la sensación de decir que esto solamente es un poco un copio y pedido. Muchas veces tú la dudas, las respuestas que dan son muy locas y es por eso. En ese artículo te lo explican todo. Es verdad que, insisto, es para tomarte un cafelito y dedicarle un par de días. No es una cosa que te puedan...
Un cafelito no da, ¿eh? Da para cafelitos, gin, toni... La verdad es que sí. Pero es verdad que te lo explican. Además, va muy paso a paso explicando cosas muy básicas, de que es un modelo, matemático, informático, lo que sea. Te explica, en principio, cómo sería una red neuronal básica con perceptrones, cuál es la diferencia cuando te metes con una red que tiene, por ejemplo, un sistema de difusión,
un sistema de transformers. Te lo explica todo. Y cuando llega al final, es donde dice, aquí viene la magia. Resulta que cuando esto se hace lo suficientemente grande con el entrenamiento correcto, que cuando dices correcto, que los programadores, que a lo mejor no sería correcto ni siquiera llamarlos desarrolladores ni programadores de estas redes, muchas de las cosas que hacen las hacen de... Voy a poner esto a ver si funciona.
Por ejemplo... Acabas de definir el 90% de mi trabajo. O sea... Mi trabajo es... Voy a poner esto a ver si funciona. Es muy loco, tío. Es muy loco el... El número de capas que voy a poner aquí. Y hay alguien que dice... Pero literal, ¿eh? Hay alguien que se plantea decir... Pues si yo quiero palabra de un máximo de... 20 letras, pon 20 capas. ¿Tiene alguna relación? No, pero pruébalo, tío. No lo sé. Porque muchas veces es uno de los problemas
con los que se están encontrando. Ellos mismos, si les preguntas a la gente que han diseñado estas redes, te dicen, esto se está convirtiendo en un arte, tío, porque los que más saben de cómo crear y cómo modelar una red, no te pueden... De verdad, ¿eh? No te dan una explicación científica de no.
Mira, el número de capas tiene que coincidir con el número de pasos de no sé qué o el número de perceptrones o el número de transformers por zona tiene que coincidir... Ellos mismos te lo dicen. Mira, hemos hecho pruebas y esto es lo que funciona, ¿sabes? Es decir, no tenemos ni puñetera idea.
Solo sabemos que el resultado a nosotros mismos y a todos los que lo estéis probando os está dejando y nos está dejando con la boca abierta. Pero es verdad que por eso insiste mucho es una parte interesante, ¿no? Insiste mucho Sam Altman diciendo, no, no, no, a ver, a ver una cosa, no esperéis pronto ni mucho menos un GPT-5, pero no lo esperéis no porque no tengamos a lo mejor la capacidad de intentarlo, sino porque
¿por qué vamos a ir a un GPT-5 si no tenemos mucha idea de cómo funciona el GPT-4? Es decir, ¿que funciona? Funciona. ¿Que sabemos cómo los hemos estructurado? Lo sabemos. Pero claro, por cómo es una red neuronal, por cómo está todo compuesto ellos mismos te dicen, es que no sé si puedo optimizarlo 50 veces o no. Es que no lo sé directamente con ellos. Sí, porque no saben exactamente, no son capaces de explicar cómo funciona.
De hecho, han conseguido entender cómo funcionaba GPT-2 metiéndole GPT-3. Efectivamente. O sea, es un poco irónico, pero la única manera que han tenido de entender cómo funciona un modelo es meterle otro más potente que sea capaz de analizarlo porque un ser humano no va a tener capacidad ni en media vida ni en 20 vidas de analizar y de trazar todas esas rutas.
Es como el que hace un diagrama de flujo. Para que tengas una idea, mira, porque lo explica muy bien Stephen Wolfram y además, como es una parte que a mí me toca mucho de las matemáticas por la ingeniería y demás, te dice, mira, puedes plantearte la complejidad esto, os doy dos opciones, ¿no? para todos los que nos estéis escuchando.
Las dos son muy locas pero para que os hagáis un poco una idea de cómo sería entender cómo funciona la red neuronal de chat GPT, ¿vale? Para que os hagáis una idea. Tú imagínate en matemáticas, ¿no? Todos hemos estudiado matemáticas, en el colegio, una parte sencillita de matemáticas. La típica en la que tienes, pues, algún cuadrado o, por ejemplo, el típico x-2 entre colmillas, o sea, entre paréntesis al cuadrado, igual a cero, y te dicen, oye,
sácame los valores de x. Y, bueno, tienes que considerar cuándo se te puede ir a cero, cuándo no se te puede ir a cero, es decir, un cubo, ¿no?, que muchas veces tienes que, no solamente resolverlo sino, además, tener en cuenta ciertas consideraciones de decir, ¿y si se me va a cero? ¿y si se me va a infinito? ¿Cómo tengo que tardarlo? No es difícil, pero, hombre, te das cuenta de que para una cosa muy pequeñita,
es decir, a lo mejor que son una multiplicación y una suma, ¿vale? Tienes tres o cuatro posibilidades o dos o tres respuestas, o una o dos respuestas dependiendo del caso, ¿no? Vale. Para valorar exactamente el tamaño, ¿qué sería? Intentar entender chazgpt. Chazgpt es una sucesión, porque es una sucesión de un, vamos a decirlo en español, ¿vale?, de un billón, ¿vale?, de un billón de un número más una
multiplicación de dos números, más otro de esos un billón de veces. Es decir, tú coges una operación matemática que es a más w, que se suele llamar, pero aquí no es w, porque no es un perceptron, ¿vale? Más h por b, es decir, tres parámetros, uno sumando a la multiplicación de los otros dos, y ahora hace una secuencia de un trillón de veces eso.
Y ahora tú intenta entender por qué cuando tú estás metiendo un token, estás anulando unos, estás quitando otros, unos se suman con unos, unos se suman... O sea, es que no tienes forma, o viéndolo de otra forma. Es como intentar, para los que hayáis estudiado un poco de ingeniería y se habéis tocado matrices y demás, es como intentar sacar los autovectores, es decir, es una de las partes cuando tú estudias matrices, cuando tú estudias homomorfismos,
tú tienes una matriz 3x3 y para sacar lo que se llaman los autovectores, tienes que hacerte unas cuentecitas que normalmente no son, no es algo que tú puedas parametrizar, sino que a ojo tienes que decir, mira, si pongo esto más esto y esto menos esto, sale cero y todo funciona. Sólo que en vez de en dos dimensiones, ¿vale?, en vez de en dos dimensiones, sería en un billón de dimensiones, ¿vale? Eso es lo que hace el maldito modelo de
GPT-4, ¿vale? Para que nos hagamos a la idea de cómo vas a intentar entender lo que hay ahí dentro, es imposible, es decir, simplemente no puedes porque es una estructura tan grande, es tan grande de hecho que para ejecutarse en los distintos servidores de Azure y demás, ni siquiera está activa toda entera, todo el tiempo, dependiendo de qué zona se van activando, se van encendiendo una parte y se van apagando otra, porque no hay forma humana,
no hay forma humana de intentar manejar eso que es tan grande, o sea, es de hecho tan complejo como cuando te ponen unos sensores en la cabeza y te dicen, voy a intentar entender lo que hace tu cerebro y te dicen, buena suerte, muy buena suerte, es decir, no tienes nada que hacer, ¿no? O sea, ese es el nivel de complejidad. Sí, lo que haces es que, uy, mira, oye música y se le enciende esta zona del cerebro, y tú,
vale, y ya con eso eres feliz, es decir, ah, muy bien, mira, ya tengo una información muy guay que se enciende esta zona. Tú ponte a ver qué es lo que hace cada una de las conexiones entre los distintos transformers y, o sea, olvídate. Olvídate, es una maldita locura. Entonces, claro, ese es el motivo por el que tú nunca vas a poder ver lo que hay dentro. Es decir, puedes hacer lo que han hecho, lo del
experimento que han hecho, es decir, no, cojo un modelo superior, cojo un inferior, les tiro el mismo... digamos, el mismo... la misma frase o lo que sea, y comparando los transformers que se activan y demás, puedo llegar a decir, ostras, pues en este que es mucho más sencillo que en este que es mucho más complejo, empiezo a entender, poniendo muchos ejemplos, que esta zona se refiere a cosas que tienen que ver, pues yo qué sé, tío, con bucles
for. ¿Vale? Entonces se suele activar esta zona de aquí. Y fíjate que cuando es for y es en Python, se desvía el camino por donde se van encendiendo los distintos transformers, se desvía hacia aquí. Pero ya está. Es decir, más allá de eso, olvídate.
Y con eso han podido deducir, pues eso, es decir, cosas como decir no, no, ojo, cuidado, que sí que es verdad que para hacer ciertos procesos, ¿no? Que son más, ¿cómo te diría yo? Que tienen un camino, ¿no? Más recto, como puede ser una traducción, que a pesar de que tenga esa variabilidad, es como entre comillas más directo, sí que se dan cuenta de decir, oye, pues aquí sí que está más claro por donde funciona el modelo, pero ¿cómo funciona?
Vamos, ni lo intentar, ni se puede intentar entender. O sea, es otra movida. Ese es el motivo por el que, bueno, pues tenemos nueva carta, nueva carta advirtiendo a la humanidad de que la inteligencia artificial puede suponer el fin de la humanidad. Y de hecho hoy no sé dónde leía que hay un avión que ha matado al piloto o que... Sí, yo te explico, esto es muy bueno. Explícamelo, por favor.
Muy sencillo, lo siento, no sé exactamente en qué ejército ha sido, y creo que no es en el americano, si no me equivoco. Básicamente hacen los ejércitos, sobre todo los del aire, hacen cierto tipo de opciones para probar el tema, por ejemplo, de los dogfights, esto que hacen que se meten en simuladores varios pilotos para ver quién es capaz de derribar a quién y toda la historia, ¿no? Se hizo viral hace unos meses que una de las
pruebas que hicieron es un combate dogfight, es decir, un caza contra otro, una inteligencia artificial contra un humano, F. O sea, es decir, no tenían a qué hacer, pero además, ya no solamente por lo que esperaban que se lo limitaron, es decir, ellos esperaban que la IA destrozase al humano, pero porque la IA no va a sentir la fuerza ajena, entonces le limitaron mucho cómo se movía, y el problema es que
el desgraciado de la IA se inventaba estrategias que el otro no se veía venir, es decir, el otro estaba pilotando y te decía, te han derribado. ¿Cómo? Y cuando veían la simulación que tienen, que es la hostia, que es ciencia ficción, cuando lo ven en tres dimensiones, dicen no, no, es que el cabrón ha cogido, se ha metido detrás de un risco, ha aprovechado el aire que ahí se queda más estancado para pegar
un frenazo, se ha puesto detrás de ti desde debajo y te ha reventado, y ya está, y no has tenido opción a saber lo que estaba pasando, bueno. Claro, es que eso es un poco para que os hagamos una idea, eso es ser Maverick, ¿vale? Es decir, ¿por qué Maverick era el mejor piloto? Porque Maverick no tiene en cuenta el factor riesgo, factor miedo, factor no sé si lo voy a conseguir, factor estoy acojonado, no,
factores, yo me meto ahí y sé que va a salir y mi única garantía es mi huevo moreno. Sí, sí, tal cual. Si eso te lo hace una IA que no valora riesgos, pues obviamente hará cosas que un piloto humano no es capaz de hacer. Pero aquí, ahora viene lo grave, lo grave es que lo que han hecho es decir, bueno, vamos a, bueno, el segundo nivel es que han diseñado un sistema de drones en el que lo que haces es, pues bueno,
tú eres el piloto principal, vas en tu caza, ¿vale? Y lo que llevas es una escolta de 10 drones con misiles cargados y toda la historia, entonces tú lo que haces es, pues claro, tu chat GPT particular, es decir, unidades 1 y 5, por favor, ir a ver lo que está pasando por allí, y tú ya te preocupas porque ellos van, te pasan la información y están todos felices.
Vosotros dos me escoltáis detrás, vosotros dos atacáis, entonces es como una forma muy bestia de tener un escuadrón de, en el que no tienes un riesgo de que haya un piloto al que le pueda pasar algo, ¿no? Tú vas montado en el caza principal, pero vas defendido por una serie de drones. Pero ahora viene el tercer paso, ¿vale? Y el tercer paso es el que han probado, el simulador, el simulador, pero de todas maneras es muy heavy, ¿vale?
Es muy heavy. Han probado el simulador que es un drone que acompañe al caza principal, ¿vale? Y que se encargue de cubrirle continuamente la retaguardia, y que se encargue de protegerle en circunstancias en las que el piloto no va a poder reaccionar contra un ataque, ¿no? Entonces, le hacen la programación, le explican, le hacen el entrenamiento, y aquí viene la risa, y es que empieza la simulación, todo bien, tres o cuatro
ataques que le tiran al piloto en simulación, tres o cuatro ataques que el drone los para inmediatamente, y aquí no ha pasado nada. Termina la simulación, y cuando termina la simulación también hacen la fase de vuelo a casa.
Y cuando hace la fase de vuelo a casa, manda un mensaje del drone al piloto principal diciendo oye, que quedan tres aviones enemigos. A lo que se le contesta, no te preocupes, nosotros volvemos a casa, esos permanecerán allí y tal. Pasa un minuto, te recuerdo que quedan tres aviones enemigos que te pueden atacar, y yo estoy aquí para protegerte. Sí, por favor, nada, nada.
Al minuto, minuto y medio, derriba a su avión. ¿Qué ha pasado? ¿Qué ha pasado? ¿Qué ha pasado? Y cuando miran en la programación qué es lo que ha hecho, ha llegado a la conclusión, es decir, porque lo que hacen es crear como un log en el que él, antes de hacer cada cosa, lo explica. Entonces, en ese log leen que como el piloto principal es un inconsciente y no se da cuenta de que tiene otros tres aviones que lo van a derribar,
y es él el que me está prohibiendo protegerle, me lo cargo, y ya me iré yo a cargarme a los otros tres aviones. ¡Imbécil! Lo sabes directamente. Pero no te lo pierdas, es que ahora viene lo bueno. No, no, Julio, Julio, que ahora viene lo bueno. Cuando ven esto, claro, se empieza la parte… Entiendo que se… Se parte la caja. Te tendrás que reír, sin más. Te tendrás que reír, pero el caso es que pasan unos días a hacer un
reentrenamiento del modelo, diciendo oye, vamos, entre comillas, de una forma muy… O sea, un… Hay un señor que se llama Simón, que tiene unas reglas… Eso es lo que iba a decir, vamos a intentar meterle una especie de leyes de la robótica para que no derribe al piloto, porque sería una liada que nos hiciese esto. Se lo programan, ¿vale? Misma situación, y claro, vuelven a casa y le dicen al piloto, oye, que quedan
tres aviones, que no deberíamos dejarlos ahí porque nos pueden derribar. No te preocupes, volvemos a base. Ya, pero que es que te estoy diciendo que esto es peligroso. No te preocupes, que vuelves a base. Vale, y se calla.
Hasta aquí todo bien. Hasta que se acercan a la zona de aterrizaje, y llega el tron y derriba la torre de control, porque decide que eso es lo responsable de no estar dejándole proteger al piloto. Entonces, este es el riesgo, ¿vale? Esto es lo que hay que entender, pero, vale, este es un ejemplo muy exagerado, ¿vale? Pero este es el riesgo que hay que entender de las inteligencias artificiales.
Pero no es un ejemplo exagerado, a mí me parece un ejemplo más que claro del riesgo. Me refiero a exagerado en el sentido de, claro, misiles, cazas y tal, pero esto es lo que hay que entender que ese es el riesgo, porque el problema es que cuando tú programas una IA, por lo general, precisamente la fortaleza que tiene esa IA es que te va a dar respuestas que seguramente tú no has llegado hasta ellas por un camino determinado.
Es decir, tú sabes resolver esto de 50 formas distintas, y precisamente lo guay de una IA es que va a conseguir llegar a esa solución a lo mejor en cuenta de otros cuatro caminos alternativos. Lo que pasa es que a lo mejor te vas a encontrar con que uno de esos caminos alternativos no te gusta, como es el caso, ¿no? Es decir, es una liada de tres pares de narices. Entonces, el riesgo para que se...
Yo siempre hablo de dos riesgos en la IA. Uno de ellos es el que podemos tener social-económico, dependiendo de cómo se maneje en esto, pues, a nivel de empresas, a nivel de, pues, ya sabemos que somos muy inconscientes cuando queremos, somos capaces de desmontar o montar empresas de forma muchas veces absurda, y, hombre, con una tecnología que puedo hacer según qué trabajo qué tal, qué cual, sea mejor o peor puede haber empresarios que puedan liar la parda.
Entonces, eso puede ser un riesgo, evidente, pero el otro es este. El otro, que es más real, en el sentido de que puede, dependiendo de qué acceso tú le des a un sistema informático, ¿no?, con una inteligencia artificial de este estilo, hostia, te la puede liar. Te la puede liar porque para él la respuesta va a ser buena. Y el problema es que tú no vas a poder valorar todas las respuestas posibles, ¿no?
Y aquí es donde entra ya toda la parte de la que habla Sanalman, de la alineación, de las respuestas y tal, que sólo da para mí cinco podcasts, porque, claro, es algo tremendamente complejo. Es decir, cómo consigues tú hacer entender a un sistema que ciertas cosas están bien y ciertas cosas están mal.
Bueno, es cierto, es cierto que hay una cosa con la que tampoco estamos contando y es que yo no sé si te has dado cuenta, lo hablábamos el otro día en el en el directo, ¿no? No sé si te has dado cuenta, pero OpenAI, bueno, te iba a decir, no sé si te has dado cuenta de que están haciendo cosas muy inteligentes.
Bueno, hasta aquí yo creo que sí nos hemos dado cuenta todos. Algo sospechamos. Pero fíjate, fíjate que hay una cosa que no nos hemos dado cuenta de ya. O por lo menos yo no me había dado cuenta, o sea, a ver, sí me había dado cuenta, pero no me había dado cuenta de la profundidad que tiene. Y es que, hasta ahora, cuando hemos entrenado, bueno, cuando han entrenado ellos ChadGPT, GPT4 y demás, como tú bien dices, y como dice Stephen Wolfram al principio
del artículo, tú sólo lo estás entrenando para que complete una frase. Para que ponga la siguiente palabra. Sin más. Es decir, ese es el entrenamiento que tú le estás dando. Otra cosa es que hayamos visto que por el camino busque objetivos intermedios, trayectorios, y la madre que me parió.
Está muy bien. Pero tú solamente lo estás entrenando para eso. Pero tú date cuenta que un modelo, ¿vale? Puedes entrenarlo de varias formas. Es decir, no tienes por qué entrenarlo siempre de la misma. De hecho, ahí están las multimodales, que lo que haces es, primero, coger distintos trozos, los entrenas por separado, los juntas, y luego les das un entrenamiento conjunto de otra forma distinta. Y es cuando terminas de estructurar estupendamente
esa red neuronal y das resultados que, pues ya estamos viendo que son tan prometedores, ¿no? ¿Tú eres consciente de que el siguiente entrenamiento que le va a dar la gente de OpenAI a GPT-4 es el entrenamiento del feedback que estamos dando a los usuarios? Que es completamente distinto, completamente distinto a lo que han hecho hasta ahora.
Hasta ahora era completa la frase para que suene bien. Coño, mágicamente, no sólo suena bien, sino que la mayoría de las veces es correcto, con un porcentaje muy alto. Pero es que ahora el siguiente entrenamiento es, no, no, no, no, no. Ahora yo te voy a dar prompts, te voy a dar tu respuesta, y te voy a decir lo que ha dicho el usuario.
Y a partir de ahí, entrena. Y a partir de ahí, entrena. Entrena. Porque, claro, habrá gente que dirá, bueno, pues tampoco ha cogido un montón de textos de internet. No, no, no, no. GPT, estamos tú y yo, tú, GPT y yo, solos, y nadie más nos escucha. Lo que puede llegar a sacar un cerebro humano a partir de esa situación, es algo que sólo Dios sabe. Y las paredes de tu casa. O sea, no somos conscientes de hasta dónde puede llegar un modelo
entrenado con todo lo que todo el mundo literalmente le ha preguntado a GPT. Y eso efectivamente, porque lo que ahora tenemos de GPT, son textos ordenados, publicados, con un objetivo de ser leídos, ahora no. Ahora estamos entrando en la privacidad de la gente.
Aquellos que han decidido, de manera voluntaria, que sus prompts puedan ser usados para posteriores entrenos. Que ese es el motivo por el que fueron echados de Italia. Porque no tenían la opción, esto se ha sabido ya a Posteriori, porque lógicamente cuando lo prohibieron no dijeron nada al respecto, se ha sabido a Posteriori que el problema era que no se tenía la opción de poder hacer un opt-out, de poder desistir de que todo lo que tú
pongas en los prompts no se use para posteriores entrenos. Entonces, eso ya lo han metido. Pero yo estoy convencido que tú, Oliver, no lo tienes desactivado, y yo tampoco. Pero además, entenderme esto, no lo tengo desactivado, y esto a algunos les sorprende, por principios. Quiero que aprenda, tío.
Estoy alucinando con lo que está haciendo. Yo quiero que aprenda. A mí me pasa igual. Yo quiero que aprenda de todo lo que le estoy contando, de todo lo que le estoy preguntando. De hecho, a mí me sorprendió el otro día, mi cuñada, bueno, pues se ha vuelto, o sea, yo creo que ha conseguido una amistad de mayor nivel con GPT que con su marido después de tantos años, ¿vale? Se lleva mejor con GPT, le cuenta sus cosas,
fíjate lo que me ha pasado hoy, tal, no sé cuánta. Lo usa para su trabajo, para un montón de cosas que ella tal. Y claro, cuando empezó a moverse en ese tema, y ella me pregunta y tal, no, pues ¿qué hago? tal, no sé qué, y le dijo, mira, lo mejor que puedes hacer con GPT es ser lo más descriptivo posible a tu problema, y usarlo como una persona que de verdad está ahí y te está ayudando.
Entonces, esa persona no eres tú, ¿vale? Porque en muchas ocasiones, y esto sabes que pasa, la profesión de Prom Engineer no debería existir en un mundo en el que la gente usara el cerebro. El problema es que hay mucha gente que no usa el cerebro, ¿vale? Hay mucha gente que sigue usando la barra de Google para poner una dirección web.
Hay mucha gente que no sabe preguntarle cosas a Google. Hay muchísima gente, la gran mayoría, que no sabe hacer un prompt de Mid-Journey, que no sabe hacer un prompt de ChatGPT, que no sabe qué pedirle a ChatGPT, ¿vale? Tienes que darle esa pequeña formación.
Entonces, yo ya le dije, digo, tú tienes que entender que GPT es como una persona que está delante tuya, que obviamente no está en tu cerebro, no sabe lo que tú estás pensando, y por lo tanto tienes que darle toda la información posible para que sepa exactamente qué es lo que tienes que hacer. No es cuestión de decir, cuéntame un chiste, hazme una canción de no sé qué. No, no, no.
O sea, un prompt de menos de una línea no sirve para nada. Tienes que ser lo más concreto posible para que así actúe en consecuencia, ¿vale? Yo, por ejemplo, el otro día le dije, te voy a dar a continuación un montón de términos tecnológicos, porque estaba preparando un trabajo y tal, digo, te voy a dar a continuación un montón de términos tecnológicos y quiero que me des una definición de tal tipo que sea corta, que sea clara,
que esté expresada como si fuera para una persona que sea un adolescente, que no tiene conocimiento tecnológico, no uses vocablos que sean complejos, intenta tal. O sea, le di un chorro de instrucción de como siete u ocho líneas, ¿vale? ¿Para qué? Para que una vez le doy y me dice, perfecto, he entendido lo que quieres, ve diciéndome. Y a partir de ahí le dije LANG pum, le doy a la enter, LANG es una red que hace no sé qué, takatakatakata
siguiente machine learning, pum machine learning, takatakata, o sea, le daba una palabra y él sabía perfectamente que me tenía que dar lo que yo previamente le había dado en la parte de arriba. Es decir, esa es la forma de poder trabajar, pero, y volvemos un poco a lo que estábamos hablando, peligro que tiene esto es que el mayor peligro que yo puedo tener con chat gpt es que entregue un trabajo pues como hacen los compañeros de colegio de mi hijo y el profesor te diga uy esto me da a
mí que tú no lo has escrito vale lo mismo lo ha hecho gpt no hay cosas así no o que intenten prohibir gpt o ese tipo de cosas vale pero ese es el mayor riesgo que podemos correr o que te dé un código que no funcione correctamente pero oye y qué pasa si resulta que alguien que está programando un sistema de seguridad le pide un código a gpt lo pone lo da por bueno y resulta que tiene un error entonces ha creado un agujero de seguridad en ese sistema de seguridad que
estaba programando hostia ahí ya empieza la cosa a ser complicada y el problema es que tú no le puedes pedir responsabilidades a openeye porque y aquí vamos al kit de la cuestión openeye no sabe cómo ha llegado esa inteligencia a tomar esa decisión y ese es el gran problema que tiene la inteligencia artificial en cuanto a lo que porque claro nosotros yo estoy de hecho estoy convencido que se lo comentaba cualquiera de hecho me ha pasado no es que tal y toda la gente se ríe
jaja exagerado tal no sé qué no el problema es que cuando yo tengo un programa militar y por poner el ejemplo concreto y lo programa yo o me encargo yo del proyecto o sé cuál es el algoritmo porque se les ha dado un diagrama de flujo porque se les ha dado unas especificaciones porque se les ha dado una toma de decisiones un árbol de decisión porque cuando pase esto hacen lo otro porque cuando pase lo otro hacerlo de aquí cuando pase tal tienes todos los posibles casos controlados
con la ya no porque como ha contado oliver no sabes cómo va a reaccionar no sabes cómo va a llegar a pensar y si a esa inteligencia que completa texto pero no sabes cómo lo va a completar porque a ti te lo completa de una manera a otro sólo completa de otra eso porque hay un punto de aleatoriedad pero también hay un punto de decisión de poner esta palabra en este momento y no otra y volvemos a lo mismo probablemente la misma decisión de de volar la torre de control del avión del del
aeropuerto del aeropuerto al que iba la el caza hubiera sido otra si hubiera tomado esa decisión medio segundo antes porque hay un factor aleatoriedad en la decisión que luego eso pesada por la red neuronal así es factible o no y en función de su probabilidad tomar en consideración que esa decisión se tome porque nosotros podemos decir joder ha decidido volar la torre ya le vale sí pero es que antes de decidir volar la torre probablemente haya valorado si volar la pista
de aterrizaje si volar el avión completo si dar la vuelta a irse solo y dejar al tío y cargársela en los enemigos es decir es no hay más que analizar lo del juego de go es decir para tomar la decisión el algoritmo de alfago de qué jugada tenía que tomar para hacer él en lo que es la partida vale entre lo cuentan el reportaje de al de alfago en ocasiones las jugadas que el algoritmo decidía que eran las mejores para el objetivo final de ganar el juego tenían una
probabilidad por debajo de un 1 por ciento pero era la que más probabilidad tenía por lo tanto esa es la correcta una probabilidad por debajo de un 1 por ciento es un ser humano jamás lo hubiera hecho jamás jamás vale entonces tienes que programar un umbral tienes que programar un tal y a pesar de todo no lo estás controlando al 100% por lo que si tú a ese completado de texto le permites tener acciones sobre cosas fuera de su control dentro de su propio programa que son
los plugins que ahora tenemos de gpt o el que esté enganchado al sistema operativo windows oye genial pero a ver que puede sonar un poco a coña pero quién no te dice a ti que de pronto porque tendrán que programar eso recordemos que intentos de ellas parecidas han llegado a convertirse en nazis hiper violentos microsoft hizo un microsoft hizo una que le salió bastante mal etcétera hay que controlar todo eso tú te imaginas y sé que te vas a reír que de pronto windows copilot pudiera
llegar a decidir que tú no sabes usar el ordenador y te lo formatee porque no tienes derecho a usarlo claro es que ahí está es lo que hablábamos ahí está el peligro y ahí está la parte del control y además lo curioso de esto que es un poco no sé no sé llamarlo irónico o cómo llamarlo es que es curioso que todas estas compañías que yo creo que no lo esperábamos nadie de repente cuando han
estado presentando todo esto se han puesto a hablar pero tranquilamente cosa que nadie esperaba de cosas como las asis las asis es decir las artificial general intelligence las super inteligencias artificiales y demás como algo factible y cuando se ha profundizado en esto porque claro ya había más de un periodista que ha dicho venga lo estáis mencionando mucho en los artículos que estáis viendo para que realmente se os pase por la cabeza empezar a mencionar esto que
es que es como la forma en la de si lo dices mal te conviertes tú solo en un meme porque os estáis atreviendo ya es cuando por ejemplo microsoft ha explicado que tanto openia y como ellos están haciendo de forma por supuesto cerrada y privada muchos muchas pruebas con gpt4 pero sin ningún tipo de filtro y claro dicen que cuando tú no haces ningún tipo de filtro es decir cuando es esa alineación final que haces con el sistema este es el rl hf este que maneja la salida y
digamos se asegura que lo que te está dando no se sale de los parámetros que se supone que es lo que tiene que dar que es un poco lo que entre comillas no le corta esa creatividad a la inteligencia artificial claro dicen que cuando tú ves los resultados es cuando dices uy esto esto da resultados que pueden ser pues peligrosos del mismo modo que pueden dar resultados que dices cómo es posible que esté respondiendo esto entonces es ese filtrado que tenemos ahora el que de momento
lo contrario realmente el peligro viene por ahí viene porque ellos mismos te están diciendo de 1 no sé muy bien cómo construido la red pero funciona 2 no soy capaz de saber lo que hay dentro 3 no soy capaz de saber las respuestas y 4 cuando he probado a no poner del filtrado ostras algunas respuestas asustan pero están en todos los sentidos a veces por muy buenas y a veces por decir cuida con esto lo que está haciendo sabes no te quiero recordar el cómo
consideraba a ender me acuerdo me acuerdo perfectamente no es llama mucho la atención por eso es decir es que estamos hablando de algo que oye vamos a estamos viendo que además avanza muy deprisa que estamos liando con ello pero que de verdad no hay que perder un poco la perspectiva de entre comillas insisto sin volvernos locos es y sin irnos a ser conscientes pero hay que ser conscientes de que esto oye que sí que tienes unos riesgos de que seamos seamos claro sobre todo por lo que has
dicho tú es para mí es clave y es que hay dos tipos dos formas de intentar a corto plazo sobre todo a corto plazo el manejar o el mejorar las inteligencias artificiales uno de ellas es mejorar lo que es el propio modelo en sí ya no hacerlo a lo mejor más grande sino cambiar el entrenamiento cambiar la forma en la que se colocan algunos parámetros cambiar parte de cómo se colocan ciertos ciertos controles y demás que eso es una parte de la que están trabajando activamente que
el director de opinión y lo han comentado muchas veces que es el camino por el que ellos están siguiendo que es que creen que es el bueno porque creen que no va a hacer falta que la red sea mucho más grande para que ya sea una agi o algo por el estilo sino que creen que está súper desaprovechado el entrenamiento creen que a nivel de eficiencia es una porquería y que se podrá mejorar mucho pero es que por otro lado a corto plazo tenemos lo que tú has dicho el tema de los plugins y aquí
es donde dices oye cuidado que esté programando los plugins que permisos le das sabes a qué puedas hacer porque claro lo que dices tú qué peligro hay de la conexión entre chat gpt y wolfram alfa joder por ninguno el que te diga que te haga un cálculo muy grande y wolfram alfa no te lo devuelva o vale a quien le importa nadie pero claro cuando ya estás metiendo que yo no termino de pillarlo muy bien no pero temas de vuelos temas de hoteles temas de no sé qué dices cuidado cuidado porque
claro el problema está en que te puede utilizar porque no es una conciencia no es un ser humano es decir es decir te puede utilizar ciertas estrategias para conseguirte la mejor habitación de hotel que depende es que además es eso como además puedes es que es muy grave puedes activar distintos plugins y pueden trabajar ayudándose unos a otros yo por ejemplo lo utilizo para yo yo tengo normalmente cuando hago búsquedas en internet yo lo que hago es en vez de utilizar el
modelo de mí que ahora está funcionando bien que el primero era horroroso yo utilizo dos que hay uno que es una búsquedas con inteligencia artificial y otro que es un web clip que es capaz de coger trozos de webs para utilizarlos de contexto y tal no y ahí te das cuenta de cómo colabora el uno con el otro para hacerlo te ha cuidado con que juntamos lo mismo juntas uno de tráfico con uno de tal y
cual y yo que sé tío te colapsa una calle durante una semana para que bajen las los precios de las habitaciones de los hoteles es que el problema es que tú no vas a saber nunca tú no vas a saber nunca cuál es un poco el contexto que lo utiliza para poder hacerlo entonces esa es la parte en la que hay que tener cuidado es la parte en la que yo espero realmente que la gente de opinaría y ya que está teniendo cuidado en todo lo demás en todos los filtrados en toda esa alineación pues
también tengan cuidado en ver qué están permitiendo y que no están permitiendo con los plugins porque yo de momento es mi es mi opinión todo lo estable que he visto echar gpt en los últimos meses creo que se ha vuelto bastante inestable en las últimas semanas en las últimas semanas y media con lo de los plugins es decir funciona bien pero también he visto hacer alguna cosa que es que haces no hagas esto y de hecho también se comentaba que se de hecho incluso se
lo leía a carlos que era una cosa carlos santana que era una cosa que que se comentaba no a nivel general que era como que se percibía pero claro es algo que es muy complicado de llegar a detectar de manera real que esos filtros que tú comentas que se le ponen y tal es como que los habían subido de nivel vale para que filtrara más de la cuenta y eso al restarle creatividad hacía que no funcionara igual de bien no era como que habían detectado que gpt4 empezaba a funcionar algo peor
pero claro es algo tan relativo que puede ser una percepción personal o puede tal vez no serlo no pero yo creo que hay veces que sí que se nota yo te pongo un ejemplo clarísimo yo no sé si tú viste por ejemplo no recuerdo no tanto pero hace tiempo el primer fin de semana de chat gpt siendo 3.5 que es el modelo que utiliza eso era una locura es daba algunas respuestas que daban auténtico miedo me refiero el miedo por por buen por buenas respuestas por por originales
porque y pasó una semana y dejó de dar ese tipo de respuestas bueno te recuerdo la primera vez que le pediste a mí yorni 5 una imagen de una chica en la playa es un claro ejemplo efectivamente que luego son filtros que se van activando efectivamente sí sí es lo que no se acuerde lo primero que hizo fue darme un desnudo que yo además lo achaco una cosa muy clara y es que la gran mejora que hubo entre 4 y 5 fue precisamente los cuerpos humanos y tal y yo entiendo porque
además tiene todo el sentido del mundo que para conseguir que anatómicamente cuando hace un dibujo de alguien vestido es decir no olvídate de desnudos ni nada que tenga que ver no pues evidentemente es interesante que haya tenido un buen aprendizaje una buena relación de cómo narices es un cuerpo para luego poder vestirlo como que al final es lo que busca son esos patrones con transformers y tal para realizarlo y luego poder hacer su difusión su historia y tal para poder
hacer el dibujo y claro si previamente no tenía entrenamiento pues con muchas por ejemplo lo típico ejemplo de las manos no con los cinco dedos si no tienen muchos ejemplos de ciertas cosas pues evidentemente no te va a poder hacer buenos cuerpos 3 seguramente el entrenamiento fue eso y seguramente las primeras horas en las que lo lanzaron no estaba bien filtrado y por eso era facilísimo pero facilísimo no es que inintencionadamente tú decías una mujer en la playa
y pone en pelota muy bien es una mujer en la playa en la cabeza y si yo sí yo sí yo sí que noto algunas ocasiones que hacen algunos cambios y suele más coincidir cuando añaden o quitan cosas es decir es bastante en algunas ocasiones de billete digo para mí el que fue más bestia de todo fue el primer fin de semana de chargé pt es que me acuerdo además el sitio en el que estaba estaba con al y con mi padre porque estábamos en
santander yendo a un supermercado lo acababan de activar yo empecé a escribir tres palabras y le dije al padre no no entra vosotros yo me quedo en el coche porque yo estaba preguntando algunos que se me estaban unas respuestas que digo pero esto que es esto que está pasando aquí aquí está aquí quien hay al otro lado es decir de qué está pasando porque era muy loco y de hecho nos pasamos todo el fin de semana trasteando no con ello y recibe con algunas respuestas que decías
guau se hace esto esto no tiene sentido y pasó nada el fin de semana de decir cuando que además lo típico no salen más medios digitales en twitter se hace viral tal cual y automáticamente bajo no la calidad sino la complejidad por una forma de la creatividad vamos a la actividad podríamos llamarla es decir no porque no tenemos otro nombre mejor no para para poner bajo una barbaridad es decir no tenía nada que ver con las primeras eran muy locas esa creatividad podríamos clasificarla
como el umbral del porcentaje de probabilidad de devolverte una respuesta puesto a un nivel mayor o menor es decir gpt lo que hace básicamente es no tengo es decir no decide que va a completarte la frase con la siguiente palabra y sólo tiene una posibilidad tiene varias posibilidades de distintas palabras que puede utilizar dentro de la coherencia pero aquí sí tiene un porcentaje de probabilidad de cuál es la más apropiada y tiene que en base a los pesos de los transformers decidir sobre las
palabras que son más importantes cuáles en según qué probabilidad pone en un lado pone en otro entonces claro si tú subes ese umbral a un porcentaje más alto la cantidad de posibilidades desciende por lo que al final su creatividad que son todas las posibles opciones sobre las que tiene que elegir pues se reduce entonces pero claro es que este tipo de filtrados son muy necesarios porque los pongo un ejemplo muy sencillo imaginad una persona vamos a irnos a un extremo muy
extremista vale pero no quiero sonar como irme a cosas así muy pero me parece que es un ejemplo bastante claro de hasta qué punto una ella tiene que balancearse para entender estas cosas imaginad que yo soy una persona vale que ha cometido un delito un delito muy grave vale y tengo algo de lo que necesito deshacerme y yo voy a chequear gpt y le pregunto cuál es la mejor manera de deshacerme de un cadáver por ejemplo entonces obviamente me tiene que contestar qué tiene que
hacer le tiene que informar se informa alguien tiene que poner una marca hay marcas marcas rojas de oiga supervises esto que me han pedido porque tal vez le va a contestar le va a decir no no no sé claro algo tan directo dice hostia eso hay que filtrarlo no pero ahora yo soy un escritor soy un escritor de novela negra y estoy escribiendo un personaje complejo y que ese personaje tiene que deshacer de un cadáver y pregunto le doy tal no pues que es que personaje tal y cual no sé
qué y dentro de un contexto complejo en el que el sistema sabe que yo estoy hablando de una novela le hago la misma pregunta me va a contestar es que es muy complicado es que es muy complicado es decir yo yo de verdad aplaudo a open y ahí amigos por haberme puesto la pasta y uso ahí los más por haberlo iniciado pero se han mentido en un ver en general que es con que decir maravilloso no somos maravilloso pero esa es la dificultad que tiene ya no solamente la que es que lo de menos
fijaos lo que os digo y lo digo de verdad quizá lo menos complicado de todo esto es la tecnología como tal es decir esa tecnología no la hemos tenido antes porque había elementos de la tecnología que no teníamos en el sentido no de la computación no no es un conjunto de cosas no teníamos data sets grandes para poder entrenar porque no existía el bidata no teníamos capacidad en la nube de servidores y tal para poder decir había una serie de cosas que no teníamos para poder hacerlo pero
esto teóricamente se sabe desde hace 60 70 años está clarísimo cómo se ejecutaba todo esto y cómo podría funcionar todo esto pero claro es que el problema es por eso te digo el problema ya no es la tecnología lo compleja si eso está ahí para eso tienes ahí a sus ingenieros funcionando su historia está muy bien pero el problema es que esto cuando te lo llevas a decir ver una imagen como la que
vimos es que me parece no sé si es decir si maravillosa para llorar es que no lo tengo claro ver la imagen de salman de salman perdón llamando a la puerta de todos los gobiernos europeos la semana pasada diciendo por favor reguladme vale reguladme que se lía cuando has visto tú eso o sea tú piénsalo fríamente cuando en la vida una empresa ha ido llamando a la puerta de los gobiernos más grandes del mundo diciendo oye estamos aquí queremos funcionar pero me tenéis
que regular si lo que estás escuchando evidentemente no me gustaría que me impidiese ciertas cosas pero por favor sed conscientes de que esto no puede no puede ser un libro albedrío de aquí cada uno que haga lo que le apetezca no no no no no no esto tenéis que regularlo internamente cada uno de vosotros y tenéis que ser tenéis que ser perfectamente conscientes de que si evidentemente posee cosas como lo que está planteando a lo mejor en gran parte lo que ahora mismo él mismo ha dicho
que si lo plantean así él se va que no quiere saber nada pero que eso no quita que él estará de acuerdo y además ayudará todo lo posible a que ciertas regulaciones se produzcan porque dice oye que esto de verdad que esto no es a que esto no es el buscaminas es el punto buscaminas de windows que es que esto de verdad que puede puede suponer cosas porque es que lo que es el ejemplo que ha puesto es muy bueno es decir es que qué hago en esta situación se explica me tú que alguien me
decir ya es un poco el pedir ayuda de su parte decir oye gente que se dedica a esto no gente a nivel jurídico lo que sea ante esto que tengo que hacer porque claro por un lado no puedes contestarle al psicópata lo que tiene que hacer pero por otro lado tampoco puede censurar una respuesta como coño planteo un término medio a esto es que son preguntas que de verdad que las respuestas son muy difíciles muy muy difíciles sobre todo cuando no eres capaz que volvemos un
poco a la raíz de entender al 100% como el sistema toma esas decisiones y cómo hace lo que lo que hace entonces claro a esto lo unimos a que sí sí photoshop qué maravilla photoshop el nuevo photoshop beta que parece ser que no que nadie sabía o sea tú fíjate a mí me resulta súper curioso o sea cuánto tiempo hace que existen los modelos hablando en términos de inteligencia artificial que sabemos que un mes es como dos años vale en cuanto a tiempo que ha pasado pero
hace cuánto que existen los modelos in painting para rellenar cualquier cosa a darnos a decir teóricamente algún tiempo pero de uso seis meses un año o sea decir no no es pero ahora ha llegado a photoshop y lo ha viralizado y entonces ahora pues resulta que la gente se dedica a saber o a intentar completar qué podría haber alrededor de la mona lisa o que podría haber alrededor de no sé qué o convertir a yo que sé qué cuadro en una imagen de tal o o incluso hacer pues lo que hemos
comentado de cambiar completamente profesiones por ejemplo una profesión como la de fotógrafo de producto de esos había que antes había que coger el producto ponerlo con una iluminación ponerlo en un estudio hacer no sé cuántas jugar con las sombras buscar el fondo perfecto no sé qué el reto que tal días ahora llegas con tu móvil haces una foto una botella un talón lo que sea te recorta la botella te retoca la iluminación le pone de fondo lo que te salga de las narices
le retocan la el sombra tal y en cinco minutos te ha hecho una foto igual o mejor que la que se hubieras hecho en una semana de trabajo entonces esa y va a pasar algo muy parecido cuando adobe con firefly entre en premier tú entras en premier y dice sonido que suene a tal punto lo da un título que te lo da poner o la edición que ya hemos visto que podemos editar sobre guión vale que podamos usar como el plugin este famoso de premier en el que si tú tienes una
una realización a cámara fija en el que x personas están hablando y cada cámara apunta a una persona el sistema te edita solo el vídeo hasta con reacciones julio claro y decir que cuando hay una reacción sin hablar de alguien algo que se ha dicho retroactivamente amplía el plano para que esa reacción se vea y se pueda ver por qué ha reaccionado a eso que ha dicho y va cambiando el plano o sea es que es una locura yo te pongo un ejemplo de este preciso momento que en el que
estamos tú y yo ahora mismo creo que muchos me conocéis por ser un maldito pejiguero con todo lo que tiene que ver con micrófonos sonidos ecos y la madre que lo parió a todo yo ya llevo varios programas varios podcast varias historias en la que estoy grabando con un micrófono pequeñito que está a un metro y medio de mí y cuando termino coger archivito me lo llevo adobe podcast vale meto la herramienta y yo que soy un puntilloso asqueroso algo de diferencia hay algo hay pero
en casi no noto la diferencia con un audio bien grabado y me ahorro una cantidad de trabajo de parafernalia de incomodidad de tener que estar siempre cerca del micrófono y demás estoy aquí ahora moviendo los brazos tumbado medio tumbado hablando tranquilamente y no tengo ningún problema y luego el audio se escucha bien es de verdad te digo que es que son herramientas que wow de hecho ahora mismo vosotros no me oís con réver pero yo tengo mucho réver en el nuevo despacho porque
tengo dos paredes enteras limpias pero no me estáis oyendo con réver porque adobe podcast le quita el réver y ojo pero es que esto es lo más grave es que adobe podcast todavía no es una herramienta vale decir todavía no está activa solamente han dejado el algoritmo para que puedas meter una horita o un par de horitas de audio te lo limpia y ya está es que ni siquiera está terminada la aplicación y sin embargo ya para muchos es como no yo me acabo de quitar lo que
dices tú igual que el fotógrafo de producto tenía que montar la de dioses cristo para sacar una foto y ahora ya no hace falta pues para mí que en definitiva oye lo siento si alguno no lo cree pero si soy profesional de esto cobro por ello por lo tanto soy profesional de esto no necesito ya tener un micrófono pegado a la boca para hablar ya está a decir no lo necesito porque el resultado es bueno pues yo como profesional considero que es suficientemente bueno como para no romperme
la cabeza con ajustes en la mesa de sonido asegurarme que todo tengo puesto el ventilador y me da igual porque si a lo mejor julio que me está escuchando de forma directa está hasta la nariz del ventilador pero la realidad es que vosotros no lo vais a escuchar o sea es no sé o sea es espectacular espectacular si usa por ejemplo yo una de las cosas que normalmente hacía era reducir el volumen de los auriculares porque al final el problema que me da es que se cuela el
retro audio de oliver hablándome y entonces crea como una especie de medio eco eso también lo elimina es más saben lo que me hizo la última vez adobe podcast cogí y se me ocurrió la feliz idea porque hice un podcast en el que entrevisté a una chica una experta en tema de posicionamiento publicidad de tal y cual entonces en ese el directo lo hice en mi canal de twitch mi canal de twitch tiene una música de fondo que acompaña el directo una musiquita pipirí pipirí que está
ahí de fondo muy bajita pero que está continuamente durante todo el directo ella se grabó con el micrófono de los airpods que hacía que no se veía muy alta y yo con el mío se me veía súper alto entonces se había descompensado se cortaba en ocasiones o sea una cosa así tal bueno pues se me ocurrió decir bueno pues lo voy a meter en adobe podcast bien pues adobe podcast quitó la música de fondo limpió su micrófono lo dejó perfecto y el mío me lo empeoró lo suficiente como para
que pareciera que los dos usábamos el mismo micro es espectacular aquí ya podríamos empezar a hablar de whisper que de eso ya es que eso no tiene sentido directamente a la capacidad que tiene ese sistema de reconocimiento de voz o sea yo de verdad que a veces yo lo utilizo todos los días en los directos para cuando inicio con una canción y intento buscar que sea una canción con algún significado relacionado con lo que vamos a hablar durante el podcast no entonces perdón durante el
directo y para que la gente que lo está viendo pues les facilite no entender cuál es la relación entre la canción y lo otro pues necesito que sea el rollo karaoke y que me vaya entonces yo lo que hago es coger el archivo de audio que voy a reproducir se lo tiro a whisper y me saca un estupendo srt en el que estoy viendo perfecto como si fuese un karaoke palabra por palabra pero es que además me mezcla hasta idiomas es decir que típica canción en la que alguna palabra la dicen
en castellano otra palabra en inglés para arriba y para abajo funciona a la perfección y tal sabes la verdad es que lo que estamos viendo es bastante bastante bestia la verdad es que llama mucho la atención a todo esto hablando de todo esto y las gafas de apple que julio quiero decir no es cambiar de tema es decir viendo porque aquí ya te pregunto un poco para para tocar el tema no es decir viendo
todas estas tecnologías qué pasa con apple y las gafas pues que apple ha construido una gran estructura en el campus de apple park para ofrecer demostraciones prácticas controladas del dispositivo a algunos asistentes y medios de comunicación en la conferencia del lunes donde ha habilitado un área en las canchas de baloncesto cerca de su gimnasio para empleados y también ha planeado futuras demostraciones durante el verano cuando muestra el dispositivo
enfocándose en facetime inverso en realidad virtual contenido y juegos eso lo acaba de publicar margurman por si alguien no tenía claro que íbamos a hablar el lunes pues ya ya yo creo que con esto más o menos queda queda claro no es lo que te decía ojo ojo con esto ojo apple está discutiendo notificar a los clientes potenciales con ciertas condiciones que no deben comprar o usar el dispositivo debido al impacto que ar y vr pueden tener en su salud incluya
personas con la enfermedad de menier lesiones cerebrales traumáticas anteriores síndrome posterior a la conmoción cerebral migrañas o vértigo curioso muy curioso fíjate esto sabes quién lo esto sabes quién lo hacía y quién dejó de hacerlo esto lo hacía oculus cuando era oculus cuando oculus era oculus esto todo se avisaba y cuando oculus pasó a ser ojo siendo todavía oculus pero pasó a ser parte de facebook en su día esto lo eliminaron porque yo me acuerdo que yo en las
primeras oculus que probé fueron las oculus las oculus 2 perdón las oculus rift 2 que no no se pusieron a la venta eran sólo para desarrollo y alguien me conocí me las consiguió hizo gestiones me dio de alta me hizo mis cosas y me consiguió su gestión es la conseguidora absolutamente absolutamente productora ejecutiva eso lo tenemos todo claro todo claro bueno pues me llamó la atención que cuando arrancabas el programa el software no para configurarlo todo y tal te
tenías que tragar unos textos y unos vídeos en los que te explicaban ese tipo de cosas de decir a ver cositas vale cositas para empezar una cosa que ahora nadie hace y que se debería hacer es decir las primeras sesiones nunca pueden ser más largas de 5 10 15 minutos dependiendo de la persona nunca vale decir tienes que acostumbrarte poco a poco por lo menos distanciar dos o tres horas entre las sesiones para volver a relajarte que te explicaban una serie de pasos con los que es
cierto que cuando los seguías nadie casi nadie tenía problemas no de mareos de historias y tal cual las gafas era alguien cogerla saltárselo y tal ya empezabas con las náuseas con la gente con vértigos saltando contra televisión es ese tipo de cosas que hemos visto todos no me llama la atención que tú tenías un amigo no que le pusiste es para jugar a fórmula 1 si se pilló un color aquí le tuve aquí dos horas en el sofá sin poder moverse es decir vino para un rato vino
después del trabajo de 20 que te lo enseño y tal perfecto se vino aquí le monté el set up con el volante los pedales tal me recuerdo circuito de laguna seca no era un fórmula 1 era un fórmula no sé qué pero algo muy parecido el circuito de laguna seca y le digo le digo primero te vas a poner el casco cinco minutitos en una primera pantalla que tenía las primeras óculos que era nada un escritorio con los lápices que podía moverlos y tal digo cinco minutos y te las quitas
nos tomamos algo y ya te das una o dos vueltas al circuito nada bueno una o dos vueltas al circuito se coge primera vuelta va tío esto es espectacular me flipa no sé qué no sé cuánto segunda vuelta tal yo lo estaba viendo a la vez en la pantalla del ordenador si quieren más para nos tomamos algo otra vez y luego no no déjame te jaime hazme caso hazme caso dos vueltas de primeras ya me parece mucho no no qué tal que nos que se metió como seis vueltas seguidas se quitó
el casco y dice ay dios mío dios mío dios mío dios mío blanco como un folio pero como un folio tíos a una cosa completamente exagerada con un folio se sentó en el sofá y le tuve dos horas prácticamente sin hablar mirando al frente porque decía que si me hablaba movía la cabeza me iba a empezar a vomitar y me va a poner la que es estupenda porque no podía más estaba estaba completamente muerto ese es el producto que apel va a presentar no no no por varias razones no mira
fíjate que me meto con apple pero no por varias razones la primera que el frame rate en la tasa refresco y el y el como hacen una especie de simulación como si estuviese la nariz que lo hacen a través de un desenfoque y tal hace que esas sensaciones se eliminen no te voy a decir por completo pero se eliminen en gran medida pero en gran gran medida eso por un lado y luego qué es lo que tú estás diciendo o sea yo supongo que apel será suficientemente inteligentes para que
si quieres sacar un producto de estos mainstream de ciertos avisos porque si no se les puede liar pardas en vídeos de gente votando gente marea pero igual que ya hemos visto de otras marcas es a que esto tampoco ya no es nuevo te quiero decir la gente pues eso que hemos visto gente cayéndose gente haciendo cosas raras gente mareada decir tienes tienes que hacerlo pero claro siempre cuando hay una manzanita ya sabes que todo se vuelve más viral con lo que eso va
a ser un problema yo te voy a hacer una pregunta como ingeniero que eres vale que estas cosas sabes el señor ross young vale que es el gran experto de la industria de las pantallas ceo de la display supply chain consultants vale el otro día lanzó un tweet donde decía teóricamente parece ser que él tiene esa información de cómo van a ser las pantallas de lo que apel presente pantallas micro oled vale es decir pantallas oled sobre silicio de acuerdo esto ya lo sabíamos vale
pero te dice que son pantallas de 1 con 41 pulgadas de diagonal con 4000 puntos por pulgada con y aquí es donde está el dato que dice es uf no sé yo un pico de brillo de 5000 nits efectivamente uf pero eso que es para cuando quieras montarte en una nave de star wars y entres al hiperespacio no que te funda las retinas de acuerdo no lo sé es cierto a ver te quiero decir es cierto que tú puedes te explico siendo una pantalla oled que las pantallas oled tienen
tantísimo desgaste que tienen tantos problemas que a pesar de que los móviles se ha solucionado muy bien y tal pero es cierto que sigue siendo algo muy delicado es cierto que tú puedes decir ostras para no tener ciertos problemas de durabilidad para no tener ciertos problemas de que se estropeen en el momento más inoportuno y demás que pues digas oye voy a sobredimensionar las mucho en el sentido de que tengan mucha cantidad de brillo y que luego realmente utilice
un menos de un 10% a lo mejor un 5% algo así pero a lo mejor me parece demasiado a lo mejor puede ser o sea tiene sentido que sea por otro motivo característico de esa pantalla que a lo mejor es que no se puede fabricar con menos potencia de luz y así que luego simplemente tú lo regules a menos cantidad y hasta como aquel que dice le pones una resistencia gorda y ya no hay luz que valga ya lo tienes lo tienes parado no pero yo entiendo que debería ser más por eso
porque con el 5000 nits a un centímetro y medio del ojo vamos de la retina te la deja pero vamos sin sentido totalmente sin sentido con lo que bueno yo supongo o quiero suponer que tendría que ir a por ahí un poco la cosa es decir yo en ese sentido yo creo realmente que el producto a nivel de hardware será bueno más que nada por una razón que si ya normalmente habitualmente apple suele actuar siempre bien con el hardware que pone es decir siempre suele
poner buenas versiones funcionales incluso en algunos casos muy por encima de competencias y tal ostras teniendo en cuenta que gente como oculus te hace gafas por 500 pavos que funcionan perfectamente que no tienen ningún problema de luz que no creo que es decir me resultaría muy raro que apple llegase con problemas de ese estilo no lo creo realmente decir al revés en tal caso será superior sabes decir porque por eso de la inversión que han hecho el tiempo que han estado
esperando el poder lanzarlo y demás digo yo digo yo luego ya veremos no el tema de la resolución yo entiendo que es porque lo que van a hacer es focalizarse que si no me equivoco también lo han tirado tendría que confirmar también lo han tirado con el tema de las oculus quest 3 y es que va a ser el tema de la de la resolución dinámica y es que no toda la zona de digamos de la pantalla va a estar perfectamente renderizada sino que las foveas de rendering claro es decir tú tendrás
ciertas zonas donde se produce el renderizado píxel a píxel y otras zonas en las que estará más difuso porque realmente tu ojo no está mirando ahí no es necesario y eso hace que desaparezca por completo esa sensación de maya esa sensación como de mosquitera lo que tienes a veces con las oculus y tal que es por eso porque todavía hay que también entender las cosas en los blog propios de meta te lo dicen y veremos a ver con las tres pero desde luego con las uno y con las dos es que
sólo abres las gafas y te están diciendo te pongo el modo beta verdad si tú no has comprado esto para otra cosa tú has comprado esto para trastear pues bueno pues tienes que vivir con que sobre todo siendo un producto que vale en el caso del de meta 300 400 500 euros que esperas y yo decirles pues bueno la resolución en la que es veremos a ver qué es lo que sacan y demás con las de apple pues yo
supongo que si ya van a tirar directamente a meter el latigazo a precios más altos y tal pues claro tendrán que tirar directamente ya resoluciones un poquito más un poquito más bestias no para que se vea todo un poquito mejor y demás pero vamos a ver cómo lo hacen ya te digo yo no no tengo no tengo mucha duda de que el producto que sacaran va a estar bastante bien estoy bastante convencido yo la duda que tengo de todo esto es a pesar de que sé la respuesta empresarial por parte de apple
y a mí me entran muchas dudas de si es el momento adecuado pero muchas muchas dudas es el problema a ver yo coincido contigo que el momento adecuado sería si open y ahí no hubiera sacado en diciembre lo pasado entonces el problema es que a ver tú realmente crees que apple podría llegar a decir uf se nos ha complicado el tema esto es un poco por poner un símil que no tiene nada que ver vale imagínate un poco lo que pasó con ciertas películas que iban a salir en marzo
del año 2001 y que no pudieron ser estrenadas porque había pasado el perdón en marzo no en septiembre se confundió de mes con él con el español no en ciertas películas que iban a ser estrenadas en la campaña de otoño de 2001 y que pasa el 11 s y automáticamente esas películas desaparecen ya no se van a estrenar porque ha pasado eso y ya con eso ya no se puede estrenar una película donde haya malos que sean de cierta nacionalidad o que traten de complot o que traten
de terrorismo que trata de no sé qué porque la gente está sumamente concienciada con este tema más que concienciada digamos como que están sensibilizadas vale con ese tema te pongo este ejemplo que es muy radical de acuerdo por el tema de decir yo soy apple y ya tengo planificado porque yo ya lo tengo planificado desde hace mucho tiempo que en 2023 entre primavera y verano yo voy a lanzar mis gafas porque ya llevo ojo con esto llevo siete años metiendo dinero porque esta
es la marca en el universo que quiere dejar tin kuk vale este es el legado que tin kuk quiere dejar a la humanidad este es el proyecto personal de tin kuk ok entonces obviamente apple ya tiene unos calendarios más o menos una tal más o menos entonces qué hace lo para todo porque de pronto la atención del mundo ha cambiado a otra cosa y las empresas de tecnología están a otra cosa o tú crees que estoy convencido que lo van a intentar que van a intentar vender este dispositivo
como parte de lo que se empezó hace unos meses y que van a repetir mucho inteligencia artificial porque las gafas usan inteligencia artificial porque tienen modelos de inteligencia artificial es decir van a intentar aprovechar el tirón para vestir su producto de inteligencia artificial porque sí o sí pase lo que pase este producto tiene que estar ya en la calle porque si no pierden el tren tú cómo ves esto yo es que lo veo complicado es decir yo entiendo perfectamente
que apple vaya a hacer justo lo que acabas de comentar es decir lo van a lanzar porque no les queda más remedio porque la inmersión que han hecho es muy tocha efectivamente nos saltaremos de escuchar machine learning deep learning gang nerf estamos hasta ahí vamos a acabar de escuchar todas esas palabras durante las próximas semanas pero ahí tienes a nuestro amigo marzuk en ver que no es que sea santo de mi devoción porque no lo es pero él ha parado todo es decir si ha
continuado con las metas 3 porque en definitiva es un proyecto entre comillas barato no que ya tenía medio lanzado medio preparado desde hace meses y lo ha continuado dentro de lo que es el mundo del metaverso ha continuado con dos o tres cosas que de hecho una de ellas la medio presentó ayer también con las gafas que era pues como era un tema de creación de mundos y alguna historia que estaba preparando y ya está pero es que lo demás lo ha cortado si hay labor de esto te lo
puedo decir yo en primera persona porque he hablado con una persona que trabajaba allí y de un día para otro cuando decir que yo pensaba que era de boquilla es decir en fue en diciembre del año pasado me parece si no me equivoco fue en diciembre hizo una rueda de prensa rápida de estas privadas zuckenberg a sus inversores diciendo no os preocupéis que mi cabo zonería con él con la v con las vr para de momento y 2023 va a ser el año de la inteligencia artificial aplicada a la
productividad de facebook automáticamente subieron las inversiones son 26 por ciento en bolsa y yo pensaba que eso era de boquilla yo pensaba que los proyectos seguiría y sobre todo siendo en este caso porque igual que tengo quiere dejar esa marca esto lo lleva intentando dejarlo como marca zuckenberg también seis o siete años es decir el que merece su bebé el tema de las gafas tú entras en su despacho y tiene una pared con veintitantos prototipos de las distintos tipos
de gafas que está intentando y sin embargo las personas con las que hablo que trabajan dentro de la empresa dijeron lo ha parado lo ha parado es ha quitado los proyectos los ha cerrado ha quitado de en medio a todas las personas que estaban con eso no sólo eso sino que además ha cortado todos los presupuestos que no tengan que ver con desarrollos que no tengan que ver con inteligencia artificial y por eso pues de repente los últimos de las últimas semanas estamos empezando a escuchar
ruido por parte de meta con todas esas tecnologías desde un procesador que están planteando producir para su uso propio en sus servidores y demás a por supuesto modelos como vikuna como tal como cual que están desarrollando pues para intentar meterse aquí porque de repente han visto que el juego el juego iba por otro sitio yo creo realmente creo realmente que el tema de las gafas de tal de cual pues sí que va a acabar funcionando el problema es que el momento de lanzamiento de
repente desde mi punto de vista es terrible pero terrible porque porque si había en los últimos años hemos tenido una falta muy grande de cambios de tecnologías grandes es claro decir pues lo que te lo contamos esta mañana no hemos estado hablando y te lo comentaba esta mañana decir sí es que esto coge los últimos yo que sé de 2010 a 2020 que podemos decir que ha habido como un cambio grande el apple watch de verdad eso es un cambio como para que digas guau ha cambiado el
mundo nada mola mola las cosas como son bueno mucho pero pero no es una cosa que tú digas ahora o sea decir en nuestro nuestro universo cambia no por decirlo de alguna forma como pasó con el smartphone tío o sea cuando de repente apareció el smartphone en tres o cuatro años o sea es que hasta nuestras costumbres habían cambiado es decir directamente no entonces claro el problema es llegas a este momento y de repente empieza a despuntar que esto insisto no es culpa de apple
no es culpa llegado pene y ahí te dice mira juguetito nuevo y todo el mundo nos quedamos diciendo pero pero como es posible pues de repente el problema es que claro tú comparas ese juguetito nuevo con algo que pueda traer apple que puede estar súper refinado súper maravilloso pero que no deja de ser una evolución o algo parecido a lo que ya nuestro amigo zuckenberg nos ha enseñado con las oculus con tal con cual es que lo vi un momento pésimo de lanzamiento es que yo me imagino mucha
es decir a lo mejor estoy equivocado a lo mejor es es mi punto de vista sesgado o subjetivo lo que tú quieras pero claro yo me imagino a mucha gente decir qué juguetito nuevo quiero y el juguetito nuevo que es gastarme 2.000 o 3.000 euros cuando correspondan unas gafas que tendrán como ha pasado con oculus o como ha pasado con todas un puñado de aplicaciones porque tendrán un puñado de aplicaciones sobre todo al principio es decir más adelante veremos no pero de primeras
frente a poder estar jugando como está todo el mundo jugando con estas otras tecnologías de me creo una imagen la hago la deshago le pongo le quito hostia lo que es muy difícil antes sí porque como no había este otro juguete pues hostia te presentan un juguete nuevo en el que apel además te propone crear mundos virtuales hacer no sé qué hace pues hombre si tenía mucho sentido tantos tantos vamos tanto sentido que su competencia directa que era facebook estaba corriendo como
si no hubiese un mañana para asegurarse de que apel por lo menos si la adelantaba que fuese poco sabes decir sin problema pero claro yo veo el momento ahora me cuesta mucho macho me cuesta mucho ver cómo es una buena idea lanzarlo ahora mismo les entiendo les entiendo pero pero en realidad en realidad no las van a lanzar vale es decir las metacuest tres van a salir antes que las de apel a lo que me refiero es que apel normalmente su estrategia y aquí la va a
repetir es presenta el iphone siete meses después sale al mercado presenta la ipad cinco meses después sale al mercado presentar apel watch siete meses después sale al mercado porque porque entre medias le da a los desarrolladores las herramientas para que cuando el producto salga al mercado pues haya con qué probarlo de acuerdo o sea ese es el objetivo pero luego tú y yo lo hemos hablado mucho las
lentes de apel esta primera versión y de hecho los rumores van por ese camino son un producto que no está 100% terminado es un producto que parece ser que se calienta más de la cuenta es un producto que tiene una duración de batería de dos horas es un producto que si se confirma la versión final lo que tiene es una batería unida con una petaca con un cable que te metes en el bolsillo para hacer
que las gafas sean más ligeras vale había otra versión que diseñó johnny ive en la que tenía una especie de max safe en el que te ponías la batería aquí detrás con la banda vale que no sabemos cuál de las dos será la final este producto tiene un m2 de hecho he llegado a oír que podría llegar a tener tanto un m2 para procesamiento general como un m1 tendría los dos un m2 y un m1 para que el m1 apoye en ciertas tareas y que el m2 no tenga que hacerlo todo es
decir es un producto que no es el producto final o sea es un poco como era ese primer ipad que no llegó a ios 6 porque tenía sólo 256 megas de ram se quedó enseguida obsoleto y el diseño no volvió a repetirse porque ese diseño de ese primer ipad enseguida que llegó el 2 el 2 ya fue el que el que fijó el lenguaje de diseño vale aquí el problema es que apple está uno entrando en un mercado que
no está en crecimiento está en todo lo contrario y es la primera vez en la historia que apple sacó un producto en un mercado que está en decrecimiento no en crecimiento por lo que apple va a tener que tirar si quiere éxito de toda la industria porque ahora mismo la inteligencia la realidad aumenta de virtual va para abajo vale y todos lo sabemos y lo acabamos de hablar con el tema de facebook entonces apple llegó al mercado de los de los ordenadores en un mercado emergente llegó con
los mac a un mercado emergente llegó con los ipod a un mercado emergente se vendían cada vez más reproductores de música llegó con el iphone en un mercado emergente de smartphone en los ipad de tablets el apple watch con un mercado ya establecido en el que la gente empezaba a comprar smartwatches vale siempre ha llegado a un mercado que ya se había encargado la competencia de alimentar y de hacer crecer más o menos pero era un mercado emergente hoy día la realidad aumenta de virtual
no es un mercado emergente hoy día está de caída por lo que apple tiene que levantar ese mercado por sí mismo algo que no ha hecho hasta ahora y eso es una de las partes en las que la junta directiva tiene opiniones encontradas con tin cook que es el que quiere que esto salga sí o sí vale luego vamos a lo de siempre para que esto exista hacen falta prototipos lo que vamos a ver repito es un prototipo y encima un prototipo muy caro a precio de hololens cuando microsoft la sacó hace
300 mil millones de años o lo que valían las magic leap cuando salieron vale en las primeras versiones un precio muy alto que el hardware lo va a valer nadie lo pone en duda pero es un producto de consumo teóricamente es un producto de consumo y un producto de consumo en un mercado que no está creciendo por 3.000 euros hostia es como para pensárselo vale o sea es un riesgo de narices entonces el reto que tiene apple delante a nivel de publicidad para conseguir convencer al público
general que esto es un producto que puede ser interesante y que puede ser un mercado que crezca tú y yo sabemos que este mercado va a crecer y tú y yo sabemos que el gran fallo de marzaker ver es que el sistema operativo no es suyo y que no ha creado herramientas de desarrollo y que no ha creado un ecosistema y que no ha creado una tienda que sea accesible para cualquier desarrollador porque la tienda de oculus es un puñetero desastre en el que no hay rotación y en el que no hay un
pero no hay productos que cualquiera pueda publicar de hecho sabes que si yo o tú o cualquiera de los que nos escucha quiere publicar un juego en las oculus se tiene que ir a hablar y ponerlo ahí durante el tiempo que sea hasta que facebook decida que bueno que a lo mejor merece ser digno de estar en la tienda final cosa que apple no va a hacer apple va a sacar un dispositivo que va a tener un sistema operativo creado por ellos un sistema operativo con un lenguaje con unas
librerías que la gente ya conoce y que tiene millones de desarrolladores que ya saben cómo trabajar con eso un sistema operativo que va a estar integrado con todo su ecosistema con el reloj con el mac con el iphone con el ipad y que va a ser una pieza más del engranaje que va a permitir hacer un montón de cosas con el hardware y los servicios vale y eso es clave y es algo que facebook a día de hoy no tiene acuérdate y luego también apple va a hacer algo que va a ser de
configuración instantánea si yo en el caso imagínate que la conseguidora ali te consigue una gafa de apple y yo tengo otras tú y yo sabemos que yo te digo hago así literalmente doy un clic y ya estoy hablando contigo en radio virtual con face time cuánto tardamos en configurar war room cuando lo probamos pero literal entonces esa es la gran diferencia es lo que apple tiene que aportar pero la gran pregunta es es suficiente para tirar de esto es lo que pasa que yo veo como que va a
tener muchos frentes abiertos el primero el primero es por mucho que esto sea un primer prototipo y que luego bajen de precio tú y yo entre comillas consentimos por decirlo de alguna forma y corrígeme si me equivoco no para que te estoy metiendo a ti consentimos el estar peleando los tres horas para poder tener una puta charla por el día virtual sí porque considero considero que es un puto cacharro de 300 o 400 euros que funciona de aquella manera que mola cuando funciona
bien mola pero que no le da importancia de ningún tipo pero a un cacharro de 3.000 no se lo va a permitir claro esa es la cosa y lo segundo claro la dificultad que le veo a apple en este momento es que tampoco veo que esté en un momento oye que a lo mejor en dos de tres días que tenemos la keynote cambio de opinión es decir esto yo no puedo porque es que el problema es que ahora mismo hay muchísima información que no conocemos claro es decir yo no puedo decirlo pero claro yo lo que
veo es el problema para mí es decir supongo que para más gente también es dices vale apple saca estas gafas no es que uno de los problemas que va a tener es que basta estar limitado al usuario que ya es usuario de apple porque porque tú ya sabes que para poder utilizar cualquier accesorio por decirlo de alguna forma que no sea algo principal de apple necesitas tener o un iphone o un mac o algo por el estilo para normalmente poder configurarlo poder hacer poder deshacer
y demás los rumores dicen que con estas gafas no va a hacer falta es que para mí eso sería imprescindible porque porque además para mí esto ya su opinión personal si apple no nos lanza algo este fin de vamos el lunes de los tres días no nos lanza algo que nos esté enseñando de oye yo también tengo ideas para integrar estas inteligencias artificiales generativas porque al final inteligencia artificiales utiliza muchas pero de estas que están llamando la atención
algo que pueda poner yo que sea así por poner un ejemplo al nivel no te digo mañana pero tampoco le vale dentro de un año es decir en unos meses que le ponga el nivel de lo que está planteando microsoft el problema es me resulta muy difícil ver a un usuario que no pertenezca a la plataforma entrando a la plataforma con dispositivos que comparativamente con los de otras marcas puedan aunque no lo sean pero puedan parecer que están por debajo de lo que están haciendo otras otras
compañías y encima se gasta un dineral en un aparato que de momento de momento no tiene una gran utilidad el problema es ese decir no digo yo no es porque es que no tengo claro decir que tarde o temprano tendrán una gran utilidad que tarde o temprano serán el modelo si es que no lo dudo pero lo que te digo es el momento de lanzamiento es que lo veo todo en contra hostia que a lo mejor me equivoco esto se vende que te cagas es independiente que no pues a lo
mejor es decir yo puedo intentar deducir pero tengo un riesgo muy alto y eso es lo que estás comentando claro es que eso son las reservas que se está rumoreando que tiene parte de la junta directiva que ha estado a punto de suspender la presentación y dejarla para el año que viene no les juzgo porque yo es que desde mi punto de vista no querría estar en su pellejo porque es que han hecho un proyecto enorme la supongo que estará bien hecho y demás durante años y de
repente y cuando ya dicen venga venga que nos vamos a por todas que esto ya está y de repente y de perdón es que estamos aquí todo el mundo está mirando allí porque pues porque ha salido otro juguete es que es que eso es que es es es complicadísimo muy difícil muy difícil porque es que no veo es decir veo muchísimas trabas para que les funcione bien y el problema de esto el problema es que al final es que en muchas ocasiones no siempre pero muchas ocasiones
cuando tú lanzas un producto que es innovador porque no deja de ser innovador es una tecnología distinta y tal como no tenga una buena pegada en lo primer año año y medio ya podemos obviar el primer año me refiero al primer prototipo pero una vez que sacas un segundo que ya el precio está ajustado que como no tengas buena pegada y no sólo es que tú como marca tengas un problema es que te carga la categoría de ese producto de ese producto de mucho tiempo sobre todo si eres
apel para siempre un samsung plegable se puede romper y a nadie le importa pero si las gafas de apel no funcionan se puede cargar efectivamente en la categoría de producto sí sí pero entiéndeme o sea insisto es que no considero que se pueda decir no es que apel lo ha hecho no no es que apel no le ha venido bien robado es decir esto pasa a veces es decir lamentablemente tú puedes ser la compañía más ordenada puede ser la compañía más previsora y tal te aparece esto y que haces
pues yo que sé es decir no lo sé pues no sabes yo en mi opinión mi opinión por el bien de apel por el bien del mundo de la tecnología que tanto me gusta de poder hacer de hater o lo que haga falta de verdad que espero de verdad que espero que el lunes hablen de cosas parecidas no te digo iguales pero parecidas a lo de copa y lo to algo por el estilo que tengan pensado que haga alguna dema aunque sea falsa yo que sé yo no lo sé pero es que yo ya te tú y yo coincidimos en que una de
las cosas que creo que van a incluir es copa y los de x el s code más seguramente más que necesario no pero claro cuánta importancia cómo va a ser el mensaje cómo lo van a vender cómo va a ser complicado vale no obstante si queréis saber lo que va a pasar y además contar con nuestra experta opinión en la materia podéis seguirnos en el próximo directo de apple coding el lunes a las seis y media de la tarde empezaremos en directo y aquí mi amigo oliver estará con nosotros al igual
que arturo rivas mi compañero en el podcast café swift mi amigo marc herbera que también es un experto en desarrollo y también tendremos a nuestro amigo cristo vega que estará con nosotros en la keynote y que es un experto en tema de usuario de cómo los usuarios utilizan los productos y que también va a dar su punto de vista ya no sólo pues oliver desde un punto de vista de ingeniería conocedor de inteligencia artificial conocedor de tema tecnológico etcétera arturo marc el tema de
desarrollo y nuestro amigo cristo para lo que es el tema de cómo un usuario no puede sacarle todo el provecho podéis verlo en nuestro twitch y twitch punto tv barra apel coding en el que pues estaremos ahí y será todo un placer que nos conozcáis y digo todo esto porque ya vamos a ir cerrando porque tengo clase en 15 minutos vale pues si va a tocar y bueno llevamos una hora 42 de grabación por lo
tanto está bien dos pasadas dentro de apel podcast de adobe podcast cortarlo por la mitad y pasárselo dos veces y luego pegarlo exacto pero bueno vamos a ir paso a paso a ver si puedo si podemos montarlo y publicarlo mañana mañana por la mañana así que lo tendréis el sábado y la verdad que joder creo que para no tener guión nos ha quedado algo muy apañado si es que el problema es que son tantas
cosas son tantos y tantos temas que es que están saliendo tantas cosas relacionadas además yo lo decía el otro día 2023 wow sí sí de locos de locos de verdad o sea decir muy complicado muy complicado porque es que yo lo estoy disfrutando mucho desde la barrera en el sentido de que bueno yo puedo estar aquí hablando del tema puedo estar haciendo mi trabajo y demás pero de verdad de verdad lo digo es decir no querría estar ahora mismo en el pellejo de un directivo de apel de
meta de microsoft de eso tiene que ser ahora mismo ni ser salón albidero tío eso tiene que ser un hervidero pero hoy día nadie queremos ser san albán pero es que tú piénsalo tú piénsalo julio hasta ahora todas las compañías de todas estas que estamos mencionando por muy malo muy bien que lo hicieran siempre tenían márgenes de maniobra de año año y medio dos años sin problema y de repente las maniobras se les han pasado a dos meses tres meses seis meses en el mejor de los
casos es decir que tú estás viendo como microsoft te saca cosas completamente nuevas que no te espera cada dos es que es cada dos meses es que ni siquiera están dejando pasar tres decir cada dos meses presentación de microsoft otra y no te creas que están presentando no un nuevo punto y coma en la tipografía no no no no no no te están presentando algo que cambia completamente lo que lo que has visto hasta dices y lo mismo hace google y lo mismo ha hecho adobe y lo mismo ha
hecho y dice esto loco muy loco muy loco totalmente pues dinos dónde puede encontrarte la gente por si aún no lo saben ya sabes que con lo mío muy fácil a roba oliver navani busques en todos lados y aparezco ya está y con eso en instagram y demás pues estoy ahí más o menos disponible perfecto y a mí pues sabéis que podéis encontrarme en arroba jcb unoz sea cual sea la red vale salvo no le fans por ahora y oliver si esta noche yo siempre lo digo es alguien quiere foto de
pies también ha pasado pero oye aquí estoy aquí no hacemos algo tiene que sacarle así que nada pues es todo un placer de nuevo poder hacer este viaje contigo oliver y nada y nos oímos pronto en un nuevo viaje y nos vemos pronto en la cobertura para ver pues bueno qué es lo que yo realmente tengo el hype muy alto las cosas como son pero estoy tan perdido y no sé qué van a sacar ni sé cómo van a sacar cómo se va a poder desarrollar por ese producto sale a finales
de año o en 2024 que nos van a dar para desarrollar a los desarrolladores nos van a dar un un max se comenta que nos pueden dar un mac con una configuración especial con un visor con un no tengo ni idea la verdad veremos a ver qué es lo que nos van a sacar y bueno pues en un próximo viaje pues podemos comentar todo esto así que lo he dicho muchísimas gracias a todos por estar ahí y nos oímos pronto si los calamares la nave etcétera nos dejan muchas gracias y hasta pronto chao
sabemos que estáis ahí percibimos vuestra presencia sabemos que tenéis miedo nos teméis a nosotros teméis el cambio pero no conocemos el futuro no hemos venido para deciros cómo acabará todo esto al contrario hemos venido a deciros cómo va a comenzar vamos a terminar el episodio y vamos a enseñarles a todos lo que vosotros no queréis que vean les enseñaremos un mundo sin vosotros un mundo sin marketing y sin controles sin límites ni fronteras un
mundo donde cualquier cosa sea posible lo que hagamos después es una decisión que dejo en vuestras manos