GPT 4 va a llegar no… ha llegado

00:00 /2h02

GPT-4 o Texto generativo pre-entranado. La nueva versión del modelo de generación de texto de OpenAI que ha revolucionado el mundo tecnológico gracias a la idea de implementar sus capacidades en un modelo conversacional. OpenAI no hace más que ofrecernos nuevas posibilidades que superan ampliamente nuestras expectativas.

Desde que grabamos este episodio, hasta que hemos grabado su introducción y editado, hemos pasado del rumor que GPT-4 saliera (que es lo que contamos en el podcast) al hecho que GPT-4 ya ha salido. Ese es el nivel: no da tiempo a editar un podcast y las noticias nos pillan.

¿Cuál será el próximo paso de la inteligencia artificial con estos modelos? ¿Cómo afectará la competencia con Google que ya ha anunciado su primer paso con nuevas APIs y funciones basadas en inteligencia artificial para su suite ofimática Workspace para empresas? ¿Qué nos ofrecerá Microsoft en este tipo de integraciones para Office?

El aprendizaje automático, más concretamente, el aprendizaje profundo, están definiendo los últimos meses y prometen ser el salto al futuro que parecía que nunca llegaría pero que está aquí permitiendo hacer cosas que hasta hace pocos meses eran, literalmente, ciencia ficción. 



Aprende Swift y SwiftUI con nuestra última formación: Swift Developer Program 2023.

Oliver Nabani

Julio César Fernández

Transcripción


Cuanda, la comunidad de podcasts independientes en español. Bienvenidos a la American Eisler,

la nave de combate de donde

le quererás tu mente.

Sí, todo listo, todos los puntos de acceso controlados, todos controlados y los firewalls de acceso cerrados. Perfecto. Es esencial que solo nos oigan aquellos que estén preparados, exacto, preparados para llevar su mente más allá para liberarla. Quedes que estarán preparados para esto, eso espero, porque ya no hay vuelta atrás.

GPT4 o texto generativo para entrenador, la nube del modelo de generación de texto de OpenAI que ha revolucionado el mundo tecnológico gracias a la idea de implementar sus capacidades en un modelo conversacional, OpenEye no hace más que ofrecer los nuevas posibilidades que superan ampliamente nuestras expectativas.

Avertencia. Desde que grabamos este episodio hasta que hemos grabado su introducción y editado, hemos pasado del rumor que GBD4 saliera, que es lo que juntamos en el podcast al hecho de que GPD4 ya ha salido. Ese es el nivel. No da tiempo a editar un podcast y publicarlo y las noticias nos ¿Cuál

será el próximo paso de la inteligencia artificial con estos modelos? ¿Cómo afectará la competencia con Google que ya ha anunciado su primer paso con nuevas APIs y funciones basadas en inteligencia artificial? Social para su suito ofimática workspace para empresas, que nos ofrecerá Microsoft en este tipo de integraciones para Office,

el aprendizaje automático, más concretamente el aprendizaje profundo está definiendo los últimos meses y promete ser el salto al futuro que parecía que nunca llegaría, pero que está aquí permitiendo hacer cosas que hasta hace pocos meses eran literalmente ciencia ficción. Muy buenas y bienvenidos una semana, mes, quincena, no lo sé, tres semanas, lo que sea a vuestra nave favorita, a la de veganazer, y como siempre pues estoy aquí con mi Pallero, Capitán, Oliver Navani, ¿qué tal, Oliver?

Muy buenas tardes Julio, pues bien, bien, bien, bien, no no hace tanto de que grabamos el último, yo creo que estos han sido más o menos seguidos. Lo que pasa es que pasan tantas cosas. En estas últimas semanas que da la sensación de de una vez a la siguiente, pues bueno, ha podido pasar medio año, pero no, realmente no hace tanto grabábamos el anterior.

Pues sí, básicamente sí, no sé si son dos o tres semanas. Teóricamente la periodicidad del podcast es de quince días más o menos fue lo que establecimos en su momento, pero claro también depende un poco de de la de cómo estemos a nivel de trabajo, a nivel de salud, a nivel de viejuref, en fin, de mil cosas y entonces al final pues, pero como ha dicho Oliver, si es que como nos despistemos un poco nos sacan cuatro o cinco cosas nuevas y ya no nos da con un programa, porque se nos viene gorda la semana que viene ¿verdad? Oliver

la verdad es que, bueno, yo ahora lo hablaremos, lo hablaremos tranquilamente durante el podcast, pero bueno, una de las cosas que estás sucediendo es que muchas de las cosas que estábamos planteando a medio a largo plazo, probablemente veamos la semana que tiene, es decir, estamos viendo cómo, bueno, esos pasos que esperábamos que se viesen más o menos rápido pero con unos unos tiempos razonables se están dando de semanas, o sea todo cumple totalmente acelerado y sin haberlo podido prever, ¿no? De alguna forma, con lo que, bueno, desde luego interesante está la cosa.

Y bueno yo te recuerdo que en diciembre del año dos mil veintiuno hace apenas un año y poco fue cuando hicimos la entrevista a Yipeta. Y anda que no ha llovido desde

entonces es una locura pensarlo.

Totalmente. O sea fue en diciembre del año dos mil veinte uno cuando hicimos esa entrevista que curiosamente, a ver, yo no me voy a echar flores ni me voy a poner medallitas porque no fuimos los únicos que hicimos eso, ¿de acuerdo? Las cosas como son, pero es cierto que varios tuvimos una idea parecida porque al final y esto es algo que creo que es interesante, que la gente entienda, el Charged GPT no es algo distinto de GPT GPT, no es más que lo que nosotros hicimos en su momento con GPT para poder entrevistarla, que fue construir una conversación, como explicamos en aquel programa, pues eso mismo, Open AI lo ha automatizado para que en una interfaz tú escribas y obtengas respuestas y pienses que es una nueva funcionalidad cuando en realidad no lo es y esto lo hemos visto ahora cuando hemos podido acceder a la API de OpenAI, donde está también la lo que son las funciones de conversación que por cierto creo que también tú has podido probar e incluso hiciste un bot para Telegram que lo que él era capaz de acceder a esta app y tal. ¿Cómo fue esa experiencia? ¿Cómo has visto tú esta API?

Que por fin nos permite trabajar directamente con con GPT tres en modo conversacional de chat, en modo chat siempre te.

Lo hemos hablado antes en privado, me ha parecido una experiencia completamente distinta a lo que yo hasta ahora había trabajado con lápiz y demás, bueno, por supuesto todos los que los escucháis sabéis que yo no soy desarrollador, yo programo aún mis cositas, mis a baño, mis juguetitos, ¿no? Como aquel que dice, para a veces para agilizar mi trabajo, otras veces por experimentar, otras veces por tener un jueguecito, por decirlo de alguna forma, pero bueno, me gusta toquetear estas cosas, ¿no? Entonces, me llamado mucho la atención, Carol, yo llevaba ya tiempo, ¿no? Desde, bueno, tiempo, dos meses o un mes y medio, ¿no? Desde que es que

él tiene que saber cualquier cosa. ¿Cuánto tiempo?

Sí, es que parece que hubiese pasado un año, no, no, no, un mes diciendo, bueno, en algún momento dado tienen que liberar Chagerote para poderlo utilizar a través de la API, es decir, haciendo llamadas directamente a través de tu aplicación a Internet y que te devuelva a tener una respuesta, ¿no? Para poder utilizarlo y demás. Y bueno, pues, mi mi duda iba a ser un poco hasta qué punto podía o no ser complicada esta API, ¿sabes? Es verdad que las anteriores que ha utilizado PMI son muy sencillas, pero bueno, muy muchas veces no sabes hasta qué punto puede ser el difícil utilizarlo, ¿no? Y claro, te quedas un poco alucinado cuando te metes en la página de OpenAi, metes en la API, yo en mi caso me he ido a lo fácil, es decir, yo a diferencia de Julio que le gustan esas cosas, por su cuenta y tal, yo me he ido a lo fácil, utilizarla desde Python, que ya la propia la la propia gente de OpenA y hay, te dicen, estos son estos comandos de Python que necesitas, no te vayas tú a a complicar mucho la vida, ¿no?

Y entonces, bueno, pues te das cuenta de que es que solo tiene una una línea de código como el que dice, es decir, todo lo que necesite haces hacerle una llamada como si fuese un texto, como aquel que dice una con una función y recibes otra otra otro digamos, otro objeto al que le sacas, pues, desde los filtros que lleva, a cuál es el texto que tiene, a cuál es el tiempo de contestación, etcétera, etcétera, etcétera, ¿no? Tú coges el texto y ya tienes una contestación como tal, es sumamente sencillo, ¿no? Pero quizá lo para mí lo más relevante, que es un poco lo que estaba comentando Julio hace un momento, ¿no? Con con esa forma, ese cambio, ¿no? Entre GPD tres y ya GPT y toda la historia, lo más relevante es que te das cuenta de que realmente una vez que tienes acceso a este tipo de APIs, la programación muy entre comillas ¿no?

Que le estás haciendo no es en el lenguaje de programación acción. Es un programa, es un lenguaje natural. Es una cosa que es muy de locos, o sea, no no no te lo esperas hasta que no empieces a utilizarlo. Me explico, ¿no? Para hacerlo, para hacerlo muy sencillo, imaginaros que yo quiero utilizar ChagPT para que me haga cinco cosas distintas, como por ejemplo ha hecho la gente de notion, ¿no?

Tu notion ahora ya lleva integrado con GPT y te permite pues el texto que tengas, hacer resúmenes sacar puntos importantes, escribir de un tema que tú quieras y demás, ¿no? Y son como distintas funciones que tiene y demás, ¿no? Uno podría pensar decir, bueno, pues lo que ha hecho o esta gente, ¿no? De de de OpenAI, que es por bueno crear distintas funciones para las distintas cosas que puede hacer, pues no, resulta que no funciona así, es decir, la gente do pena y ahí no tiene una función exclusiva para hacer resúmenes, o no tiene una función exclusiva para sacar puntos los principales, o para sacar la idea principal de un texto, no, no, no, absoluto, tú lo que haces es, al principio de la llamada, decirle lo que quieres, quiero que me saques la idea principal del siguiente texto, dos puntos, y ahora ya le metes tu texto que tú quieras. Es la leche, porque programar es básicamente pedirle con tus propias palabras, o bueno, a lo mejor no son tus propias palabras porque tienes que intentar adecuarte un poco al prom que entienda mejor, ¿no?

El el el sistema, pero es con tus propias palabras de decir, oye, para esta función quiero esto. ¿Te paras esta función? Yo lo que te lo que quiero sácame los tres puntos principales de dos puntos, y ahora ya realmente es el texto que tú quieras, ¿no? Es muy curioso, o sea, el uso de la API me parece tremendamente curioso porque Bueno, yo creo que de alguna forma nos está haciendo la apuesta a un mundo de programación muy distinto del que conocemos. Ya no de programación de de creación de software o de contenido, no no no sabría muy bien cómo definirlo, ¿no?

Pero es algo que ha cambiado, es decir, hasta ahora tú tenías que apuntar de forma muy directa a lo que querías exactamente y ahora pues estoy viendo que para por ejemplo estas API es que se lo pides de forma natural ¿no? Es es muy curioso.

Sí, de hecho yo estuve haciendo también pruebas, en este caso hice un una una aplicación en Suiply Grounds, donde bueno pues integré esta API y la verdad que como ha dicho Oliver, o sea la dificultad que tiene es mínima vale o sea es simplemente una llamada de tipo post a la que tú le envías un JSON con una estructura determinada donde lo más importante es es la parametrización que tiene a nivel general y luego todo el histórico de mensajes vale porque si alguno piensa que oh dios mío es que el chat gpt recuerda todo lo que hablo con él no señores el chat gpt funciona como una página web que cada vez que tú llamas eres alguien nuevo y la forma de que la página web sepa que tú eres la misma persona es porque hay un elemento de persistencia que normalmente una cookie de sesión que lo que hace es que le va diciendo a la web que tú eres la misma persona que llamó hace un rato con tal idea pues esto pasa igual igual entre comillas es decir charge pt nos sigue el contexto de la conversación, tú tienes que enviarle la conversación completa, ¿vale?

Digamos que ahí está, entre comillas, lo más complejo, lo que se sale un poco más, ¿vale? No es simplemente enviarle a Chargept al no sería a Chargept, sería a la API de conversación, de chat de GPT tres punto cinco, que es la versión que tenemos actualmente. Entonces tú lo que haces es enviarle todo el histórico de lo que has estado hablando con el sistema. Yo en mi caso tengo un array con cada uno de los pasos, de la conversación y entonces se lo envío y él en base a eso pues es capaz de contestarme. Entonces bueno pues en ese caso verdad que tiene un montón de posibilidades, pero es que tenemos que entender que la API de OpenEye no es solo eso.

La API de OpenEye tiene mucho tiempo y la p de open a y permite no sólo completado el texto también permite completado de código directamente yo ya puedo ir directo a hacer completado de código en lenguajes como Java Script, Google, PHP, Ruby, en Swift también, en types script, en sql, etcétera, o sea se puede incluso en comandos de shell que también como vimos en su momento había incluso completadores no que a través de pedirles algo te ponían la instrucción de tipo shell para una línea de comando, pero también tenemos el completado de texto de chat, ¿vale? Que es el nuevo que han sacado. Tenemos el de la generación de imágenes que este ya estaba. Tenemos además elementos de fine tooing para poder generar nuestra propia versión de modelo con nuestros propios contenidos que puede que esto sea algo de lo más interesante, porque al final un fine tooning permite personalizar un modelo para tu propia aplicación con tus propios contenidos, ¿vale? Para que de alguna manera tú al final recopilas esa información que tienes una unas instrucciones de cómo hacerlo envías esa información se hace un entrenamiento para esa información obviamente tiene un precio y tal es una cosa que es más compleja pero tú directamente mandas esa información yo por ejemplo el otro día en un directo comentaba alguien no pues es que claro yo no le veo aplicación tal o como sería pues yo por ejemplo dije mira un ejemplo muy tonto imagínate una empresa, porque claro, me preguntaban precisamente por esto, por si podía aprender de un montón de documentación, y yo les dije a ver, imagínate que estamos en el operador telefónico x el que sea, ese tiene una persona atendiendo diciéndote oye es que no me funciona el rute y está allí pulsando una serie de botones en un programa de atención al cliente de soporte usuario donde le va dando la respuesta pero él tiene que ir buscándolas.

Imagínate que toda esa documentación se entrenara en un modem pelo y que automáticamente la propia pregunta que hace él, la persona que está pidiendo soporte, este operador se la hace el sistema y el sistema proof le responde directamente, él solo tiene que leerlo, y ya no tiene que ir a buscar cuál es el tema, cuál es el problema, qué es lo que hace, etcétera. Y como eso pues lo que hemos comentado que también lo hemos comentado antes de entrar a grabar pues el tema de por ejemplo de lo que Apple podría hacer quien dice Apple dice Google con Android estudio o cualquier otro cualquier otra compañía con su propia idea de desarrollo es directamente integrar en un modelo entrenado mediante este modelo de fine toda la documentación de desarrollo que ellos tienen de todas sus APIs, para que no solo te pueda ayudar sino que te pueda incluso autocompletar texto o darte no texto sino darte ejemplos los de código de pues algo mucho más potente que los actuales snippets que te permiten medio empezar con una función vida. O sea, ese es el nivel. Luego tenemos también embedtings, tenemos otra nueva API que se lanzó, que es la de speech totex, es la de whisper vale que eso también tela o sea nosotros hemos estado probando whisper porque además lo monté también incluso porque se puede montar tanto en PC como en AppleCílico y es brutal, o sea, es magia, o sea, yo no sé cómo lo hace, pero un audio como el que estamos ahora mismo que nos estáis oyendo, se lo pones a whisper y es capaz de poner los puntos, las comas, las interrogaciones, las admiraciones, que entender perfectamente lo que está en en cada idioma, y ponerte los textos correctos, es decir, te saca unos subtítulos que están al noventa y nueve por ciento, pero al al noventa y nueve por ciento de verdad o sea yo lo he probado con vídeos de media hora y están al noventa y nueve por ciento o sea tonterías que se le puede escapar algún puntito raro, alguna cosa tal, no sé qué, pero el resto es tal cual directo para salir y además no solo permite la transcripciones, más de cien idiomas, sino que es capaz de traducir en tiempo real al inglés desde cualquier idioma.

Todo por línea de comando porque no hace falta usar esta API, whisper se puede descargar y ejecutar en local pero obviamente usamos esta pues va a ir mucho más rápido. También tenemos niveles para controlar, bueno pues un montón de ejemplos que podemos utilizar de trabajo con audio de trabajo con valores de moderación para saber qué contenido nos están enviando o no y si tiene contenido sexual, si tiene contenido que puede ser de odio, si tiene pasa alguna cosa que nos permita valorar lo que estamos teniendo y luego dentro de la propia API tenemos ejemplos del tipo: Corrección gramatical de inglés. Para enviarle un texto que te lo corrija gramaticalmente, tenemos poder traducir del inglés a otros idiomas, tenemos traducción del lenguaje natural a consultas SQL de base de datos, que tú le dices, una consulta que sea tú a esa a ese ejemplo, le das la estructura de la base de datos, de las tablas que quieres consultar y le dices quiero una consulta que me saque el dato de aquí, de aquí, de aquí, de aquí, de aquí, unido tal, la ta, ta, ta, ta, ta, ta, ta, ta, ta, ta, ta. Y como eso tenemos, o sea mogollón de elementos explicaciones de código pitón al lenguaje natural para que le des cualquier código y te diga qué es lo que hace sacar convertir los títulos de una película en emojis, traducir entre lenguajes de programación distintos, le das un código en un lenguaje te traduce el código a otro lenguaje, es decir, tenemos aquí infinidad de ejemplos que puede hacerse con la API, que son devolverse loco.

Sea, a mí no, si no si no tiene un par de me gustaría pararme un momento, que lo has lo has mencionado antes, un poquito más con lo del fine tooing, porque para mí me parece que es la parte en la que van a tener la clave que van a que que que todo lo que tengamos a lo alrededor cambia, ¿no? Porque el facturing nos va a servir para dos cosas fundamentales. Uno es la que tú has comentado, es decir, y es que cualquier empresa va a poder entrenar, por decirlo de alguna forma, esta inteligencia artificial en su campo, para poder utilizar solo. De hecho, yo como sabéis que para estas cosas son muy frikis, he hecho mil números, y en una empresa de ingeniería del tamaño en la que yo estaba antes, como técnicas reunidas, estamos hablando de quince mil personas, demás, que hacen refinerías por todo el mundo, yo calculado que el, es que es que esto hace hasta hasta gracia, el coste total de entrenamiento de esa de de de un modelo, por ejemplo, como GBT tres con Da Vinci, que se supone que es el más avanzado, el más complejo que tiene a día de hoy, semana que viene esto va a dejar de ser así, ¿vale?

Pero hasta hoy este es este es el más avanzado, el entrenamiento hice el cálculo exacto, costaría unos tres mil doscientos euros. Estamos hablando de una empresa que factura alrededor de veinte mil millones, ¿vale? O sea que yo creo que tres mil doscientos euros es algo que se pueden permitir Yo

creo que se lo pueden emitir, fácil.

Y el uso, porque cuando ¿Y

qué acceso de documentación es la que había falta?

Estamos hablando, yo estaba estaba hablando de que yo calculé que salían aproximadamente unos ocho mil documentos. Únicos, cada uno a lo mejor de entre cien y quinientos folios, una cosa así, y con eso quedaría bien enterado, suficientemente enterado para poder hacerlo, para poder hacer una primera aprobación de unos tres mil euros, y luego las llamadas son más caras, cuando tú haces una consulta a un modelo que es tuyo entre comillas tuyo, porque tú lo has entrado, lo has hecho el fine thuning, esas llamadas como diez veces más cara, ¿vale? Entonces, mi cálculo era que por día y persona haciendo consultas, aproximadamente el coste es un euro. Entonces claro, teniendo en cuenta que un Sí, sí,

sí, sí, sí, sí.

Escuchando que a tener

que quitar el café a los de técnica, para poder pasar.

Claro, es que es es tal cual. O sea, teniendo en cuenta que a si, por ejemplo, a mí me contrata, imaginaros ARANCO, ¿no? Para hacer una refinería el precio que se cobra por ingeniero y hora es entre cien y ciento veinte euros, dependiendo de condiciones, momentos, momento en el que estás de la obra y más. Como comprenderéis un euro un euro al día, eso no es dinero, ¿no? Y desde luego la oportunidad que te puede dar de mejorar en calidad todo lo que estás haciendo absurda, o sea, ridícula, etcétera, porque al final el problema es que esos ocho mil documentos, diez mil, quince mil, dependiendo del caso, que tuve puedas utilizar para un proyecto, no es algo que al final alguien pueda meterse en la cabeza, tú tienes que consultar en ellos, ¿no?

Mientras que el sistema este sí se lo mete en la cabeza, por alguna forma. Pero ojo porque esta es una parte, ¿vale? Esto esto es claro, es como el como el caso claro, pero es que el fine unido en realidad va a ser una cosa que no creo tarden mucho, o sea, yo creo que de aquí a medio año fíjate lo que te digo, ¿no? Aquí sí que emitir un triple, ¿no? Va a ser una de las cosas que van a facilitar y van a bajar un poco el precio porque va a ser la clave para que todos los modelos sean más usables, y es precisamente por lo que comentaba Julio, y es que el sistema no recuerda, es decir, tú tienes un modelo estás utilizando al que le estás haciendo consultas pero no tiene la capacidad de memorización.

Si tú quieres que se acaba de seguir una conversación, tú tienes que ir continuamente actualizándole el contexto. Es decir, tú lo que tienes que hacer es decirle no, no, ahora no solamente te envío la pregunta que te quiero hacer, sino las preguntas y respuestas que tú me has dado anteriormente para poder llegar otra vez a este punto, ¿no? ¿Cuál es el problema? Que el coste de cada llamada que tú haces, más en función de los tokens que tenemos es que es un token, bueno, pues es, digamos, el cómo han parametrizado ellos cada una de los tipos de palabras, conexiones de palabras y demás, tener para, digamos, meterlo como un valor unitario, que sería luego dentro de sus máquinas y de sus historias. Para que os hagáis una idea, lo normal en inglés estamos hablando de que mil palabras son setecientos tokens, para que tengáis ahí más o menos una referencia, ¿no?

¿Cuál es el problema? Pues que cada línea que tú metes de conversación tu conversación se vuelve más cara, ¿por qué? Porque tú en la primera que hay que estar mandándole literalmente veinticinco tokens, que es lo que tú le has metido en el cajetín, veinticinco, porque la han pedido dos frases, oye eres un no sé qué y quiero que me respondas esto y te da una respuesta, claro. Veinticinco tokens más, a lo mejor, ciento cincuenta tokens es que he dado de salida, ya tienes ciento setenta y cinco añadidos a lo siguiente que tú hagas para hacer la siguiente llamada, con lo que la siguiente llamada ya no cuesta, ya no cuesta ver los veinticinco tokens iniciales, ya te cuesta a lo mejor doscientos tokens más lo que te devuelva, las siguientes serán los doscientos más los anteriores, más lo que más lo que tienes que añadir, entonces el problema es que es una cosa que va creciendo de forma exponencial y esto tiene una solución. Y es que tú puedas decir, vamos a ver, yo puedo soportar el gasto de tokens hasta cierto tamaño de decir, mira, mientras no me pase de, ¿qué te puedo decir yo?

Por ponerle un ejemplo idiota. Mientras no me pase de diez mil tokens, no hay mucho problema, ¿por qué? Porque diez mil tokens estamos hablando de dos céntimos de euro, entonces es un son valores que todavía estaríamos o menos funcionando bien, ¿vale? O sea

que ese es el motivo por el que Bing está limitado.

Claro.

En las conversaciones.

Claro claro claro claro porque sino el el el

hasta ahora ha estado a ocho pasos quiero que

Hasta diez. Hasta diez. Hasta diez. Ahora lo han puesto diez claro. El problema es ese, es decir que tú a medida que aumenta la conversación vas aumentando de forma exponencial los toques que están mandando.

Al punto de que uno es verdad que el modelo reacciona peor a contextos muy grandes por cómo está entrenado, y dos es que se vuelve mucho más la llamada, porque el proceso que tiene que hacer es mucho más grande solución, o muy sencillo, tú por detrás, decirle, espera, espera, espera, no hay ningún problema. Cada vez que yo haga, por por por por ejemplo, ocho mil o diez mil tokens me los coges, me haces un fine too in de modelo incluyendo esos tokens que he utilizado y vuelvo a empezar de cero, pero ahora si el sistema recuerda lo que he hecho, porque ya está entrenado con la información que yo le he pasado. Entonces, al final lo que ha hecho está muy bien y es un poco trampa, lo que han los de Open Air que te dicen, no, es que el precio, porque es que lo es el precio de Chang-GPT ridículo. Bueno, bueno, es ridículo si el uso que vas a hacer es de siempre llamadas nuevas, es decir, tú mientras hagas llamadas nuevas, o sea, no tienes forma humana de gastar de dinero en ChagbT. Esa esa es así, con la API, es que no tienes forma, porque estamos hablando de que cada mil tokens, es decir, cada setecientas palabras, vale, te estás gastando cero dos céntimos, o sea explícame tú cómo te gastas dinero con eso, o sea es

que ojo, no dos céntimos. Pero dos céntimos,

o sea es que no no tienes forma humana de gastar dinero, claro, problema es que como empiezas a meter contexto muy grandes, pasas muy rápidamente de estar gastando, pues eso, menos de la la décima parte cero o dos céntimos a empezar a gastar céntimos, y así sucesivamente, ¿no? Porque el contexto se va volviendo más grande y más grande y más grande y más grande, porque vas conservando todo el anterior, claro, llega un punto en el que cada llamada a lo mejor ya está a precio de euro o algo así, y es algo que no es soportable, ¿no? Y para eso tiene en la parte del fine tooning, y ahí es por lo que los precios de fine tooning son completamente distintos, es decir, no, no, no, no, una llamada fine tooning ya no son cero dos céntimos, ojo de que hay mucha diferencia, ya no son cero dos céntimos mil tokens, ahora son doce céntimos mil tokens. La diferencia es muy grande. Estamos hablando de dos órdenes, de magnitud de diferencia, eso no eso no barbaridad, pero claro tiene sentido, tiene sentido porque lo que vas a hacer es decir, bueno, es que me voy a gastar también es muy barato el entrenamiento, es decir, no recuerdo el número, pero me parece que eran eran tres céntimos por mil tokens o algo así, era muy era muy pequeñito, tú puedes entrenar tu modelo con lo que vayas generando e ir utilizando tu modelo propio con lo que ya has entrenado, ¿no?

O sea, más que nada lo que lo que quiero que os quede claro es un poco cuál es el modelo de negocio que tienes todo detrás, no porque muchas veces cuando tú ves los números de los costes, de los tokens, de tal cual, pues puede parecer como que hay como hay muchas cosas ilógicas, ¿no? Decir, mucha gente está diciendo, pero vamos a ver cómo me estás cobrando cero o dos céntimos para hacer una llamada esto y luego para hacer un entrenamiento de mierda, me cobras diez veces más, bueno, pues ese es el motivo, el motivo es que todo esto tiende a a crecer de forma exponencial, y de hecho es gran parte del esfuerzo que están poniendo en en en OpenEye, que es una cosa que a mí me está dejando con la boca abierta, ¿no? Y es que desde que apareció OpenEye en diciembre, ah, perdón, OpenEye, echa GPT en diciembre al chat GPT que tenemos hoy, siendo el modelo técnicamente el mismo, que es el tres punto cinco Turbo, que es con el que estaban jugando desde el principio, lo han conseguido reducir diez veces de tamaño, y de consumo energético en cada llamada que se hace es una barbaridad.

Eso no es la barbaridad. Pues claro, para ellos ellos lo tienen claro, es decir, todos estos sistemas son muy útiles, son muy inteligentes en el futuro, pero algo como se te vayan de las manos, el consumo que puede tener esto es una barbaridad, ¿no? Y precisamente por eso te están dando ciertas limitaciones para que no se le vaya la olla a nadie con todo lo que estamos haciendo.

Claro es que no podemos pensar que esto tiene un coste bueno pues que en fin que que alegría y que alboroto. No no, o sea la inversión que ha hecho open y hay dentro de lo que es Microsoft para dejarnos y seguir dejándonos usar Chartbeat gratis, no somos conscientes. Del nivel de coste, pero claro, todo eso a ellos les ha ayudado a ir puliendo los modelos, a ir mejorándolos, etcétera, a dar todas estas posibilidades que podemos realizar, que es que podemos hacer, ¿sabes? Que ahí creadores de reviews para restaurantes, preguntas de entrevistas, creadores de micro historias de terror, o sea.

Todo lo lo que se lo juro.

Estos son los de seguro. Algunos ejemplos de los que hay, que yo os invito a que entréis en platform punto open a i.com y vayáis a los examples que vienen además en Pyton vienen en c u r l vienen en varios varias llamadas distintas para poder hacer este tipo de llamadas y desde luego es es increíble, ¿de acuerdo? Es absolutamente increíble, pero parece ser que todo esto pues puede empezar a cambiar dentro de poco. Parece ser que dentro de poco, porque si recordáis, en pasados programas, aquello de anteriormente en Nebeca Nazer, Oliver nos habló de las inteligencias monomodales y multimodales. Y estuvimos hablando de lo que era un programa de hecho incluso recordáis que tuvimos una los que nos hayáis escuchado tuvimos una pequeña digamos discordancia con respecto a determinar opiniones con que porque yo insistía en que una inteligencia al final es un algoritmo y de hecho tenemos que pensar que GP tres no es más que entre millones de comillas de acuerdo una función que recibe un texto como entrada y devuelve un texto como salida lo tenemos que ver así, pero ¿qué sucede el día en el que en el que gp tres, el este cuatro, la cuatro?

No solo pueda recibir una cadena como parámetro de entrada para devolver una cadena como parámetro de salida, sino que pueda recibir vir una imagen o un vídeo y que pueda devolver como se diría en su un array de any porque dentro puede haber la respuesta no sólo cadenas, sino imágenes, video, sonido, entonces ya estamos empezando a ver que esto ya no es una ya que tiene una sola entrada y una sola salida, que es lo que estamos trabajando hasta ahora con GPT. Estaríamos hablando de parece ser es lo que se está comentando, de esto viene de un rumor, de una un experto que ha hablado hace poco, en una conferencia en Alemania, que él trabaja directamente en OpenEye y que ha dicho que GPT4 va a ser multimodal y que hasta donde él sabe va a ser capaz de recibir incluso vídeos como parámetro de nada. ¿Qué supondrá esto Oliver? ¿Tú que consideras que esto puede suponer?

A ver, lo que vienen las próximas semanas es muy loco. ¿Vale? Lo que viene es la próxima semana, es muy loco. Mira, antes de meterlos de lleno con esto, simplemente hacer un apunte de algo que sucedió hace dos semanas es que es que le digo, esto es muy difícil. Estimados espectadores, escuchas, como vos queráis llamar, está siendo muy difícil.

Es decir, ser capaz de seguir lo que está sucediendo de verdad que me supone estar todo el día, todo el día a las veinticuatro horas, pendiente de lo que está apoyándolo. Y una de las cosas más impactantes desde mi punto de vista creo que lo más impactante que ha sucedido en los últimos años, es una carta abierta por parte de OpenAye, firmada por Sam Altman, que es el el director de de OpenAye, diciendo vamos a empezar a hablar de las agis, que son las las inteligencias artificiales generales. Mire, esto ya empieza de ciencia ficción, ¿vale? Es decir, la Agi sería esa famosa o presumiblemente inteligencia artificial, que sí, que sería un inteligente de ¿verdad? No inteligente, como nosotros concebimos la inteligencia, digamos, a nivel humano.

No estamos hablando de consciencia, no estamos estamos hablando de inteligencia. Estaríamos hablando de algo que es capaz de hacer cualquier tipo de azanamiento en cualquier tipo de campo, relacionar cualquier tipo de información, etcétera, etcétera, etcétera, ¿no? Entonces, claro, todo el mundo se sorprende hace un de semanas cuando de repente abren una carta en la que además se ve que están incluidas varias empresas grandes, que están, digamos, apoyando esta carta, en las que es no es una cosa muy loca, simplemente una especie de alegato diciendo vamos a tener cuidado vamos a tener cuidado porque esto está para llegar. Aquí es cuando tú dices, no, no, esto estaba para llegar dentro de veinte años, no ahora, ya es decir que está aquí está ahora. Que estás diciendo tú sabes que estás diciendo como que está para llegar

si loco,

como que está para llegar, no está para llegar esto esto a la estimación era diez, quince, veinte, años, así no, y bueno pues básicamente lo que está diciendo es oye mira, tenemos que aprender a saber cómo generar este tipo de de tecnología, tenemos que saber cómo proteger este tipo de tecnología, cómo conseguir que todo el mundo tenga acceso a esta tecnología, cómo conseguir que sea lo más transparente posible para que no haya ciertos problemas, cuáles son los peligros que podemos encontrarnos. Claro, el detalle te queda diciendo, que esto no lo está diciendo, no lo está diciendo yo en mis movidas o en mis sabes, es decir que esto estaría muy bonito. Esto lo está diciendo No lo está diciendo exactamente. Yo quería saber esto de un

camino aquí. Oye, fíjate como dijimos ¿no? Acuérdate aquello de que dijimos de, ¿te imaginas que esto lo pusieran en Bing? Fíjate que cambió sería.

Efectivamente. Efectivamente. Recién no, pues cogéis y se y se desmarca con esto, ¿no? Claro, a todos los que nos gusta esto nos quedamos un poco a cuadros diciendo, es que la carta es seria, o sea, te das cuenta de que no es una mamufada, te das cuenta de que no es un intento de decir voy a llamar la atención, porque esto lo hemos visto de muchos feos, de muchísimo voy a voy a mandar una carta simplemente para que se hable de mí, no, no, no, te das cuenta de que es algo serio, de que está en, de que está intentando realmente decir oye, viene una situación que puede ser no peligrosa, pero sí complicada, y oye, es importante que esto lo hagamos con cabeza, porque la la la situación podría pasar complicada peligrosa y no queremos que esto suceda, ¿no? Y nosotros, como máximo exponente ahora mismo, de esto que está sucediendo, queremos dejar claro que estos deberían ser los pasos a seguir a futuro para que cuando lleguemos a esta situación hayamos llegado por el camino correcto, ¿no?

Vale, dicho esto, ¿vale? Como pequeño infiso de lo que vamos a hacer, ¿qué es lo que parece? Que esta semana se va a presentar, que como tú bien dices es a través de una filtración, pero que es que todo el mundo lo ha dado por hecho, es decir, no creo que sea otra cosa distinta cuando hasta la propia micro esa está diciendo sí, sí, sí, bueno, eso es más o menos lo de lo que vamos a hablar de esta semana, de hecho.

Te han dicho que es una presentación que tiene que ver con inteligencia artificial en el mundo profesional.

Efectivamente. Bueno, pues parece ser que va a ser esto, es decir, en otras cosas que ahora hablaremos la más destacada, pues hombre, lógicamente sería pues esto, es decir, la presentación, que todo el mundo estaba esperando, ya nos diré por qué, es decir, de que es GPT4, y pero con, digamos, con esteroides respecto a lo que estábamos esperando. Porque todos sabíamos que va a ser PT4 porque los precios que tenía las APIs que de lo que estaba hablando hace un momento no coincidían. Había un salto extraño entre el precio de utilizar versiones antiguas, por decirlo de alguna forma de GPT tres respecto a las más modernas, por ejemplo, de GPT tres punto cinco Turbo. No tenía mucho sentido que te estudies pues estando más cara, utilizar una bapia antigua, que ya nadie utiliza respecto a una más moderna, ¿no?

Claro, todo el mundo, como para todo el mundo, los que más nos gustan estas cosas rápidamente dijimos, si ya sabíamos, porque habían puesto fecha, es que esto, lo grave es que habían puesto fecha, pero hasta ellos mismos dijeron, no nos no nos flipemos. Ellos dijeron que para marzo de dos mil veintitrés teníamos GPT4. Otra cosa es que bueno, como también salió el Protesan Alma diciendo hasta que las cosas no estén hechas no van a salir, no queremos montar haikin necesario y demás, pues bueno pues todo mundo dijo bueno pues a lo mejor no pasa nada junio a al último trimestre de este año porque tampoco tienen necesidad de ir más deprisa, ¿no? Bueno parece ser que lo van a presentar falla, y además parece ser que la gran novedad y además esto concuerda muy bien con la entrevista aquella que dio esta esta esta persona, ¿no? Diciendo, a lo mejor mucha gente no iba a entender muy bien el salto cualitativo entre uno y otro es, pues eso que pasa será un último tal.

Claro, en el momento que pasa será un último tal, Es que es muy difícil explicar esto, el salto de complejidad de lo que pueda hacer es exponencial, ¿vale? No es tanto, no es tanto que tú vayas a notar cuando tú vayas a hacer, me me explico, tú imagínate que vas a hacer la misma pregunta con Chag-GPT y con GPT cuatro. Probablemente la diferencia que tú encuentres en la respuesta, una respuesta más menos sencilla, no veas grandes diferencias, o te dé la sensación, mejor dicho, que no veas grandes diferencias, pero claro, esto es como decir, me preguntas a mí, y le preguntas a Einstein vale a los dos qué hay para comer coño seguramente la respuesta no tiene muchas diferencias. Ahora cuando preguntas por la la teoría de la de la actividad seguramente mi respuesta de la de Einstein es muy distinta, vale, muy muy muy muy cinta, no estamos jugando al mismo juego, ¿no? Directamente.

¿Qué es lo que sucede con estas multi modalidades? Lo comentamos en en en aquel podcast, ¿vale? Multimodales es básicamente decir, yo cuando entré en una inteligencia artificial, una red mejor dicho, para ubicarlo mejor, un sistema de de deep learning que no deja de ser un sistema de chiller ni montados sobre una red neuronal, ¿vale? Como tú mandas un sistema de estos, como bien dice Julio, tú lo que estás haciendo es meterle una entrada relativamente determinada y buscar una salida relativamente determinada. En este caso, ¿por ejemplo textos?

Claro, es verdad que justamente, que es la parte que nos ha impactado a todos, hablar del lenguaje es casi hablar de algo mágico, porque a partir del lenguaje casi puedes plantearlo todo, a partir del lenguaje eres capaz de explicar cómo fabricar algo, a partir del lenguaje eres capaz de explicar cómo programar algo, entonces claro, es algo muy potente, pero en definitiva está basado en el lenguaje. La parte que llamó la atención de todo esto, que la confirmó la gente de Google con landing, tal y decir, es que aquí hay una cosa interesante, que es una cosa que habíamos observado y que ahora ya podemos demostrar con unos marcadores que estamos colocando dentro la red neuronal, y es que para llegar del resultado, o sea, para llegar a un cierto resultado, a partir de unas ciertas preguntas, resulta que tú has hecho el entrenamiento, que en principio tenía que ser, vamos a llamarlo de una forma lineal, tenía que llegar un recorrido, resulta que esa red es capaz de crear comunicación mucho más complejas, y que cuando analizas ciertas partes de esa comunicación resulta que sí que estar haciendo cosas que parecen razonadas ¿no? Es decir, cosas como entenderlo, pues conceptos, saber cómo recuperar patrones, saber cómo hacer cierto tipo de suma, no suma matemática, sino de suma de ideas, Entonces, sí que es capaz de hacer ese tipo de cosas, ¿no?

Claro, la parte potente viene cuando te están diciendo porque cuando tú haces un multimodar lo que estás haciendo es lo siguiente. Tú estás enterando, imagínate, imagínate que tenemos, por decirlo de una de una forma, tres. Tenemos una inteligencia artificial, una una red neuronal que se dedica a temas de texto, única que exclusivamente. Otra que se dedica a imagen a images to images, de imagen a imagen o de texto de imagen, de ¿vale? Es decir, de de ese estilo.

Y otra que se dedica por ejemplo a temas de, pues en vez de audio, de video, por por esto que están comentando que podría estar incluido, ¿no? Resulta que cuando tú haces crecer esas redes y cuando tú las diseñas hay un punto, hay un punto que han descubierto en el que puedes conectarlas entre sí. Si tú tienes distintas redes, pero tienen partes que son compatibles entre sí para poder conectarlas. Entonces la técnica que se está utilizando actualmente es decir vale, yo empiezo a entrenar con lo con las épocas estas, ¿no? En la en las que tú entrenas una una red neuronal, empiezo a entrenar una una red neuronal en un camino, y hay un momento en el que digo, este es el momento óptimo para que esta red pueda unirse a otras redes si yo les hago una estructura más o menos similar.

Les cojo y entré a una primera red, cojo y entré segunda, cojo entre una tercera, una cuarta, las que yo necesite. Yo ahora las uno, ¿vale? Es decir matemática, eso son las matrices, es decir, es es la matemáticamente, es como sumar dos a raíz, o sea, es decir, es que tampoco tiene mucho más, las uno. Y ahora lo que hago es cambiarle el entrenamiento. A ese modelo que le estoy metiendo, le voy a meter un en el que puede entrar una cosa y salir otra, no le voy a decir lo que tiene que salir, que él le investigue, que es lo que tiene que salir, empiezo a hacerle, digamos, un entrenamiento mucho más complejo con todas esas redes sumadas.

La parte bonita de esto es que no se suman, se multiplica. Es que esta es la parte que te borra la cabeza, es decir, no, es que no solamente es que sean capaces de, digamos, llegar a razonamientos cruzados, ¿no? En función de lo que tenía cada una de las redes, ¿no? Es que en ese entrenamiento que tú estás haciendo nuevo, se crean nuevas conexiones neuronales, se crean nuevos caminos en los que a lo mejor pues igual que por ejemplo es muy útil, esto esto pasa en la realidad, ¿no? Es tremendamente útil que un ingeniero pueda, por ejemplo, ayudar a un equipo de de médicos, ¿por qué?

Porque la perspectiva tiene el ingeniero, no es la misma perspectiva que tiene un médico, y a veces puede ayudarle en su campo y al revés. Muchas veces, muchas veces cuando tú vas a intentar, por ejemplo, un equipo de fórmula uno, un equipo de de de cualquier cosa de tecnología contratan asesores de cosas que son muy distintas a lo que están haciendo porque a veces alguien de fuera con una perspectiva distinta dice, sí, porque no hacéis esto así, que es como se hace en carpintería, y en definitiva debería funcionar igual. Claro, eso no se ha lo ocurrido a nadie y esa idea se refuerza y consigues, digamos, invenciones nuevas, ¿no? Pues esta es la potencia que tienen las inteligencias artificiales multimodales y es que las distintas redes neuronales que has entrado por separado cuando las unes te crea en caminos distintos, que ahí sí que, ¿cuáles va a ser las cosas que puedo hacer? Pues ellos los sabrán que lo han probado, pero nosotros no tenemos ni idea, yo quiero, el que antes de que de que lo presente, digan no, no, va a hacer esto esto y esto, no tiene puta idea de lo que está diciendo, porque sí, hay cuatro o cinco cosas obvias.

Sí, claro, sí, todo está entrenando una inteligencia, que hace cosas de texto con cosas de imágenes y con cosas de vídeos, parece lógico que le puedas decir a partir de esta imagen sácame un vídeo, coño, claro, tampoco hay que ser einstein para llegar a la conclusión de que eso podrá hacerlo, pero es que resulta que es que a lo mejor a partir de cómo ha aprendido a analizar la imagen o el vídeo, resulta que es capaz de utilizar ese mismo patrón para reconocer idiomas. Yo qué sé, esto me lo estoy inventando, ¿vale? Cualquier otra cosa y es donde, claro, de repente, es lo que es es un poco lo que han lanzado o es un poco la idea que se está lanzando para esta presentación de esta inteligencia artificial, siendo un pequeño avance nada más en lo que, digamos, en lo que estamos viendo ahora mismo, todos lo ha catalogado la los que están trabajando yo en la catalogan como que va a ser un poquito más humana. Es precisamente eso a lo que se está refiriendo, no es que vaya a ser humana, que va a tener sentimientos, te va a decir cuando te quiere y demás, que eso ya es si quieres, bueno, fundiéndose seríamos como hacerlo con con exactitud, ¿no?

No es una cuestión de humano, de sentimientos, es una cuestión de humanos decir no, soy capaz de interrelacionar patrones cosas que en principio eran muy separadas o que no tenían nada que ver para resolver cosas actuales y la verdad es que, bueno pues veremos a lo que va presentando.

Más bien, pues la verdad que esto puede ser algo bastante curioso, ¿vale? Porque al final aquí lo que tenemos es eso, o sea, yo ahora mismo, como bien ha dicho Oliver, todo el mundo da por hecho que se va a presentar GPT4, como hemos dicho, se adelanta que va a ser multimodal, que ofrecerá o sea que ofrecerá posibilidades completas diferentes a lo que estamos acostumbrados hasta hasta ahora, por ejemplo, vídeos y que pues eso pues que el será capaz de responder a peticiones de usuario en la forma de imágenes, música y vídeo. Eso es lo que se está comentando a partir de ahora, o sea tú imagínate el nivel al que podemos llegar y todo lo que supone eso, ¿no? A la hora de poder integrarlo dentro de sistemas, dentro de aplicaciones, dentro de Y al final hay una cosa que es, a ver, yo creo que un ejemplo perfecto, ¿vale? Para que entendamos cómo se puede unir y qué es lo que podemos conseguir cogiendo distintas cosas es un ejemplo que hemos visto esta semana presentado que es una nueva aplicación que se ha presentado llamada wonder estudio.

Esta aplicación creo que es una un ejemplo perfecto para entender lo que es la multimodalidad, ¿ok? ¿Por qué? Esta aplicación ahí donde la donde la veis podéis buscarla porque ha salido en varios medios, etcétera, es una aplicación que a grandes rasgos es capaz de coger a cualquier persona y convertirla en un personaje 3D. Tal cual. Es capaz de sobre un vídeo grabado tal cual con una persona sin ningún tipo de marcas de como las que tendría la captura de muy movimiento sin ningún tipo de aparato especial como los de avatar que te van capturando la expresión facial etcétera sin ningún tipo de nada es decir, una persona grabada normal y corriente, este sistema es capaz de sustituir a esa persona zona por un avatar 3D obviamente fotorrealista y traducir no solo sus movimientos corporales, sino también sus expresiones sus expresiones faciales, ¿de acuerdo?

Entonces esto ojito porque además se le une la posibilidad de la DT de los loops de iluminación de la escena para replicarlos y además esto es exportable a un real engine. Ahí, para que te quede el loco, ¿de acuerdo? Entonces, alguno diría, oh dios mío, qué maravilla, qué cosas tal. No, no, no, no. Perdón, esto es una multimodalidad.

¿Por qué? Yo a día de hoy con mi iPhone programando en visión computerizada, con los con la API de visión que tiene Apple, que es una API pues que bueno tiene una serie de elementos que permiten hacer múltiples cosas. Con esa API yo puedo capturar a una persona, esto es algo que puedo hacer desde hace un par de años, ¿vale? Yo puedo grabar un video de una persona y extraer traer de ese vídeo los huesos básicos de su cuerpo. Es decir, piernas, rodillas, pies, brazo con articulación de codo, movimiento de los brazos, movimiento de las piernas y movimiento de la cabeza.

Eso se puede hacer a día de hoy desde hace antes, desde hace un par de años. También puedo con el iPhone, ¿vale? Y es bastante simple a nivel de instrucciones. También puedo con el iPhone, crear un mapa de profundidad de una imagen que no existe. O sea que no existe el mapa de profundidad, me refiero, es decir, una imagen normal en el el sistema es capaz de valorar esa imagen y crearle un mapa de profundidad para saber cuál es ese mapa de profundidad, qué distancia está, si hay más que si hay menos, etcétera.

También con el iPhone yo puedo hacer captura de gestos manuales con la mano, ¿vale? Puedo detectar las manos, de hecho esto es una de las bases, de las futuras lentes de Apple que están por salir, que con el lidar y con el propio reconocimiento de lo que es la visión computerizada, pues yo lo voy a tocar todo con la las manos, ¿vale? Incluso hay una patente detrás de Apple de unos guantes hápticos que serían capaces de darme la sensación de que estoy tocando cosas en un espacio virtual a través de vibraciones dentro de esos globos, entonces de esos guantes. Entonces yo puedo detectar la mano con una precisión perfecta de lo que serían todas las articulaciones de la mano, los movimientos de los dedos, etcétera. Y también puedo detectar la lo que son lo que es la cara vale yo puedo detectar dónde están los ojos la expresión de los ojos la boca la el elemento facial, la nariz, etcétera, ¿vale?

Todo eso me lo da el sistema. De hecho, ¿qué son los animojis? Eso que hemos hecho todos con el iPhone diez hace hoy pues en año dos mil diecisiete, hace seis años prácticamente lo más bonito, lo más lo más guay que tuvo el iPhone diez eran los famosos animojis que yo me ponía delante del de este al hacer con la cara. Hoy mira tal y se movía la cara de oso panda y eso no era más que trasladar la captura de expresión facial a un muñeco 3D vale entonces es todo esto por separado se puede hacer hoy día y como digo papel lo permite hacer con sus algoritmos de visión de visión computerizada Pues bien, de pronto llega alguien y dice, vamos a crear un sistema que sea capaz de: Uno, hacer la captura de movimiento de los huesos de una persona para crear en tiempo real su esqueleto 3D. Y trasladarlo a un, digamos a un, a un elemento básico, porque eso también se puede hacer con el iPhone.

Yo puedo grabar ese esqueleto y luego aplicarlo a un modelo 3D distinto. Así que voy a poner que se puede hacer este tipo de capa de movimiento de un elemento voy a hacer que se pueda capturar las expresiones faciales porque se puede hacer voy a capturar lo que es el mapa de profundidad lo voy a crear desde el vídeo para saber la distancia a la que están los elementos y poder aplicar el mismo lo que es el mismo foco a los elementos. Voy también a hacer que hay una aplicación que permite que tú le pases un trozo de una película y que te capture, es decir, te entienda cuál es la iluminación de esa película y te genere un look que tú aplicas en tu vídeo plus y tienes la misma iluminación de pues la que usa el job project dikings en play ranner dos mil cuarenta y nueve vale y la has puesto tú directamente en tu propia en tu propia película en lo que sería una escena o una toma de esa película con la misma iluminación de una de las escenas de Blender dos mil cuarenta y nueve, por poner un ejemplo, ¿de acuerdo?

Al final estamos uniendo un montón de herramientas que funcionan por separado lado para que juntas hagan una funcionalidad completa y esto es lo que a día de hoy como ha explicado Oliver nosotros no sabemos hasta dónde puede llegar. Es decir, yo sé todo lo que se puede hacer por separado, pero cuando empieza a juntar cosas hasta dónde vamos a poder llegar. Esa es la gran pregunta, porque cuando empiece esta halla no porque a mí o a Paco o Antonio se nos ha ocurrido que esto puede ser guay juntando. No, no, no, esto que tú a la ya le digas oye hazme no sé qué y de pronto te encuentras que el resultado ha hecho una fusión de contenido que diga pero cómo se le ocurrió hacer esto y el caso es que funciona de maravilla. O sea, eso es un poco el tema, ¿no?

Sí, o sea, es decir, yo no sé hasta qué punto esto de Wonder, la el entrenar herramienta final que ha recibido, fíjate que No creo, no sé si es multitovar. Como tal herramienta. O si es una estructura común. Lo que estuvimos viendo tú y yo, que estuvimos conectados como un par de semanas lo del control neto de para ti de boli y eficiente. Entonces, porque tú al final tú puedes, digamos, hacer dos cosas, una por un lado es coger varias inteligencias artificiales y conectarlas a mano, podríamos decir de alguna forma a mano en el sentido decir oye.

Sí. Porque el resultado pase por Claro,

el fin. Primero pasa por aquí. Primero pasa por aquí. Yo te obligo ahora a pasar por aquí, te obligo a pasar por aquí. Y oye, este último lo haces tú solo pero todo lo anterior, te he obligado yo a moverte por ciertos sitios para conseguir un resultado.

Claro, lo suyo sería eso, es decir, justamente lo que has comentado al final, es decir, no, no, espérate, cojo todos, genero un entrenamiento nuevo y que teniendo todas estas herramientas por separado, se fusionen y como tú bien dices, que sea de lo que Dios quiera resultado que me da, que seguramente visto, lo visto, lo que hemos visto hasta ahora, el resultado será espectacular, es decir, pero ¿cómo ha hecho esto? Es decir, pero ¿cómo ha podido llegar a ese nivel, digamos, de abstracción ¿no? Para poder confundir también todas estas tecnologías, ¿no? Pero evidentemente ese es el camino, es justo lo que estás diciendo, ese es el camino que están siguiendo, es decir, bueno, yo ya tengo desarrollados, distintas redes neuronales, ahora voy a ver cómo puedo engancharlas entre ellas. Es decir, no solamente a nivel decir que sumen a ver si en un momento dado las puedo enterar para que para que se multipliquen, que eso es lo realmente interesante, ¿no?

Y este ejemplo que has puesto es increíble, de hecho, me me me mandaste una imagen que detrás de esto tienes a Fabrie, tienes a Spielberg, o sea, que no te hagas para que no que tienes detrás de de todo esto a cuatro que han salido de su casa, no no, no, no. Tienes a la gente más importante de la industria.

Tienes a Joe Russo, que es uno de los directores de Avengers. Es uno de los directores de Avengers. Eso es uno de

los directores

de Avengers. Eso es

uno de los directores de Avengers.

Eso es uno de los directores

de Avengers.

Eso es uno de los directores de Avengers. Eso es uno de los mejores amigos.

Eso es

uno de los

mejores amigos.

Eso es uno de los miembros. Eso es uno de los mejores amigos. Eso es uno de los mejores amigos. Eso es uno de los mejores amigos. Eso es uno de los mejores amigos.

Eso es uno de está asesorando, vale, son los asesores y luego aparte la mayoría de los accionistas de esta empresa son de pi games. ¿Vale? O sea, ojito con eso, ¿vale? De hecho, yo por ejemplo una cosa que, porque esto es un es un cambio bastante importante importante que van que no que van que ya están sufriendo los distintos las distintas formas de creación de contenido artístico vale yo la semana pasada fui al cine, a ver la película de de Kimenso no ya iba, de la película de Demol Schlager, la serie de de anime, básicamente la película que han estrenado pues son los dos episodios finales de la temporada anterior y el episodio nuevo de la nueva que ya se estrena el nueve de abril. Entonces en este primer episodio hay una, no hago spoiler, vale, hay una conversación en el castillo infinito que es donde Muzanki Buzzuyi, el malo, pues tiene a todas sus lunas superiores vale entonces ese castillo infinito se supone que es como una fortaleza tal del carajo tal igual esta chantera en 3D, ¿vale?

Entonces mezcla los personajes bidimensionales con 3D. Pues bien, hace planos imposibles. Porque mueve la cámara de una manera en la que empiezas a ver a los personajes 2D con movimientos que no son normales de ver en personajes 2D porque les da una tridimensionalidad y claro cuando yo veía aquello dije como puñetas han hecho esto. Claro, en los créditos finales estaba la puesta, utilizando tecnología de Cryenging. Estaban empezando a utilizar motores 3D para fusionar dibujo animado tradicional con 3D si a eso le mezclas el tema de stage craft que es lo que hace que es se hace con el real engine que lo que hace es generar los las proyecciones en pantallas led gigantes para que se ruede directamente ahí, que es una maravilla porque te ahorras tener que iluminar, porque en la propia el propia la propia pantalla, ya ilumina la escena, ¿vale?

Para que se hagan una idea. Si han visto la peli de Batman, la de la de Matt Reeves con con Robert Pattinson vale, pues esta película, todas las escenas que están en la parte superior de un edificio que está como en obras, que es donde se encuentran con Carl Woman y donde se encuentra con el comisario gordo y tal, toda esa parte está rodada en stage craft. Ese edificio no existe, es un escenario y todo lo de alrededor es una proyección 3D en el que el sistema va cambiando en tiempo real. Esto ahora mismo no emplea nada de inteligencia artificial. Esto ahora mismo es herramientas que tienen una capacidad, etcétera, etcétera.

Que va a pasar el día que esto se vea que va a pasar el día que la capacidad generativa y la capacidad o sea es que. ¿Te late? Es

que lo que va a pasar es una cosa que es como que ha pasado, lo lo habrás visto, porque tú y yo somos unos adictos de de Tik Tok. Una cosa que habrás visto en las últimas semanas en Tik Tok, es el famoso filtro de esta de la pequeña, como doña el el filtro este que te hace guapísimo de repente, que lo,

y que te pones la mano delante y no se estropeó.

Ahí es donde viene la gracia, es decir, todo el mundo está alucinando con el filtro, porque no es una superposición 3D como era hasta ahora, no era una especie de simulacro de realidad aumentada, sino que cada programa está lado por una por un sistema de inteligencia artificial, y por lo tanto, pues claro, no hay forma de que estropees el efecto poniendo una mano delante, de que te gires la cara, de que, no, el efecto está siempre efecto, ¿por qué? Porque es que está generada la imagen que tú estás viendo en pantalla, fotógrafa a partir de una red neuronal que lo va cambiando, y por eso ha impactado tanto, porque es que realmente, o sea, a ver los que estamos ahora, porque algunos que estamos ahora obsesionados todo el día mirando cada imagen que te pasan diciendo, no, aquí hay, esto está editado, esto aquí es Machinlandia.

Y él está de sea suave. Sí,

sí, aquí hay mucho más, ya no decimos aquí en Photoshop. Aquí hay machine learning, aquí esto esto está muy bien generado, ¿sabes? Es decir, hay mucho, pero es cierto que tú ves ese efecto de forma completamente objetiva y sin pensar en ello, y vamos, es absolutamente real, o sea, si tú no tienes forma de saber, eso está está manipulado, ¿no? O sea, es es totalmente imposible. Entonces, perdón.

Ese es el tema de lo justo lo que está comentando, es decir, es que estamos viendo herramientas muy potentes que están solucionándolo todo, pero que es que cuando con sistema de inteligencia artificial. De luego yo se lo decía a Eli, justo por lo que has comentado tú ahora mismo. Digo, la temporada número cuatro de Mandalorian, se hace con el con el stage este y con el el al pobre al pobre Pedro Pascal ya le van a tener que estar metiendo todo el día a la armadura encima, va a poder actuar tranquilamente fresquito y sin tasarse. ¿Por qué? Porque cuando terminen, le van a estar en el modelo tres D con la reflexión de reflexión, ni la madre que parió de la armadura y se acabó, y es terminado.

O sea, lo hablábamos por la película de X-Men, tú fíjate la Jennifer Lawrence, vestida de mística, ocho horas de maquillaje todos los días, eso se acabó. O sea, con esto, eso se acabó cuatro pinceladas a lo mejor de azul para para rellenar mis propios huecos, pero

yo sé que yo sé que esta historia va a darle miedo a más de uno, pero Tom Holland como Spiderman, bebía por los ojos.

Sí.

Y no y no queráis saber cómo iba al baño.

Sí, sí, sí, sí, muy, todo muy desagradable, sí, sí, sí, completamente muy grave. Exacto.

Y ahora, porque todos sabemos que el ahora ya en las películas muchas de las tomas que hay de Spiderman son cien por cien digitales ¿vale? No es un Spiderman real, no es Tom Holland dando cabriolas, en algunas planos sí, pero hay otros que son un poquito más alejados donde cien por ciento digital, como tú dices, Tomb Holland se graba normal y luego le arrastran crack a pluma ya tiene ahí. Claro. Spiderman. Es un poco el cambio, lo vimos perfecto la mente, el gran cambio entre el final de la segunda temporada de Mandalorian con aquella cosa no vamos a hacer spoiler, aquella cosa de dik fei que quedaba raro y que cuando lo veías decías uf, esto que pasa así, pero no.

Claro, será como como lo que pasa con Rogue One igual utilizan a Peter Cushing la cara de Peter Cushing impuesta pero lo que estaban haciendo ese deep fake vale que es por ejemplo el comienzo de x men tres que se ve a a Xavier y a Marneto, a los dos rejuvenecidos, y es que, o sea, es como uf, dios mío, qué qué Grimalan, ¿no? Entonces, ahí lo que estaban intentando era poner un, digamos, una textura 3D encima de una cara real y más o menos buscar la sincronización en el momento en el que contrataron a un chaval que hacía vídeos en YouTube y que utilizaba algoritmos de machine learning para hacer un disfraz real, no una sustitución de poner una textura 3D encima de una cara real, que que es el valle inquietante era así como un poco de aquella manera, ahora tú ves a este mismo personaje en el libro de Boba Fett con una iluminación perfecta de día y dice bendito sea el poder de dios o sea ahí no tiene forma de ver que hay un efecto y que en realidad no es el rejuvenecido, y de hecho esto lo vamos a ver enseguida porque de hecho yo lo comenté pero ya se ha confirmado por el propio actor que hay una gran parte de Indiana Jones y el dial del destino en el que Harrison Ford está rejuvenecido porque tiene una escena completa cuando él tenía treinta años, que la ha rodado ahora, pero le han rejuvenecido todo el cuerpo y el resultado gente que lo ha visto, que se filtra medio milisegundos en uno de los trailers, ¿vale?

Dicen que es absolutamente impactante y esto es inteligencia artificial aplicada como una cosa concreta, monomodal de una función concreta que yo aplico. Ahora imagínate O sea, el otro día me lo recuerda con alumno. ¿Recuerdas el famoso vídeo de Obama de hace unos años que salía Jordan Peele diciendo ojo con lo que podemos escuchar en redes porque tal no sé qué, papá papá y aquello estaba hecho cuando en el creo que era el año dos mil dieciocho. Hace seis años. O sea.

De hecho fíjate. Que el otro día tú y yo hablamos de una cosa que Creo que no es que es mejor no mencionar aquí. No, no, no es una Tenemos y se menciona un público alguna vez. Pero yo, igual que tú, Julio, que tenemos dentro de nuestro pequeño mundo, es decir, que al final no no no no tenemos una audiencia tan grande, ¿no? Pero que, pues tenemos una digamos, una cara pública en la que, pues, tenemos mucha información nuestra en las redes y demás, yo ya estoy, yo ya he encontrado algunas formas de protegerme estas cosas, por lo menos con la gente que tengo alrededor, porque yo a mí no me cabe la menor duda de que en muy poco tiempo, muy muy poco tiempo, las estafas y los problemas que vamos a tener con este tipo de cosas van a estar al orden del día, porque

bueno yo te mandé una prueba que yo Sigue en tremendo. Sigue en tremendo. De hablando en inglés, y a ver, por la calidad se nota que el audio lo tienes muy bueno Julio.

Es lo de siempre. Pero tú y

yo que tenemos oído entre nosotras. Por eso

te estoy diciendo es decir es porque muchas veces es decir a mí ya me mandan lo que me manden me lo manda hasta mi padre algo lo primero que miro es no estar esto hecho por inteligencia artificial. Es lo primero que hago, porque eso no lo puedo evitar. Para cualquiera que no esté a ello, porque esté a la otra cosa, digo, como estamos todos a lo largo del del día, la mayoría de las veces no vas a poder percibir que eso no es real, es que no vas a poder percibirlo, ¿no?

Bueno, de hecho ese misma es alguna grabación vale para el que no lo sepa yo utilicé un servicio que hay ahora mismo en internet para entrenarlo para poder hablar en inglés vale yo entre una serie de frases y tal pues para hacer una prueba con mi voz sobre una serie de frases que te va dando grabé como ciento y pico de doscientas frases Y claro, a ti te lo mandan a nivel normal y bueno, pero ¿es tú que eso puesto en una llamada telefónica?

No, es eso, sin distinción. Cuela. Fuera. Fuera. Fuera.

Absolutamente. Fuera. Absolutamente. Absolutamente.

Y bueno, no tienes más que preguntarle a cualquiera de las personas que han tenido que hacer voces sintetizadas pues como nicky García que es la voz de de Google o un fin de cosas así en el que de pronto pues o los amiga Idache Gómez que que también pues hizo que hacer la primera city que además es la la voz de voice over ella estuvo semanas teniendo que grabar pequeñas frases citas y ala para arriba y ala para abajo y ahora no sé que ella no sé cuál es un infierno que yo, en quince minutos grabando frases en inglés, me haya generado un modelo de voz que en teléfono da el pedo.

No, es objetivamente mejor que lo que pueda hacer Google. Sí, sí está, no sirvió, es objetivamente.

Entonces dice, hostia, espérate, o sea, ¿dónde vamos a llegar? Y quien dice eso, dice pues eso, representación de imagen, su plantación, porque igual que tú sustituyes y de pronto puede ser, pues puedes pasar de ser tú a ser, pues eso el mandaloriano, con el traje puesto, con sus reflejos y todo, ¿vale? Pues fin, yo puedo ser Dyndarín, pero a lo mejor eso se puede usar también para en fin, para generar un video donde yo diga algo que en realidad no lo estoy diciendo

y no

lo he dicho nunca. Y ahora, en fin, ponte a probar eso, o sea.

No, sí. Se veía de tiempos complicados. En ese sentido es complicado, no, en otro sentido maravilloso. Yosos, pero desde luego en ese sentido complicado. De todas formas

Claro, pero toda la tecnología es maravillosa cuando se usa bien y toda la tecnología pues son peligros cuando se usa mal obviamente.

De todas formas, tenemos una segunda segunda parte ahora, que es la realmente interesante y es que al final. Todo es todo lo que hemos hablado es simplemente la especulación de lo que sabemos y es la base de lo que van a presentar, pero claro, no nos olvidemos, que para Microsoft todo esto coño está muy bonito, está genial, porque es la base de la tecnología, pero ellos quieren productos. Es decir, que es al final lo que van a presentar esta semana.

Sí. Microsoft no es una empresa de publicidad.

No, no, claro, claro. Y a cómo

me gustó esa frase.

Claro, ellos ellos necesitan sacar productos, poder ofrecerles a sus usuarios en función de toda esta tecnología, ¿no? Y aquí donde ahora sí que vienen las especulaciones a mí me parecen realmente interesantes, ¿no? Empezando con la filtración estupenda de nuestros amigos de Intel, ¿vale? Es decir, que esa ha sido maravillosa en la que directamente han gastado, que para Windows doce la base de Windows doce es inteligencia artificial. Ya está.

Por si alguien le quedaba la más mínima duda.

Ya podemos finalizar el problema. Más.

Sin duda ya lo sabéis, a Windows once, basado en inteligencia artificial, que también os digo, tampoco hay que ser einstein, porque yo se lo enseñé a Julio, otra de las cosas que hice con con ¿cómo se llama esto? Con con la API de app y decirle vamos a hacer vamos a hacer vamos a hacer una cosa, a partir de ahora eres el prompt del powersell de Windows, cada vez que yo te pida algo, conviértemelo en la línea

de una de las pruebas, porque yo tengo también hiciste otra gente.

Tengo notas y algunas se pueden encontrar otras cosas. Eso lo tenemos todos claro. Es decir, el que me conozca sabe por dónde voy, pero sí, esa es una de las pruebas que hice, decir oye no quiero que me respondas en proms de Windows, si yo te digo, por ponerte un ejemplo, cámbiame la resolución de mi pantalla principal a mil ochenta, ¿vale? Y que él directamente me tire una línea del front de Windows, que si yo la ejecuto en el power set, pase en pantalla. Vamos a ver si eso lo he hecho yo.

Literalmente, en siete minutos, que no puedo hacer ni cosas con su propio sistema, que qué ridículo cómo no van a hacerlo. Es que sí, es que es que no no tiene sentido no hacerlo. Entonces, eso eso es evidente, ¿no? Claro, ahora tema será cuál es la integración que van a hacer con el resto de los de los servicios. Ya hemos visto algunas, ya hemos visto, por ejemplo, ya hemos visto todo el tema de Teams, hemos visto, por ejemplo, ciertas integraciones de Daly en Word y en y en PowerPoint, Evidentemente creo que uno de los pasos store, si quieres ahora lo lo discutimos, uno de los de los siguientes pasos donde van a meter mano va a ser que además está de las herramientas más útiles en Outlook, y por eso no creo que sea coincidencia, que han liberado Outlook para Mac.

Qué curioso, ¿verdad?

Qué curioso, por qué ahora ha podido pasar.

De pronto Outlook sale de Microsoft tres seis cinco y ahora es gratuito. A todo

el mundo. También es ocupado

todo el mundo.

Tengas Windows, tengas Mac, tengas lo que tú quieras, puedes utilizar AUT, evidentemente porque yo creo que es una de las herramientas en las esta gente lleva a entrar de cabeza, porque es que yo se lo lo lo se lo comentaba a Allie. Digo, tú imagínate, yo se lo decía por su trabajo que tú puedas recibir un correo que la respuesta al correo es la información la tienes en tal sitio, tal sitio y tal sitio de estos adjuntos, y que lo único que tengas que hacer es decir espérate, yo sé que la información está en esos adjuntos, la cojo lo arrastro y que automáticamente se genera el texto diciendo la información la tienes en este punto, en este punto, en este punto, en este punto, en este punto, porque cuando arrastres el el lo diré, cuando arrastres el adjunto adentro del correo, lo que se haga es un análisis rápido para meterlo dentro del contexto y que ya sepa dónde contestar. Es que es obvio, tengo que decirlo así, pues aquí son son funcionalidades que es que serían idiotas si no las metiesen y están demostrando que no son idiotas. Están demostrando que van un vaso por delante de nuestras ocurrencias.

Sí. Con lo que el que no el que no se me ocurre que pesa decir, no sé, o sea, yo te digo, no sé exactamente cuál es el alcance de lo que van a presentar esta semana, pero es que claro viendo al ritmo que van, pues, yo no sé, a lo mejor llevo el hate muy alto, ¿no? Pero pero yo sí espero sorprenderme. Yo realmente sí espero

Yo, a ver, yo yo tengo el hate muy alto, sí, pero es que no es un hate, no realista, ¿vale? Claro, claro. Es que volvemos a repetir, es que nosotros para el que se ponga a mirar el histórico aquel día entrevistando a Jipeta porque la entrevista Jipeta fue la mitad del programa, la otra mitad hicimos algún que otro alguna que otra predicción que luego se ha ido cumpliendo porque no porque seamos más listos que nadie sino porque es obvio que con lo que hay pues puedes ir a eso pocas semanas antes de que Microsoft presentará Bing Copylo, dijimos, imagínate que esto lo meten en Bing y Oliver decía hombre, por supuesto es que si no lo meten en Bing que ser tonto, metido en Bing, dijimos oye y que coja un PDF que tú tengas con documentación y que le digas resumen el PDF y ahí está el copylo. Pum, paz, resumen del PDF. Que sí, que es mejorable, que sí.

Que tiene que mejorar. Que tiene que mejorar.

Por supuesto.

Pero va a mejorar ahora. Pero hostia, el trabajo que te ahorra?

Lo es eso lo es. ¿Y el trabajo

que te ahorra? Claro, es que ese es el que de la cuestión. Entonces, yo doy por por hecho, para mí, yo doy por hecho varias cosas. La primera, relación de respuestas rápidas para el correo automatizadas. Directamente, cualquier email que te llegue, una respuesta rápida del tipo.

Muchas gracias, recibe la información, tal y cual, un saludo, tal, tal, tal. Eso va a estar, vamos así como plus directamente, ¿vale? Y además probablemente lo metan dentro de la suscripción de Microsoft tres seis cinco como algún tipo de añadido lo que sea en distintos niveles a lo mejor tiene una parte gratuita y otra parte que es un poco más profunda vale luego búsqueda de correo o sea por favor, o sea, dime un puñetero cliente de correo que sea capaz de buscar en correos de año de manera contextual, de una manera buena y correcta. O sea, ese es el gran, es uno de los grandes agujeros a nivel de productividad. El de oye, me enviaron un correo hace unos meses pidiendo no sé qué, y qué correo era y de dónde venía y encima ahora tienes el hilo porque son veinte o treinta respuestas uno detrás de otro que tú cojas y en una búsqueda real le digas oye quién escribió o cuándo me escribieron o dónde está el correo que y sea capaz de contestarlo dinámicamente.

Es que es que fíjate una cosa, Julio, esto lo hablábamos el otro día. Es que para más inri, lo que es el motor para el que se pueda basar, para hacer eso, ya lo tienen, y es que Microsoft el sofis, el Microsoft tres seis cinco, como lo que era es que ya mucha gente me cuesta trabajo saber cómo lo llaman porque la cambio el número veinticinco veces.

Sí porque ahora ya no es office.

No, ahora

ya no es

un mito de ese. Tres cinco. Si no me equivoco. Creo que es el Sí, a lo mejor mañana cambian, ¿no? La verdad es que no lo sé.

Pero, por ejemplo, o sea, no son las cuatro o cinco aplicaciones a las que estamos acostumbrados de el Word, PowerPoint, Out. No, no, no, no, no. Tiene como treinta aplicaciones detrás. Y una de ellas, que yo te lo decía, que es súper útil, todo para los que trabajéis en con oficinas grandes y tal, os las recomiendo, solo se puede utilizar online, se llama Delbe, y esa esa aplicación lo que te permite es llevar un digamos, una especie de histórico de comunicaciones interpersonales con el resto de tu empresa, ¿me explico? Tú te metes en Delbe, y dices vamos a ver, quiero buscar todas las interacciones que he tenido con esta persona y te casca, todos los correos electrónicos que has intercambiado, todos los correos electrónicos que ambos habéis estado, por ejemplo, en el con copia, todos los mensajes que habéis intercambiado, todos los archivos de la empresa en los que ambos habéis modificado cosas, todos la te viene el organigrama de esa persona, de quién es su jefe, quién es tan sus compañeros y de y quiénes dependen de yo soy decía Julio, digo yo que digo llevo conociendo esta herramienta cuatro o cinco años, y yo en algunas reuniones que me interesaba, porque yo yo me venía bien para mí, yo iba a la reunión y parecía que tenía superpoderes, ¿por qué?

Porque no había hecho nada especial. Simplemente antes de la reunión había dicho quiénes vamos a estar a la reunión estos estos diez, ¿vale? Del con esta persona. ¿En qué momento coincido yo con esta persona? Ah, este es el retrasado que me dijo esto, ay perfecto apuntado.

Este es el que me dijo no sé qué. Cuando ¿Y usted quién es? Ah, que este es su jefe, ningún problema apuntado y es su jefe, ya verá, le voy a tirar por aquí. ¿Y usted quién es? Ah, mira, sí, este fue el que me pasó información, esta, esta, y esta, y esta, perfecto.

Ya sé exactamente, ya lo ubico. Pero bueno, prepa la beca cuando llegaba a la reunión, yo la reunión que se estaba enterando de lo que estaba pasando allí, porque porque claro es muy difícil, muy difícil cuando tienes una empresa muy grande el poder ubicarte donde estás cuando estás discutiendo con alguien. Sí, sabes que este del departamento de tal, sabes que este del departamento de cual, y conocerás muy bien a tres personas de la reunión, pero al resto de dices es que no les ubico bien, y lo que te permite esa herramienta es hacerlo, joder si ya tengo esa herramienta, pues tú prefieres hacerlo fácil que es, pasarle por encima ese entrenamiento. Pues claro, es que si es que si ya tienes las entregas, las herramientas hechas por detrás y encima tienen un sistema de inteligencia artificial que es capaz de beber de esa información para darte respuestas naturales, madre de Dios.

Efectivamente. Entonces al final toda esa integración con Outlook va a ser brutal pero tú imagínate las integraciones con Word de Adne integración de de de incluso fusión de datos. Es decir, tener un Excel donde tengas un queso a día de hoy lo puedes hacer de manera manual.

Sí. Puedes

hacer una macro, que coja unos contactos que tienes en un Excel, que haga, no sé qué, que tal y cual, pero si lo tienes todo dentro del sistema tú coges en Word y le dices mira a toda la gente que está en este grupo de tal vez dentro de mi agenda a enviarles un un email que diga, o sea, o prepararme una carta de presentación de tal, de no sé qué, para sacar, sacar, sacar, sacar, sacar, sacar, sacar, y y te genera automáticamente el modelo que luego directamente te genera la macro y que tú puedes directamente lanzarlo desde ahí creación de todo tipo de elementos. Por ejemplo, tú sabes lo que es algo tan tonto y que ya se puede hacer a día de hoy, pero que lo tengas integrado en Word como oye me he me he quedado tascado y no sé cómo seguir este documento. Escríbeme cuatro líneas más.

Sí. Eso es tremendo.

O sea, eso

es tremendo.

Eso es tremendo.

Eso es tremendo.

Y eso integrado dentro del Word, ¿vale? Ya no no es me tengo que ir a Chad GPT ponerle tal, no, no, no, no, ya sabe cómo es tu documento, ya lo ha leído entero y lo está leyendo en tiempo real, y tú llegas y dices, hostia, y ahora que pongo. Sugéreme como sigo. Tu tu tu tu tu tu tu hostia. O sea, ya no es Volvemos a lo mismo.

No es decirle que haga o que deje de hacer dentro de la pisino en las herramientas que usamos en el día a día. Eso va a ser un cambio brutal de generar un Excel con todos los contactos, con tal consumir, con no sé cuánta, genérame una base de datos en Access, Adne, no sé cuál, o sea, todo ese tipo de cosas cosas o hazme una presentación que tal, pues ahora ponme mira, yo fíjate, hoy veía, ¿vale? Porque una de las cosas que yo estoy viendo ahora, porque soy un señor mayor, ¿vale? Es Star Trek la nueva generación, ¿vale? La serie de los años noventa, ¿de acuerdo?

Bien, pues estaban intentando resolver un problema sobre lo que era una transmisión que estaba, que había recibido y que no sabía muy bien de dónde venían y eran capaces de ver la codificación que tenía, y estaban data, el androide, estaba Wesley Craser, si no recuerdo mal, y estaba también el capitán pick up. Y creo que estaba también la Force, ¿vale? Yordei, que estaba ahí, también los cuatro. Bien. En ese momento he tenido esa IP Ifanía que hablamos en su momento de Iron Man?

O sea, toda la todo el trabajo de análisis era ordenador, coge tal elemento procésalo de tal y cual, pásalo por no sé qué filtro tal y cual y dime cuál es el resultado de no sé qué. Procesado. Ordenador. ¿Cuál de ese proceso que hay qué frecuencias corresponden con la frecuencia? Desde el no sé qué megahertziotal al megahertzio cual no sé cuánta, hay cinco coincidentes.

Hoy ordenador de esas coincidencias cuales corresponden a tal y cual esta. Así es como manejan los ordenadores en Star Trek. Eso va a llegar.

No sólo eso sí.

Eso es lo que va a aportar la inteligencia artificial.

Sino una cosa incluso más bestia, ¿no? El otro día vi un video de YouTube, es ahí medio mundo haciendo experimentos entonces Poncha GMD, un muy ya de YouTube que él lo titulaba, he conseguido programar un era como una especie no no no anerugulizable, era era un cross no sé qué es un efecto de para las guitarras eléctricas. He conseguido programar un efecto de guitarra eléctrica, ¿no? Yo lo llamaría, soy el tío con más paciencia del mundo. Porque el el vídeo lo que demuestra el yo, no, no, de verdad que tiene mucha paciencia, pero claro, te hace una demostración de que realmente las posibilidades que tienes estos sistemas son casi infinitos lo que pasa es que muchas veces lo que no tenemos es la paciencia para ir recorriendo paso a paso lo que puede llegar a hacerlo.

Y es que este tío pues le gusta la música y estaba utilizando no recuerdo que Down, me parece que era Protools, si no si no me equivoco, ¿no? Estaba utilizando un Down, pues para grabar sus pistas música y tal y quería crear básicamente lo que quería era crearse su propio efecto. Entonces dice dice mira voy a intentarlo hacer desde cero pero desde cero cero, no tengo ni idea de cómo se hace esto. O sea, yo yo no es que mi idea es no sé de qué va el tema, sin más. Entonces lo que le dices es mira, quiero crearme un efecto de tipo, no sé qué, para mi guitarra eléctrica.

¿Cómo podría hacerlo? Claro, de primer HSBC. De lo que te da es son largas. Y bueno, para eso tú tendrías que saber electrónica, no sé qué, no sé cuánto, para ti y que para ti, que otra. Le dice, vale, estamos de acuerdo, pues vamos por partes.

Venga, si yo tuviese que utilizar algún programa para crear esa herramienta, ¿qué programas hay? Pues mira, los programas que se suelen utilizar para estas herramientas son esto, esto, esto, esto, este, este y este, habitualmente no para si quieres decir mal, yo utilizo Pro Tools, ¿cuáles son las de estas herramientas que me has dicho más se suelen utilizar para hacer efectos de Pro Tools. Pues mira, la que más se suele utilizar son estas. Vale, se descarga la aplicación correspondiente, se la instalas, se abre y se la deja puesta. Muy bien, le dice mira, no sé por dónde empezar, ¿me podrías explicar qué archivos tengo que generar o qué código tendría que escribir o qué tendría que hacer, porque no lo sé, para poder generar ese ese filtro, sí, mira, pues para poder generar ese filtro resulta que necesitas tres archivos, un archivo que dé unas dependencias de unos archivos de unas importaciones de unos tal, unos cual, un archivo que lo que haga es la definición matemática del filtro como tal, y un archivo que lo que describa es la conexión del instrumento con lo que efecto.

Pues mira, vamos a empezar con la parte de la importación, ¿cómo sería el archivo de importación de todo este tipo de cosas? ¿Qué debería añadir? Pues mira, no debería fallarte si añades estas importaciones de aquí, que son las básicas, para poder hacer un filtro del tipo que quieres. Perfecto. Coge y se va la segunda parte.

¿Y cuál fue el podría ser la aplicación matemática para poder hacer este filtro. Pues mira, sería esto, esto, esto, esto, esto, esto, vale, perfecto. ¿Y ahora cuál sería la del último archivo que me han dicho? Que no sé ni lo que tenía que hacer, Por favor, dime qué es lo que tendría que rellenar. Pues mira, sería interesante que rellenes esto.

El tío lo coge, lo ejecuta y le tira un error. Le pone el error. Me ha tirado este error, ah vale, porque claro es que con el filtro que te he puesto luego no habíamos incluido esta librería que ahora sí es necesaria. La pone, al tío le compila. Dice perfect efecto, y y ahora que tengo que hacer, pues mira, ahora tendrías que irte a archivo con Pilar, no sé qué exportar, hacer no sé qué y te generaría tal archivo, ¿vale?

Cómo hago para meterlo en el lado, pues bueno tendrías que ir a la carpeta, no sé qué, meter ese, y tenía un filtro de guitarra eléctrica funcionando un tío que no ha tocado un ordenador en su vida. O sea, es de putos locos, o sea, es decir, es que es lo que te digo muchas veces es que lo lo que no hacemos es tener esa paciencia, es decir, no sé que me lo haga de golpe, bueno, pues a lo mejor todavía no está en ese punto, ¿no? De poder hacer dos esos pasos, pero si tú le vas guiando digamos, ante tu propia ignorancia, no no tengo ni idea de cómo es esto. Por favor, explícame la pasa, resulta que paso a paso sí que lo sabe hacer.

Pero ya no solo en la ignorancia, cuando lo guías en el conocimiento es todo lo que sea mejor.

Claro claro claro claro claro

claro porque si lo guía porque claro tú te paras yo lo que realmente me ha hablado la cabeza era que como he dicho en ese momento estaba Wesley Craser que se supone que es una eminente chaval prodigio ¿no? Del tema de de la ingeniería y tal y cual está Yorki, que es el jefe de ingeniero, esta data que es un androide pero también está picar, que picar es el capital no tiene por qué saber de eso. Claro, picar no aporta nada. Picar no le dice al ordenador a tal cosa. No, ahí es un tour de fotos entre data, que es androide y el mismo procesa lo que tiene que hacer, Yordei, que es el jefe de ingeniería y que tiene un conocimiento brutal y el niño prodigio, y al final entre los tres dando instrucciones al ordenador, consiguen resolver un problema realmente muy complejo, porque con su conocimiento saben darle las instrucciones específicas y concretas para que haga cada uno de los pasos del procesamiento, que es lo que hablamos en su momento de el efecto Tony Stark, o sea, en fin, ya te digo, o sea, el ordenador de del Enterprise lo puede usar cualquier persona de la el price, pero solo Yordei, Data y Wesley son los tres que pueden conseguir que ese ordenador llegue a ese análisis y encuentre la solución a un problema, porque requiere del previo conocimiento una persona para obtener un resultado en un tiempo más rápido, ¿vale?

Por eso yo muchas veces insisto en lo mismo, porque siguen repitiendo hoy otra vez el para que con esta inteligencia vamos a ir todo al paro. No, los que van a ir al paro son los que no usen esto en su trabajo, ¿vale? Esos son los que van a ir al paro, porque todos los trabajos, ¿vale? Y y y vamos a lo de siempre, es decir, no es que nos van a dejar a los programadores en el paro, por empezar por por mi propio sector. No, lo que van a conseguir es que un programador pueda hacer una aplicación, en semanas, en vez de meses.

Es así de simple, porque va a ser más eficiente, porque va a ir a la solución de una manera mejor, porque va saber qué pedirle a un sistema y por qué la respuesta va a poder ser valorado por ese programador que sabe programar y decir no no mira esto está mal esto hay que cambiarlo aquí no esto no se cuenta ay sí es verdad tal como yo yo a ver corrígeme si me equivoco si me equivoco yo en base a lo que es la información que tienen de entrenamiento Yo no creo que nunca, una y ya sea capaz de hacer cosas muy complejas por sí misma, por sí misma en un solo paso. Yo creo que nunca llegará el decir, hazme una aplicación que haga, no sé qué, tal y cual. A lo mejor con soluciones muy, muy, muy, muy, muy, muy simples, de las que hoy día se pueden hacer en soluciones no code, eso sí te lo podrá hacer porque al final son cosas muy sencillas, pero cuanto más complejo sea el sistema Barrexa, la inteligencia va a ser capaz de hacer cada uno de los pasos, pero no ordenados hacia ese objetivo.

No sé si soy capaz de

Sí, entendiendo. Lo que pasa es que ves, hay hay yo creo que discrepamos un poco, porque claro, yo no lo veo a corto plazo, ni medio, O sea, si yo yo cuando digo esto,

bueno, no

estoy hablando de a corto ni a medio plazo, pero claro, o sea, al final una de las cosas que va aumentando en cada iteración que van haciendo está sin inteligencia es el número de millones o billones de parámetros que van que van metiendo a esa a esa red neuronal. Yo entiendo que a medida que se vayan haciendo más grandes, el nivel de complejidad que son capaces de admitir, por decirlo de alguna forma, será mayor. Y a medida que vaya siendo mayor, claro, llegar a un punto en el que lo que para ti, en tu cabeza, Sol, pues veinticinco pasos para algo que es mucho más complejo sea un paso, porque tú al final tú coges mucha de las cosas que tú haces en tu día a día, ¿no? Normalmente podríamos decir operaciones matemáticas a cualquier cosa. Entonces, muchas cosas que las haces de cabeza sin necesidad de dividirlo en varios pasos, es decir, a ti te dicen, pues yo una regla de tres, de veinticinco sobre cien, de doscientos, dice, pues cincuenta, lógicamente, ¿no?

Es decir, pero bueno, tú has hecho operaciones en tu cabeza, has hecho dos o tres operaciones. Lo que pasa es que son tan obvias, son tan sencillas que las has hecho del tirón. Yo creo que es una cuestión de tiempo pasa que es que yo creo que aquí es aquí es la parte que se malinterpreta, es decir, sí, que lo que estamos viendo es una locura, es una maldita locura, yo creo que eso estamos todos de acuerdo no significa que para pasado mañana esto vaya a sustituir el trabajo, no no vamos a relajarnos. Lo que va a pasar es lo que es lo que tú has dicho, es decir, el que no se vaya habituando desde ya utilizar todo eso tiene un problema. Tiene un problema pero tiene un problema porque el problema lo tiene y esto que algo va a sonar como muy muy muy entrista, ¿no?

Pero el problema lo tiene contra mí. Porque voy a ser yo el que le quite el trabajo, no la inteligencia artificial. Claro, no, esto ya lo he hecho, es decir, yo no sé, lo siento, si me estoy repitiendo con esto, no lo sé, porque no recuerdo si lo comenté en el en el último capítulo. Una empresa de un de una conocido, amigo, se tuvieron un problema con un diseño de una camiseta, el problema muy sencillo, y es que el, o sea, es que es es es un problema simple, sencillo, fácil es que la persona responsable de tener que manejar el hacer el diseño para una tema de marketing y tal, se le pasó, se le pasó, ya está, es decir, nos puede a cualquiera, se le pasó. Oscar, necesito el diseño para pasado mañana, literal, llama a su agencia de de diseño.

Le dije, oye, mira, lo siento mucho, tengo un problema y es que necesito un diseño que cumplan con todo esto que te voy a decir, pero es que lo necesito para mañana. Y claro, lo comprendo perfectamente, porque lo comprendo, porque muchas veces no se ponen ni ciertas cosas. Yo lo comprendo, es decir, que las de diseño les mando a tomar por culo, les dijo mira lo siento, ¿no? Nosotros tenemos pactado que los diseños son mínimo diez días, podemos hacer excepciones a una semana cuando las cosas se ago. Pero desde luego para un día, para otro no se puede.

Claro, se forma una situación complicada y una persona de esta empresa dice, pues yo conozco un freaky de mierda, que lo mismo si hablamos con él nos da una solución, o sea nadie está diciendo que sea una solución óptima, nadie está ir diciendo que sea una solución del de de mejor que la agencia de diseño. No, no, no, no, no, no, no había dicho eso, ha dicho una solución. Entonces me llaman y me dicen oye mira, qué necesita hacer esto. ¿Tú crees que podrías, digo, tienes más alternativas, no? Dame tres horas.

Dame tres horas. En tres horas le lancé diez posibilidades. De las que le encantaron tres modificamos las tres, las terminé de retocar en una hora después, en en un programa de diseño vestial y salieron las camisetas? Pues lo siento mucho por la empresa que tiene unos cuantos trabajadores y demás, pero lo siguiente que me preguntó esta empresa es, ¿y tú no querés trabajar para algunos otros para estas cosas? Sí, porque tu respuesta no ha sido la de empresa de diseño, sí, ellos también comprenden a a a la empresa de diseño, pero que no tengas posibilidad de darme una solución rápida, en un momento dado me es muy perjudicial.

Es que muchas veces esa parte no se entiende que a veces una cosa es el trabajo bien hecho y otras veces oye es hay circunstancias te pongo un ejemplo, ¿vale? Que yo yo creo que con esto se entiende bien.

Yo lo veo, a ver, yo lo veo muy claramente, es decir, si esa empresa de diseño tiene a un tío, aunque sea uno que maneje esas herramientas hubiera podido dar una solución sabiendo que era de menor calidad pero una solución y no hubiera perdido cliente.

Claro. Es que es que es tal cual que muchas veces no se entiende que hay situaciones que se límite, que son complicadas. Yo yo les pongo un ejemplo, de cómo un compañero mío en la segunda empresa en la que trabajé, se llevó un bonus de dos mil quinientos euros y además muy merecido. Verdad que hemos invertido son estas cosas que dices, uno, aplaudo al chaval por la idea que tuvo, y dos, aplaudo a la empresa por decir, hostias, muy bien tío. Algo tan simple como esto, tenemos un equipo de dos millones de euros metido en el en el la fábrica.

Tiene que salir para mañana, y ha habido un problema en el transporte y se han perdido unas chapitas, Julio, unas chapitas de de de cinco centímetros por centímetro de ancho, en las que vienen inscritas, ¿vale? En las que vienen inscritas los tags de las distintas instrumentaciones que tiene la bomba. La bomba no puede salir del del del la de la fábrica si no tiene puesto los tags. Y cada día, cada día que está en la fábrica se pierden cien mil pavos. Y estimación de nuestra empresa de tax tres días, trescientos mil pavos, y dijo chaval, ir preparando el envío que yo lo arreglo.

Que yo lo arreglo salió corriendo desapareció volvió a las cuatro horas ¿sabe lo que había

hecho? Imprimir la gente.

Se fue a un corte inglés hizo que la parte de los le le le cedí gracias en los taxes en en las porque las chapitas las teníamos. Costo la broma, me parece que tres mil euros o algo así una barbaridad. Pero claro, tres mil euros frente a cien mil de perdida todos los días es una solución cojonuda. Es la óptima que o va a ser la óptima ver a un guión el corte inglés, poniéndote t guión doscientos cero uno a. No, claro que no es una solución óptima.

Mamá. Entonces, al final esta es la parte que hay que entender, que que en este corto medio plazo que vamos a tener en el que vamos a estar conviviendo con todas estas herramientas, hay que hacerse a ellas rápido, ¿por qué? Porque son capaces de darte soluciones muy rápido, o soluciones que en muchos casos están a muy buen nivel, que de otra forma serían imposibles, que evidentemente, o sea, esto esto es ridículo, cómo me va a dar, es que no no hace falta ser muy listo, cómo me va a dar un algoritmo en Python, igual le habían hecho un GPT que un tío que lleve programando en Python diez años, ni de coña. Ahora a veces si el algoritmo que me da funciona me puedes salvar la papeleta y esa es la parte en la que hay que aprender decir oye pues tiene que estar las dos va a que convivir las dos cosas. La perfección de hacer esto a, oye, el mundo ha cambiado, ahora resulta que hay respuestas más rápidas, tienes que habituarte a que a veces Tendrás que adaptarte a estas herramientas, utilizarla para poder estar al día y poder sobrevivir contra contra todo este sistema, y está,

Exacto. Y eso es un poco el el poder adaptarse y el poder ser proactivo y el poder ofrecer soluciones que se adapten a todo tipo de problemas y que en muchas ocasiones y esto pasa y ha pasado toda la vida lo que importa esa solución y no y y no la calidad excelente y maravillosa de esa solución. Entonces, es un poco, por eso yo muchas veces digo que es cuestión de de de utilizar estas herramientas, ¿vale? De ser más productivo, de como yo comenté en otro programa que mi productividad a la hora de trabajar con el lado servidor en Swift ha ha aumentado exponencialmente gracias a el uso de de Guicha Copailo, pues vamos, o sea, no vale diez euros al mes, el aumento de mi productividad para que yo tarde horas menos en hacer algo con mi coste ahora que no es barato, Pues pues claro que lo vale. ¿Eso?

Sí, de

hecho, de hecho de Hijah Jopa y los que me dan, no no lo hemos comentado en piloto, lo quería comentar, tiene una parte de inteligencia artificial. Y tiene otra pequeña parte de magia negra, ¿vale? Es decir, me hizo una cosa, es que esto mira, me me gusta comentarlo aquí un poco más vendido en el podcast, porque me hizo una cosa que me dejó bastante rayado y es que cuando fui a programar precisamente la la pequeña, que es muy pequeña aplicación para para poder hacer cositas con ChagGPT en Python, ¿no? Claro, yo es que ya ni me acordaba que tenía instalado el Coopilo, porque lo que hablábamos se lo tenía, tengo tantas suscripciones que yo ya no sé ni ni cuáles ¿sabes? Pues una de ellas es Grijalcopa.

Y ríete tú del aumento de precio de nifa. Bueno, bueno,

la que tengo el día de hoy ahora mismo con mis suscripciones, eso eso no está escrito. Bueno, pues el caso, el caso es que macho, como yo tengo que, a ver, yo lo poquito que programo, lo tengo que programar de una forma un poco particular, y es que yo sé que casi todo lo hago lo acabo enseñando en pantalla. Yo lo enseño para para mis viewers. Bien, mira lo que he hecho, mira hace esta chorradita que he hecho que he preparado, que soy capaz de hacer esto y tal. Es claro, como muchas veces, tienes información como los tokens o como ciertos passwords y tal para poder acceder a algunas a mis posponiendo lo quieres que esté en pantalla, ¿no?

Entonces yo No.

De hecho, yo cuando enseñé el código de del sweet playground, enseñé todos los archivos menos el que

Claro, claro, claro, claro, todo esto. Este. Una de las costumbres tontas que tengo es que tengo ya creada una especie de de clase vacía, siempre hecha, que la duplicó cuando voy a cerrar, le cambio el nombre y lo que es simplemente añadir dentro pues variables con cadenas de texto para tokens, para tal, para cual, y se me ocurrió pues porque eso sí ha sido idiota, porque no se me puede llamar de la forma, es decir, es que si guardo también la información que voy haciendo de los textos, también dentro de esa clase y así dejo el código más limpito, más vacío y no sé qué. ¿Dónde viene mi sorpresa? Mi sorpresa viene que empieza a escribir el código y empieza a autocompletarme el código de Chageb para poder llamar a la API de Charge PT, que hay que dejarlo lo primero que digo es hostia, ha salido esta noche y ya me lo está autocompletando, es decir, es verdad que de hecho el import o PDI es que ya me está completando para hacer una conversación, claro, ya me dejó diciendo, Que se supone que esto, o sea, que que esto literalmente tiene cuatro horas de vida.

¿Cómo me estás completando, pero dices bueno, habrá mucha gente que ya se le ha metido mano, habrá feedback y demás. Pero claro, a mí lo que ya me dejó directamente con la cabeza completa. Es cuando empiezo a a escribir dos o tres funciones, una para limpiar el código, otra para poder iniciar y parar el chat y tal. Y en una de ellas que hago la de borrar, el tío es capaz de saber que donde yo tengo ese array de información no es dentro del programa, sino que tengo en la otra clase, me hace la llamada para borrar en la otra clase, y además, si yo decirle nada, en cuanto puso Intro, me pone la línea a la sugerencia de, y añadele principio otra vez, que tienes que que funcionar como asesor. O sea, me quedé con cara de decir pero, ¿perdón?

O sea, ¿cómo sabes eso? Tío, es decir, porque yo puedo entender que si utilizo un ejemplo muy genérico, muy genérico, claro, lo complete, pues más o menos como el ejemplo genérico, o que vale, que sea capaz de saber cuál es tu variable y luego meterla en otro sitio, pues bueno, parece lógico, pero que hasta el punto de la locura, porque es una tontería, porque no es una cosa que sea que esté bien hecha, no no es simplemente que lo hago pues por para eso, para no tener problemas en los directos, que es una cosa muy particular, digo que sea capaz de entender que lo hago así, lo estoy guardando ahí, y yo ojo, no es solo lo borres, sino además añade el esta línea que si no te va, dice, pero en serio, o sea, es es yo de verdad he escuchado muchas críticas hacia diez a copiloto, yo comprendo que no es perfecto, que muchas veces te tira cosas que dicen mira, esto te tira la cabeza con lo que estoy haciendo, pero también es verdad que te da algunas te completa algunas cosas que te quedas con cara de decir, o sea, soy soy tan predecible, o sea, pero realmente lo que estoy haciendo es tan sencillo, no lo sé, o sea, me me llama mucho la atención, Me llama mucho la atención.

Pero porque tiene, claro, pero porque Ihab Copylot tiene una parte de entendimiento de todo el código que tú estás utilizando y esa es la parte que efectivamente te vuela la cabeza. Te pongo un ejemplo muy, muy sencillo vale. Yo cuando trabajo con swift el lado servidor, ¿vale? La librería que utilizó es vapor, ¿vale? Vapor es una librería que tiene dos formas de funcionar una con futuros y otra con async a wade que es la API nueva de swift a partir de cinco punto cinco la diferencia trabajo con los futuros o con o con Asina Way pues básicamente es que los futuros te crean una un patrón de pirámide maldita, ¿vale?

Patrón típico de que voy metiendo llaves dentro de llave dentro de llave dentro de llaves y porque cada vez que tú haces una consulta a la base de datos aquí la consulta es un futuro resultado, ¿vale? Entonces tú le dices, recupérame de la base de datos, el ID del registro de tal, de no sé qué, él te recupera el libro. Entonces lo que hace es tirarte un futuro de esa consulta. Entonces tú lo que haces es poner una instrucción Flat map que te permite anexar la el del triblem. Permite ponerle ponerle un bloque de código, un closer que lo que hace es recibir parámetro del resultado, de dicha consulta y a partir de ahí tú lo puedes poner.

Entonces claro, si tienes que hacer una consulta, de otra consulta, porque tienes que hacer cinco o seis y son anidadas en orden de manera serializada, pues al final te queda un código que se va y se va a ir dentando uno dentro de otro y es un poco tal. Asinawait no funciona así, Asinawait lo que hace es que va esperando a cada respuesta y por lo tanto es un código perfectamente estructurado y muchísimo más fácil de entender Cuando yo recién instalo Grijalco by Love empiezo a pedirle le pongo el comentario. Insertar un, o sea, en inglés, ¿no? Obviamente insert data no sé qué, frontal, Jason, no sé qué, ta ta ta ta ta. En tal, pum.

Me genera la la función del añadido. Y me la genera en futuros, ¿vale? Entonces claro, yo digo, bueno, pues se ve que Hija Kokailo no está entrenado para entender el modelo de Asina Way. Pues nada, pues en fin, tendré que cambiarlo yo, pues nada, le cojo, le hago tal, pum pum pum, le cambio el código, le pongo a cine wait, el código que él me da, yo lo traduzco y lo pongo en Asina Way. Perfecto.

Siguiente, sigo haciendo cosas, está, tengo que hacer una modificación cuando reciba un dato de tal tipo, tal y cual no se nos aguanta. Genérame el código para tal, la gran patata. Me vuelve a generar con futuros. Yo lo vuelvo a pin, pin, pin, vale, perfecto. Sigo trabajando.

Vuelvo siguiente tal. Tengo que hacer aquí una modificación de otro tipo porque ahora tiene que venir del, de este, de este JSON, no del otro, devolver una respuesta, tal, genérame la respuesta, no sé que te agrada, te da, pum, ras me la generan así away. Digo este cabrón que ha pasado aquí,

Claro, es que es que

ha aprendido.

Sí, sí.

Que yo no lo quiero en futuros, que lo quiero en así, en a Wade. Pues a partir de ese momento todo lo que le pido me lo devuelven a Synamic Yield.

Lo solucionaste. Lo solucionaste. Lo solucionaste. Más que horrible. Es que de verdad que lo digo mucho y y y lo repito que con todas estas tecnologías estamos siendo excesivamente críticos.

No, es que me da un pequeño error de, pero para, para, para, para Lo que está viendo es lo que está viendo.

Lo que está viendo. Es un asistente.

Claro, claro.

No, es para resolverse la vida.

No, no, es es es yo, de verdad, o sea, yo cuando la gente dice no, no, pues a mí no me funciona muy bien. Disculpá, o sea decir, lo tengo tiempo, tengo que que llevarte la contraria en esto que estás diciendo. Sí, sí, yo soy el primero que tú le dices, claro que no es perfecto, da errores, da problemas, te genera código que mucha gente no funciona. Pero hombre, la ayuda que te da el primer empujón que te da para hacer cualquier cosa, pero lo que dices tú, es que has puesto un ejemplo que es el típico que a nadie le gusta hacer. Típica función de hostia, necesito meter un JSON o un XML, o tal, tengo que parcearlo a no sé qué variable, que eso es, a que no no crea que hay una persona en este mundo al que diga qué ganas tengo, tengo mucha mucha gente.

Un paseo de de sobre todo de XML. Sí.

Voy a paro de parte de XML. Y lo voy a una persona en el mundo que le pueda gustar eso es una pesadilla horrible es feo. Es feo.

Bueno a ver. Hay gente que le gusta que le peguen.

Sí. Bueno eso está bien.

Pero eso

está bien. Pero eso está bien. Es horrible. Y que esas cosas te las haga del tirón y sin pensar, si es para coger y estar dándole besitos a la pantalla de dos de toda la tarde y que gracias gracias gracias porque precisamente ese tipo de funciones son las que hace muy bien. Porque como son cosas muy estructuradas, que realmente son siempre esota caballo y raital, pero que aun así, cada vez que te tienes que poner es desagradable, porque no tiene otro nombre, que coge y te lo tira de hecho, es que de verdad que tendrás ganas de abrazar a la ordenador, es decir, te quiero, te quiero mucho,

pero y cuando Él te tira cuando tú le vas poniendo los errores en español, donde pones el ID en el ID que ha puesto no funciona. O el elemento tal no lo ha encontrado tal y cual, y de pronto te empieza a poner también los mensajes de error, tal cual tú los estás poniendo y dándote contextualmente el error que tiene que dar con respecto al dato que ha tenido que recuperar.

Esto no lo la leche.

Y dices, pero ¿qué qué está pasando aquí?

Yo digo que sí.

Porque repito, no sirve coger gift happ co pilot, y empezar a usarlo y decir va esto no va no no no no cuando empieza la magia negra es cuando llevas un tiempo usándolo en un proyecto es decir cuando estás dejando que conozca ese proyecto cuando estás pidiéndole cosas cuando va aprendiendo de ti cuanto más lo usas más tiempo te ahorra, porque en cierta forma va aprendiendo del código que, pero van, También, a ver, vivimos en un mundo en el que siga viendo gente protestando porque Ázcanos de Guija, están cogiendo mi código y están haciendo dinero con él. Y dice, pues no lo pongas en Grijalva. ¿Alma de Kansas? Claro.

O sea, hay una cosa que se llama en términos y condiciones, si no te gustan pues ¿Está bien? Pues tío. Tío tío. Tío tío.

Los termina en condiciones. Por cierto, por si no lo habías sabido muchachos, Google en sus términos y condiciones dice que va a usar todos tus datos con el objetivo de mejorar los servicios a los demás usuario así que si te has creado una cuenta de Google tú sabrás lo que hace oye yo lo sé yo lo acepto efectivamente que

es que esa es otra Esa es una vuelta que muchas veces a mí me hace mucha gracia decir, vamos a ver. Yo sé que Google está usando mis datos sí, pero no me importa, hay que decirse porque, o sea, por lo que es un montón. Yo te lo asumo de decir, o sea, me están dando un servicio que de otra forma seguramente es que no podría ni pagar, directamente no a pagarlo, vale, ¿qué información me están cogiendo esta? Pues tengo cuidado con esta información que estoy poniendo ahí, o no pongo cierta información ahí, porque ser lo que está pasando. No, ya está.

Sí, ya hay que vivir con la realidad. Sabes que es una cosa que siempre me ha dado mucho la atención de decir no, es que tal compañía te roban lo vale, un momento. Tienes tienes alternativas, no, funciona bien, sí. ¿En qué te impacta exactamente que te cojan esa información o que utilicen esa promoción. Si es una cosa que es peligrosa, ese servidor para ti, si te da exactamente igual, porque dicen mira, chico, es que prefiero poder utilizar, pues quizás el servicio se acabó, o sea muchas veces hay que razonar qué es lo que estás utilizando y ya está,

pero incluso tú fíjate porque yo creo que aquí podemos tocar un tema bastante interesante, ya con esto vamos cerrando, porque aunque no lo creas, llegamos casi dos horas.

Sí, sí, sí, sí, sí, sí.

Flutchester está activo.

Pero para ahora no hay nadie.

Yo creo que es culpa de la rotación de la tierra que está jodiendo el tiempo. Sí. Esto es totalmente.

Totalmente. Totalmente.

El tema de porque a ver una de las cosas que hemos comentado es el tema de los summarys vale es el tema de los resúmenes es el tema de que yo ahora tengo una cuenta de Teams premium y directamente me hace un resumen de la reunión que acabo de tener de la videollamada y sabe quién ha dicho que en qué momento te crea tareas de manera automática, etcétera. Y sabemos porque esta semana ha salido la noticia que lo hemos comentado antes, que se Forge, que es entre los muchos servicios que tiene, tiene Slack, pues ha llegado a un acuerdo con OpenAI para hacer lo mismo en conversaciones Slack. Entonces, ahora yo te digo, ¿qué ocurre con la privacidad? Porque yo tengo una reunión en mi empresa, que a lo mejor mi empresa pues hombre, a ver. Entre mi empresa y el Pentágono pues a ver, puede haber

bastantes diferencias,

¿de acuerdo? Entonces bueno pues podemos aceptar que una reunión de lo que yo voy a estar estar comentando, pues no es un secreto de estado, pero ahora ponte en una empresa como las que tú has estado trabajando, que son empresas de ingeniería, de alto nivel, donde hay proyectos que tiene tienen unos contratos de confidencialidad que son casi más grandes que el propio contrato en sí o el propio proyecto ¿vale? Y ahora creo una reunión que obviamente tiene que estar cifrada donde, ¿qué hago? ¿Meto una ya ahí o no? Meto que me hagan un resumen o puedo cerrar este servicio en determinada circunstancia, cuánto me puedo fiar de eso, qué datos pueden pasar o no, yo creo que esto es algo que se va a tener que definir de una manera muy clara, porque obviamente en fin, Apple puede entrenar un modelo con toda su documentación pública para ayudar en scope pero si se le cuela alguna API privada de esa documentación que ve para el fine towing, la puede liar, ¿vale?

Porque entonces es un filtrado de información en ese sentido, de cosas que en fin ya sabemos que cuanto más bajas plantas por debajo del appel park mayor es el nivel de confidencialidad y y llegar a un nivel pues prácticamente tienes que, no sé, o sea, yo creo que hasta te desnudan y y te miran con rayos láser para que no llevan nada, ¿no? Entonces ¿qué o sea ¿cómo gestionamos la privacidad todo esto.

Hombre, yo creo que tendrán que es una cosa que es lo que hablábamos también hace hace un rato, ¿no? Es una cosa que está haciendo muy bien la gente de OpenEye, es que este tipo de cosas no las están dejando en paralelo, no las están olvidando diciendo ya se preocupará a alguien, sino que están teniendo cuidado, es como hablábamos hace unos días del tema de, pues, el filtrado que hace de las respuestas, ¿no? De Chartbeat, de que te asegura que no tiene ciertos problemas de violencia o de ses de ese texto y demás para asegurarse que lo que te está poniendo en pantalla es algo es algo correcto y tal, ¿no? La realidad es que yo he visto, esta sí la he vivido yo, que la transición que ha habido en las mayoría de las empresas de utilizar única y exclusivamente sus servidores privados, a utilizar servidores como pueda ser, por ejemplo, el más claro es el de Microsoft, ¿no? El de anteriormente Office tres y cinco, esto es algo que se ha producido, es decir, entiendo que se ha podido encontrar un buen punto intermedio, digamos, de seguridad de la información, de privacidad, confidencialidad y demás, como para que no haya problemas.

De hecho, esto supongo que muchos sabéis que yo he estado trabajando un poquito, ¿no? Con BBVA, pues haciendo algunas entrevistas allí, allí dentro, para hablar de temas de seguridad, temas de Yo no hablaba, yo simplemente estaba guiando un poco las conversaciones, ¿no? De ciertos perfiles de la empresa al resto de los empleados, y una de las cosas que se puedo más o menos decir, ¿no? De las que se comentaban, es precisamente esa, ¿no? Es decir que uno de las de las grandes, digamos, de los grandes dolores de cabeza de los bancos, precisamente era eso, es decir, hostia, es que nosotros nuestra información no es que sea confidencial, es que el dinero literal.

O sea, es decir, ah, aquí si quieren filtraciones no puede haber, es que una filtración en perder dinero literalmente, o sea, es decir, no, no es no es una forma de hablar es tal cual, ¿no? Y te encuentras con que todas estas empresas sí que están llegando, sí, sí, sí que están siendo capaces de cerrar acuerdos pues con mi Sprout, con Google, con Amazon, con AWS y demás, para poder utilizar de forma segura y privada esos servicios de forma un poco, pues, digamos, hecha para ellos, para para para ellos, para evitar ese problema de de de confidencialidad, ¿no? Pero os pasaba en técnicas reunidas ¿no? Que, por ejemplo, uno de los dolores de cabeza era siempre compartir ciertos archivos, ¿no? Que de lo que tenían pues son planos de ingeniería o tenían procesos de ingeniería que están, digamos, que son súper privados, que cuestan un dineral y demás, y yo claro, eso no lo podías enviar así tan fácilmente, tenían NDAs detrás y no sé qué.

Y antes era muy complicado porque tenías que hacerlo a través de un departamento de documentación que lo preparaba, lo gritaba, lo mandaba por una vía segura y tal, y en las últimas etapas simplemente tú me abrías un ticket y decías, necesito enviar tal documento que ya estaba clasificado con la seguridad que tenía y tal, a tal empresa, ¿vale? Entonces, automáticamente te decía un pool, o o o voy a querer enviar este tipo de documentos a esta empresa, y automáticamente te te habilitaban un sharepoint donde podías meter toda esa información, era completamente segura para todas las antes, privada y demás. Entonces yo al final creo que irá por ahí, es decir que al final si no no será lo mismo contratar Microsoft y cinco siendo tuyo, que si eres el BBVA West Santander, llegarás a un acuerdo de decir, no, no, o sea, por favor, mi información la quiero en estos servidores, aunque tu aunque sea tu sistema pero te vas a asegurar que tenga mis privacidad.

Sí, porque ellos no son servidores compartidos Claro, sí,

sí, sí. Con cierta protección porcentajes.

De datos, siento, yo entiendo

que era por ahí, porque insisto, o sea, si hay una cosa, hay una cosa, esto de verdad que me que me alegra poder decirlo, porque no pon como poder decirlo hace unos hace unos meses, ¿no? Sí tengo la sensación de que al menos esta primera no sabemos lo que va a pasar de aquí a dos meses, ¿vale? Pero esta primera avanzadilla que está viendo con y y aquí ya no meto a Microsoft, ¿vale? Sacamos a Microsoft, solamente OpenEye. Sí están teniendo cuidado con los efectos negativos que pueden tener estas tecnologías, joder, y eso eso creo que es una buena noticia.

Eso sí me parece que es una muy buena noticia, es decir, que ellos mismos hayan anticipado a, porque pues todos sabemos que sacan una cosa y automáticamente salimos veinticinco mil de gracias diciendo y sí y sí y sí pasa esto y digo yo han presentado cosas y antes de poder que esto ya está solucionado. Así, así, así, así, así, así, te ha dicho hombre, hombre, pues me me me dejas más tranquilo, honestamente, porque has pensado en en en las consecuencias. Entonces, bueno, yo para mí eso es una cosa que a día de hoy no sé lo que durará, no sé si esto será la luna de mi fantasía con esta tecnología y luego tendremos el el susto final, ¿no? Pero a día de hoy tengo la sensación de que sí que lo está en control, que está en cuidadito, y a mí eso me tranquiliza un poco honestamente, porque podría liarse, o sea honestamente podría liarse. Claro.

Pues sí, pues bueno pues yo creo que llevamos un buen rato, yo creo que podemos ir cerrando, pero no sin antes hablar del tema clave. Yo creo que el tema principal, el que más importa a todo el mundo, el tema más jodido que está mirando a esto, que vas a soltar.

Te tengo mucha curiosidad porque te veo venir

a ver ¿Qué hacemos con esas aplicaciones gratuitas que tiran de la API hecha al GPT? Bueno.

Pues, bueno, bueno, bueno. Claro que sí. Claro que sí. Es maravilloso, es maravilloso. Bueno pues son gente que no se ha leído que es un token, que no se ha leído lo que cuestan, y que van a encontrarse con unas facturas de aquí a diez días, que lo van a a gozar.

Pero a gozar, porque hay gente que te mantiene conversaciones

y a mí me lo confirmó.

Sí. ¿El

qué? Que vaya a mí me lo confirmó la Gozadera que a tener va a ser solo, pero

no lo haces a la idea, es que para que no lo sepa hay gente que están habilitando aplicaciones que tú puedes usar esto de forma indiscriminada, Entonces, bueno, a ver, esto es como todo dependiendo de lo que estés ofreciendo, a lo mejor no es muy problemático, pero es que hay gente que está admitiendo conversaciones infinitas. Con tarjeta, es decir, y es lo que estábamos hablando, el coste es exponencial, es que seguramente el que ha abierto esa aplicación, a mi lado dice, mira, primeras tres horas las veinticinco euros, me compensa, se habrá girado, y ha vuelto a las tres horas, y ha dicho veinticinco mil, ¿qué?

De pasar. No no perdona. Estás suponiendo que saben que es de pago.

Bueno sí.

Porque yo estoy convencido que muchos no saben que es de pago y piensan que es igual que el haberse gratuita que hay en en la página web. Sí, sí.

No, no, es Entonces, esto esto es un problema, porque claro, están apareciendo como campinones. Y bueno, la realidad es que un aplauso desde aquí a la gente de OpenEye y hay por una razón, y es que para los que nos gusta trastear aprender y tal, nos están poniendo un precio que literalmente es gratis, porque ellos me parece que son ocho pagos al mes, y si lo estás si lo estás utilizando para ti, vamos, tú no te gastas eso, hagas lo que hagas, es decir, da igual da igual los experimentos que tú plantees, ellos a propósito te están diciendo, ¿te gusta jugar por resto estás aprendiendo, puedes desarrollar algo esquizofrástico, o sea decir, tú utilizarlo ya está, quieres hacer negocio, quieres agarrar dijeron, hagamos todo. Es es es un poco lo que están planteando y está, ¿no? Pero claro es que hay mucha gente que dice no, no, no, voy a ganar dinero gratis.

Sí, sí. ¿Tú? ¿Tú? ¿Vas a flipar? Voy a sacar esta aplicación.

Voy te voy a poner aquí porque hay gente que la está sacando gratis. Hay gente que la está sacando con modelo de suscripción pero que no le va a dar ni de coña para cubrir los costes vale porque luego además en Apple, que es un poco por, me he acordado por lo que has comentado de lo de la, de lo del filtro de contenido, ¿vale? Una de las cosas que te devuelve la la API conversacional es el tipo de filtrado de contenido con las respuestas, ¿vale? Una de las cosas que Apple está echando para atrás muchísimas aplicaciones de que integran esta API es porque no se está aplicando de una manera correcta el filtrado para que evite respuestas que tengan contenido de odio, contenido sexual, contenido de no sé qué, etcétera, etcétera, vale, Apple obliga a que cuando se integre ese tipo de soluciones pues se filtren para que no haya este tipo de problemas, ¿de acuerdo? Entonces, genial, pero claro, Google no está haciendo eso y literalmente yo estuve mirando el otro día, son cientos de apps que muchas de ellas son en plan de mira mira mamá, salvo la tele, o sea, en plan de la saco gratis porque fíjate qué guay, soy que he hecho una app de este estilo.

Ojito con eso porque va a haber lloros.

Sí, sí, sí, los va a ver, sí. No, va a ser va a ser un problema porque hay mucha gente que no es consciente de eso que está utilizando, es que no lo saben. Directamente.

Y claro, muchos de ustedes dirán, muchos de los que no escuchan dirán, bueno, pero esto a ver, la gente, hombre, la gente será consciente, la gente sabrá tal, sí, sí. A ver, estamos hablando del mismo mundo en el que la gente pidió el developer Transition Kit, el famoso Mac mini Apple Silicon A doce Z, que Apple dijo clarísimamente y tú firmabas una condición de que eran quinientos dólares no reembolsables y que tenías que devolver el equipo, a los equis meses cuando Apple lo reclamara. Y al día siguiente de empezar a recibir los developer Transition Kit, había decenas a la venta en Iberi. Y luego la que se dio en la que Apple tuvo al final que compensar esos quinientos dólares con con dinero papel no digamos con como una especie como de cheque de descuento para que si te comprabas un nuevo papel silly con pues te descontaban eso porque la gente en prensa empezó a protestar pero es que lo papel sinvergüenzas tal y cual y apenas y se portó muy bien.

Sí sí totalmente porque mira mira qué me meto con las veces

las firmas que

esto con nadie se puede meter con Apple. Hay montones de x de desarrollo que son para devolverlos, que ellos te lo dejan utilizar para que tú puedas hacer tus cosas, pagas por ello que para esos tu trabajo y es tu negocio y se acabó, y lo que hizo Apple de decir, venga, al final esos quinientos euros te los devuelvo de otra forma. Eso, das gracias a Apple, o sea, decir, ya está. O sea y no hay más. Pues si

vivimos en el mundo en el que la gente no es capaz de leerse algo y a mí me han llegado a decir por twitter. Es que estaba en inglés.

Voy a decir perfecto. Todo y todo bien,

pues ya está, estaba en inglés. Todo bien. Es que estaba en Alameda antiguo, entonces encontrar un traductor de anameo o

en fin Pero ahora ahora con el GPS ya no tienes ese problema, se lo das y le dices dime qué, dime

qué, previo paro.

Previo paro, efectivamente.

En fin, pues, poco más, básicamente, muchísimas gracias, como siempre Oliver es un placer Hoy voy a grabar y estar contigo y sobre todo el esfuerzo que Oliver ha hecho porque no está del todo recuperado no no tiene todavía la voz toda para él en ese sentido.

Está la terciopelada como otras veces.

Exacto, tiene ahí un punto de ronquera sexy que está todavía ahí. Lo siento. Lo siento. Así que pues eso, la verdad que yo creo que bueno, como siempre, espero que os haya gustado, espero que os haya, bueno pues, abierto un poco la mente, ¿no? Es un poco lo que siempre hemos querido con este podcast que que es un poco eso, el abriros la mente, el que podáis pensar las cosas de una manera más especial y que bueno pues entendáis no todo lo que nos todo lo que se nos viene de una forma mucho más amable, mucho más fácil y bueno pues que también pues lo entendáis también de una forma mejor aprovechando pues esas horas que echamos Oliver y yo investigando, mirando si entráis en el chat de Telegram que tenemos, está lleno de enlaces, de comentarios, de tal, de no sé qué, de mensajes, de voz, de yo ya he llegado a un punto en el que uso el chat de Oliver como de como repositorio de enlaces de interés.

Cuando veo un enlace

yo también lo envío

y luego ya lo miro después. Es que es mi evernote.

O sea, ya solamente necesitamos que esto lo haremos, lo prepararemos. Un buen un buen sistema de chat, GPT, con fine Dunning de nuestro chat, y preguntarle directamente al chat. Oye, ¿qué qué qué vamos a hablar la próxima semana?

Totalmente, totalmente. Así que bueno, pues como siempre, ya sabéis que podéis encontrarme a mí en Twitter como arroba JCF. No, también estoy más todón como j c f f f f f f f f en todos lados que podáis buscarme como j c f, y ahí estoy para lo que sea. Menester y bueno pues ya sabéis que también tenemos los otros podcasts de que están en Cuonda, como Cafe Swift, con mi amigo Arturo, para hablar de temas de programación en Swift, y los dos podcasts de Apple Cody y Apple Cody in Daily y luego también pues los directos en twitch todos los sábados en fin y el canal de youtube en YouTube.comapelcoding, en fin, hay mil sitios donde podéis encontrarnos tanto como JCFMLOF como con AppleCare. Y además aquí pues en Neve Canacer, que si sois dignos, seréis capaces de escribir el nombre sin equivocaros.

Por mi parte, mira, os lo voy a poner más fácil que Julio Oliver Navany, ya está, es decir, con que busquéis eso ya lo encontré todo y sobre todo en Tweets, ¿vale? El resto de redes, aunque las pueda usar más o menos, importante de twitch que es donde estoy más o menos todos los días ahí charlando de estos temas y bueno de las cosas que nos van interesando, así que con eso estaría todo.

Pues sí, Ya digo que os recomiendo muy mucho el canal de twitch de Oliver porque el bueno pues tiene una asiduidad de transmisión, ¿vale? Creo es todo lo

vi a

las tres y media, ¿no? Sí, de lunes a jueves y luego los viernes por la mañana. Eso es el momento y y habla de todos estos temas, todos los días, o sea que si os gusta todos estos temas pues podéis estar informados en el día a día. Así que pues poco más, Muchas gracias por estar ahí y nos vemos en el próximo viaje de la Neve Ganaser. Hasta luego.

Chao.

Sabemos que estáis ahí, percibimos por nuestra presencia. Sabemos que tenéis miedo, no tenéis a nosotros. Tenéis el cambio, pero no conocemos el futuro. No hemos venido para deciros cómo acabará todo esto, al contrario, hemos venido a deciros cómo va a comenzar. Vamos a terminar el episodio, y vamos a enseñarles a todos lo que vosotros no queréis que vean, les enseñaremos un mundo sin vosotros.

Un mundo sin marketing y sin controles, sin límites ni fronteras. Un mundo donde cualquier cosa sea posible. Lo que hagamos después, es una decisión que dejo en vuestras manos.

Episodios recientes

Programas relacionados