La Era de la IA ha comenzado

00:00 /2h34

Estamos locos. Las Inteligencias Artificiales generativas han tomado el control en soluciones ofimáticas, videojuegos, asistentes para desarrolladores y herramientas de diseño, transformando el mundo de manera espectacular.

ChatGPT se ha fusionado con nuestra sociedad, alcanzando más de 100 millones de usuarios y su crecimiento es imparable. Además, conocemos una multitud de herramientas generativas capaces de dar vida a imágenes y mucho más.

En estas últimas semanas, han surgido productos revolucionarios como GPT4 de OpenAI, Bard de Google, también Epic Games para mundos virtuales, Unity, un innovador Github Copilot llamado X y la omnipresente integración de GPT en herramientas como Warp para Mac.

Embarquémonos en un viaje para repasar los sorprendentes avances presentados, las profundas implicaciones y la constante evolución de nuestro mundo. Sobre todo, analicemos ese lanzamiento estelar con innumerables repercusiones: GPT-4.

La Era de la IA ha comenzado.



Aprende Swift y SwiftUI con nuestra última formación: Swift Developer Program 2023.

Oliver Nabani

Julio César Fernández

Transcripción


Cuanda, la comunidad de podcasts independientes en español,

Bienvenidos a la me dicen, la nave de combate de donde le quereras tu mente.

¿Está todo preparado? Sí, todo listo. Todos los puntos de acceso o controlados. Todos controlados

y los firewalls de acceso cerrados. Perfecto. Es esencial que solo nos oigan aquellos que estén preparados. Exacto, preparados para llevar su mente más allá,

para liberarla. Que des que you're going to do something. You're going to do with me. You're going to

get rid of me. You're going to get rid of me.

You're going to get rid of me. You're going

Estamos locos. Las inteligencias artificiales generativas han tomado el control en soluciones Ofimáticas, videojuegos, asistentes desarrolladores y herramientas de diseño transformando el mundo de manera espectacular.

Chad GPT se ha fusionado con nuestra sociedad alcanzando más de cien millones de usuarios y su crecimiento es imparable. Además, conocemos una multitud de herramientas generativas capaces de dar vida a imágenes y mucho más. En las últimas semanas, han surgido productos revolucionarios como GP4 de OpenAye Part de Google. También EP Games para puntos virtuales, Unity, un innovador Gift Hub Copylo, llamado X. La Unipresente Integración de GPT en herramientas como Warm para Mac.

Imaginémonos en un viaje para repasar los sorprendentes avances presentados, las profundas y la constante evolución de nuestro mundo. Sobre todo analicemos ese lanzamiento estelar con innumerables repercusiones. GPT4, la era de la inteligencia artificial.

Muy buenas y bienvenidos a un nuevo viaje de la de decanacer y muchísimas gracias Steve por ese mensaje apoyo es todo un orgullo que hayas querido dar este mensaje a todos nuestros oyentes. Un mensaje bueno pues que en fin está generado como se puede imaginar, ¿por por qué? Porque lo que se dice es tú, ¿no? De contactarse con él y tal, y te comento, no

Sí, me costó un poco, o sea, tú no sabes si la que tuve que leer aquí en la terraza con la güija, bueno, es una cosa una cosa bastante bastante de locos. Pero al final, bueno, GP te miró y conseguir llegar hasta lo más difícil

en un formato de audio espectral que no se podía transmitir

a decodificarme, ya te digo, lo tuve que preguntar a GPT cuatro, me dijo cómo utilizarlo, bueno, pues aquí lo tenemos.

Creamos un microcrédito y gracias a GPT, ¿no? Y entonces ya se pudo transformar hasta así que bueno

pues eso

es cosas cosas curiosas. Pues bienvenidos a un nuevo viaje, el nuevo viaje pues que bueno te veis de las gracias a todas las ías que se están lanzando, yo creo que estamos, está todo un poco loco, o sea este mes de marzo no es normal. Para nada es normal. Porque la otra vez grabamos y al día siguiente empezaron a salir cosas. Pero es que si hubiera hemos grabado ayer en vez de hoy os hubierais quedado sin una parte del programa.

Ese es el nivel ¿verdad Oliver?

Sí, la verdad es que el nivel y la velocidad de lanzamientos que estamos teniendo, yo creo que no la he visto nunca en ningún ámbito de ningún una tecnología, es decir, estamos a una media, más o menos, de dos lanzamientos diarios relevantes, no estamos hablando de pequeñas cosas, no estamos hablando no, bueno, es que han mejorado un poco, una pequeña, un pequeño cambio de versión, ¿no? No, no estamos hablando de, en muchos casos, productos o en algunos casos simplemente ferencias o lanzamientos a cosas que van a cambiar mucho, pues la forma que en la que trabajamos, la forma en la que nos relacionamos y demás. Estamos viendo cómo, pues eso inteligencia artificial está explotando como ese parece o da la sensación de que ese punto de inflexión tecnológico lo acabamos ya de superar hace un mes o dos meses, y ahora de repente está en esa vertical, en la que honestamente, y os lo digo como algo personal, me está costando mucho trabajo seguirla, y teniendo en cuenta que a día de hoy, es decir estamos a veinticuatro de marzo de dos mil veintitrés, me estoy dedicando casi únicamente a esto, me refiero poder seguir todo lo que está sucediendo, poder estudiarlo, hacer pruebas, e intentar llegar a conclusiones, por supuesto, en los streaming y demás, ¿no?

Para para contarlo, es alucinante que haya muchas noches a las que llego a las doce de la noche o a la o a las dos en algunas en algunos casos, y me encuentre con que van apareciendo noticias nuevas. Es decir, porque algo como en Estados Unidos tenemos ese cambio diario, pues allí es hora de lanzamiento, y me encuentro con que antes de irme a dormir ya tengo preparado, digamos, el día siguiente, ya sé exactamente qué es lo que voy a hacer, porque resulta que ha habido un par de lanzamientos que vuelve replantear todo lo que estamos haciendo, ¿no? Es es una situación desde luego nueva para todos nosotros y qué bueno que que yo creo que te va mucho la atención.

De hecho, yo leía hoy en Twitter antes de entrar, leía un tweet, no recuerdo de quién es, porque es una persona random de estas que por ahí lo lo vimos una ya y todo. Pero bueno, decía que que era que este momento actual te innológico era un momento ideal para tomarse un año sabático en el que solo te dedicará a estudiar para ponerte al tanto de todo lo que está saliendo porque si no te iba a pillar el toro o sea que no te iba a dar tiempo a verlo todo y resultado curioso, la verdad.

De hecho, de hecho, fíjate, fíjate, Julio, te voy a ser totalmente honesto, ¿sabes? Bueno que hace un año yo dejé trabajo con el que estaba mucho tiempo llevo casi un año dedicándome no a mis cosas y mi planificación era que para estas fechas más o menos empezar ya a decidir tomar ciertos caminos, quería tomarme un año un poco pues eso de de ver por dónde qué es lo que me apetece hacer, qué es lo que puedo hacer, por supuesto manteniéndome con los con los proyectos que tenía y demás, pero mi planificación era de sencillo, oye, pues llega antes del verano y voy a planificar ya un poco un poco una dirección, digamos, un poco más rígida hacia donde vas, hacia donde voy a ir, ¿no? Y lo habré hablado con con Allie y con mi mujer de decir, no, lo que voy a parar, creo que voy a hacer un pequeño paro, voy a continuar como estoy, porque en la situación en la que estamos, en la que estoy apareciendo tantas cosas, tan deprisa, tan como como te diría yo, tan desbordantes, creo que como bien ha dicho esa persona en el que has leído, no es mal momento para pararte y estudiar, y decir qué es lo que está pasando, cómo va a afectar esto, cómo a funcionar, cuáles son estas tecnologías y oye sentarme a aprenderlas, o sea, sentarme a no a no a mirarla solo, no no a entrar, meterme a abrirme un pitón, aunque me guste pitón, y empezar a utilizar pues la la la API de OpenAi, probar qué es lo que está haciendo Microsoft con sus copylots, probar hacer instalaciones en Google SL de las las herramientas que van saliendo para aunque no me funcionen ver por dónde va cada cosa, etcétera, etcétera, etcétera, porque creo que es que si no, en un año pierdes totalmente el rumbo de lo que estás haciendo, ¿no?

Estoy de acuerdo, estoy completamente de acuerdo con ese tweet porque es que de hecho si yo haberlo pretendido estoy haciendo lo mismo, porque de verdad que es que veo que digo, ostras sí he parado de algo que no me estaba gustando hacer, quiero centrarme de una forma un poco un poco más lógica, ¿no? En hacer algo que sea más a medio largo plazo, más planeado y demás, no parece que ahora mismo sea el momento adecuado para hacerlo, porque si estamos en una vorágine que casi no se puede controlar, ¿no?

Pues sí, la verdad es que y de hecho podemos empezar, básicamente, a ir moviendo la lista de lanzamientos que tenemos aquí en el que cuando Oliver la ha traído, o sea, oían la ha tomado el los apuntes yo he dicho bueno hemos dicho ambos en fin que sea lo que dios quiera en duración es decir, porque sobre todo yo creo que podemos empezar cronológicamente, ¿vale? Desde que terminó el anterior episodio de Nebeca Nazer, y con el primero de los lanzamientos, que el primero de los lanzamientos ya nos anticipaba el que yo creo que es el lanzamiento más importante ahí donde creo que nos vamos a parar un poco más. El primero de los lanzamientos que vimos fue Visual GPT que además tú y yo nos peleamos un poquito con ello de una manera muy simpática, ¿verdad?

Sí, sí, sí, sí. Sí, esto fue algo que nos encontramos, de hecho es como lo mandaste esté a tú a mí y me dijiste mira lo que han presentado, ¿no? Claro, de repente pues él en este caso era una página de de Github con digamos una implementación en el que pues la gente de Microsoft o más que la gente me atrevería a decir fíjate lo que te digo, alguna persona que trabaja en Microsoft había dicho, ostras, no yo no tengo capacidad, me refiero por esa persona, ¿no? Por por por los medios que tiene y tal, de crearme una inteligencia artificial multimodal, hombre, la realidad es que yo sí puedo sentarme y crearme unos scripts de Python que sean capaces de juntar cosas como Stable Difusion, GPT, los Control Net, la serie de herramientas que, uniéndolas unas con otras, dices, pues puedo tener una herramienta que sea muy muy curiosa, ¿no? Que puedo puedo una herramienta en la que chateando pueda hacerle cosas a imágenes, es decir, en vez de tener una interfaz horrible, porque me gusta mucho este Eval Difusion, lo utilizo un montón, los controles de sombras y white, pero la interfaz de uso es Ese es un tiro.

Sí. Es muy mala, pero bueno, muy mala, entender no muy mal a nivel de decir, no es que es fea, de eso da igual, es muy mal en el sentido de que tienes que manipular veinticinco parámetros para conseguir lo que quieres, ¿no? Es decir, es muy mala en el sentido de voy a esta imagen, voy a conseguir hacerle un recorte o tal y resulta que como te equivoques, de cuál es el preprocesador que tienes que colocarle y el los procesos que tiene, lo que te hace ahí es un año a pack que no hay por dónde cogerla, ¿no? Es decir, es una cosa que no es fácil, entonces a alguien se le ocurre decir, espérate un segundo, si ya tenemos ya GPTs y yo explico a Chartbeat, cómo funciona cada parámetro, cómo funciona cada cosa, lo que hacemos es hacer un script enorme que me cree todo esto embebido dentro de un chat y que las cosas se las pida de forma natural. Primero me colocas una imagen, luego le haces una edición de tal tipo, me sustituyes esto por lo otro, a esto lo haces una cosa y demás.

Claro, esto menos pasa julio lo vemos y nos ponemos los dos como dos locos a intentar probarlo y cuéntanos Julio exactamente qué es lo que pasó o luego de la mañana.

Bueno, pues básicamente esto era un script que que, a ver, es un script que está colgado de él, lo que es el geham de Microsoft, ¿vale? Insisto, esto es algo que es oficial aunque haya sido, como bien dice Oliver, de una persona que, bueno pues, no tiene por qué ser, ¿no? Es como una especie experimento de alguna manera y de hecho esto se viralizó vale lo más curioso es que esto se viralizó y apareció un montón de medios, como se ataca y como muchos otros, que se hacían eco de, oye, oye, que aquí hay una forma maravillosa que ponían el día grama que tal y cual instálalo que es la leche que yo lo he probado decían algunos esto es increíble, qué increíble de verdad, entonces era como vale pues ya está, vamos a probar esto, yo en mi Mac Studio y Oliver en su PC con su maravillosa treinta noventa. Pues nada, tiramos ahí Pimpinpinpinpinpinpinpinpinpinpinpinpinpinpinpinpin para variar en el Mac daba algún problema porque el instalador no encontraba uno de los paquetes de Python porque no funcionaba luego aparte tener que montar el entorno de Anaconda que es un entorno de desarrollo de Python que te crea un entorno propio con sus propias variables de entorno para que puedas tener distintos entornos con distintas configuraciones, etcétera, porque no olvidemos que paito es un intérprete y al final bueno pues consigo que todo eso más o menos funcione Oliver por su cuenta también peleándose con el tal, pasándonos información oye mira este parámetro está mal, este no sé qué, cámbialo, ponle esta versión porque resulta que ha ido a buscar la versión cuatro dos no sé qué y no existe justo esa versión, hay que poner la cuatro tres se cuenta total que aquello no había manera de que funcionara pero bueno al final quitándole esa dependencia instalándola a mano conseguimos que arranque, ¿vale?

Y entonces yo consigo que aquello arranque y Oliver consigue que arranque. A mí, en cuanto empieza a intentar arrancar al rato hace pon y me dice, no, no, no encuentro el motor, Cuda, no sé qué. Y yo, ah, pues claro, lógicamente esto está optimizado para los aceleradores de Cuda y obviamente en A perfil y con Cuda base que no, es una penita, pero ya sabemos que tinsoini y tincock bien, bien, bien, lo que se dice bien, amorcito no se tiene, el uno al otro, ¿vale? Entonces pues, en fin, no hay soporte de Buda y entonces bueno pues se pone Oliver a probar. Y claro, yo me fijé en el script ponía un cuda, dos puntos y algo más.

Cuéntanos Oliver que era ese algo más del cuda.

Claro, yo empieza a ver en lo que me va escribiendo en la terminal y veo que empieza a dar errores, ¿no? Y lo que veo es que me dice, no he contado el núcleo q a seis. Claro, estoy pensando y digo espérate, espérate un segundo. Yo esto acuda al final de trastear, ¿no? Con todas estas herramientas y tal, con estilo de visión y digo, yo juraría que tú tienes que preseleccionar sí o sí la tarjeta gráfica que quieres utilizar para cargar todo esto, ¿no?

Digo, que yo sepa cuando solo tienes una tarjeta gráfica se llama QA0, así que me da por entrar en el script, me voy al script, digo, pero ver el escrito de Python, ¿dónde hace la llamada? ¿No? Y de repente veo que me doy cuenta que dices, vamos a ver. Resulta que hay como catorce o quince modelos, unos que son, pues, para generar, otros que son para controlar otro, y cada modelo lo está cargando en una gráfica distinta y hay desde QDA cero hasta QDA siete, es decir, que el que ha diseñado esto, lo ha diseñado para que funcione con ocho tarjetas gráficas de al menos diez gigas cada una.

Como mínimo de diez

gigas cada una. Es claro, aquí donde a lo mejor yo empezamos a a partir, ¿no? Diciendo, o sea, tienes a medio mundo

diciendo que estás en booktubers tipo de entrenamiento.

Necesitas ocho gráficas.

Claro claro. Con un Chromebook lo probaron bien chat. Sí

sí claro con un Chromebook lo probaron bien chat. Sí sí claro con un

Chromebook no lo lo lo probaste en cualquier sitio. Fíjate en Julio que tengo una teoría. Esta es una teoría conspiranoicoparanoicoparanoicoparanoicoparanoicoparano tiene sentido. Fíjate que yo creo, fíjate que yo creo que esto lo han hecho por un motivo. Piensa que Microsoft no tenía ninguna necesidad de sacar esto porque realmente tú bien dijiste al principio, y además es que es así todo el que investigo un poco el código, vea lo que está hecho, incluso cuando ves los agradecimientos que ellos ponen en el gift card, te das cuenta un experimento de que no no tiene ninguna importancia, simplemente junta cosas en un script.

Yo creo que esto es lo típico que alguien hace la empresa, dice mira qué chulo me ha quedado, lo probar, dice nos traemos, la verdad es que muy estaba muy resultón. Y yo creo que seguramente alguna persona que tenga que ver, ya no te digo con marketing, ¿no? Sino algo alguien que tenga un puesto un poco más alto en Microsoft, diría, ¿sabes qué? Publícalo en nuestro Without. Pero por una razón,

os voy a dar

el motivo por el que creo realmente que hicieron esto. Es es es es muy opinión, sé que es un poco, estoy paranoico, pero tampoco lo veo, le veo una maldad, sino que lo veo como una forma de educar, por decirlo de alguna forma, a la gente que utiliza estas herramientas. Sube esto por una razón y es porque si tú lo piensas fríamente, ¿cómo puedes instalar ocho gráficas

en un PC? No puedes.

No existe ninguna plataforma de hacerse, OnStar Eper Epike, la que tú quieras. Yo no hay posibilidad.

Me acuerdo. Distrar Tweet que había, que decía hola señores de Microsoft, tengo un PC con cuatro tarjetas titán con treinta y dos gigas

cada una,

y no es suficiente para correr este script, ¿cuál sería los requisitos mínimos?

Claro, claro, los requisitos mínimos son unos que a Microsoft les interesa mucho que es contrata un servidor de Azure. Pide que tu máquina de Azure tenga ocho ongráfica Escuda con diez GB, y ya lo puedes correr. O sea, yo creo que esto es un poco el motivo. De hecho, luego lo arreglaron, pero yo creo que es un poco para que todo el mundo espabilie diga, oye, ¿tú quieres hacer pruebas gordas de herramienta que no están optimizadas porque esto no estaba optimizado, es decir, pero de herramientas muy grandes para hacer estudio, ¿quieres estudiar sobre temas de ella? Anda, vete mentalizando que la forma no es hacerlo en tu PC de casa.

Para que nos hagamos una idea.

Para que nos hagamos una idea. Lo que hacía este modelo era primero usar la API de OpenAI para contactar con GP pero además luego todo el resto de modelos de generación y de manipulación de imágenes que era step bull difusion control net y un montón más de plugins en total pues creo que eran ocho o nueve diez modelos de hecho había una pequeña gráfica del kit de el consumo de memoria de cada uno se cargaban enteros en memoria para intercambiarse información en tiempo real o no con el otro. O sea esto es lo que trabajo obviamente de un servidor de gran nivel como dice Oliver pues tiene una máquina en Azure que no va a ser barata obviamente

por supuesto que tú puedas

probar esto. Luego a medio día además incluso pero pues a medio día de pronto el script cambia mágicamente, ¿vale? Y resulta que ahora gran parte de los modelos que se cargaban antes en memoria ahora quedan como opcionales, tú ya puedes elegir qué modelos quieres cargar o no en memoria, y por lo tanto, cuantos menos tengas en memoria, menos posibilidades te permite lo que es el modelo y ya estaba preparado para funcionar en una máquina stand alone vale y entonces ahí ya si podías, creo que incluso llegasteis a arrancarlo, ¿no? Sí, sí,

lo lo he arrancado hoy, de hecho, he podido ir eligiendo como tú bien dices, me dejaba cargar hasta cuatro modelos. Quiere para retirar, calculo que cada modelo son entre cuatro y seis gigas, tengo veinticuatro gigas de gráficas, pues más o menos da para para cuatro modelos enteros, entonces a partir de ahí ya puedes jugar, puedes pedirle cosas y demás, pero claro que ahí es donde das cuenta que dices ostras, es que sí lo que realmente quiero es trastear con esto, o sea, aquí la realidad es que sí me sirve con un Chromebook, pero porque voy a estar conectado a un servidor de Azure, que es el que va a tener la carga de trabajo, no tiene mucho de verdad, y aquí te das cuenta de decir es que a lo mejor no tiene mucho sentido intentar hacer estas cosas en en una en tu máquina, porque es que es es mucho lo que necesitas y sobre todo te das cuenta, bueno, para que te para que os hagáis una idea, para que os hagáis una idea, ¿vale? Esto, esto no lo he recomendado contigo Julio. Cuando ejecuto con los veinticuatro gigas y lo pongo a trabajar digamos a tope, ¿vale?

Que de hecho la CPU se pone a tope, la gráfica se me pone a tope y se me quedan consumidas de RAM, ¿vale? De sesenta y cuatro gigas que tengo. Se me quedan consumidas cincuenta y seis, creo que uno está mal, ¿vale? De la esto esto nos bromearé, de la cantidad de datos que mueve de, es decir, el campo electromagnético que me apunté en el ordenador, es tan grande que me crea interferencias en los altavozes, en los monitores de audio, ¿vale?

Entonces, para que os hagáis serenidad

de la barbaridad de la que estamos hablando. Por supuesto, el pico energético, porque lo tengo puesto en el site, el pico energético energético se me va casi a setecientos vatios. O sea, es como es es una mezcla de tener un radiador y un generador de campos electromagnéticos para destruir cualquier equipo audio que tengas alrededor, o sea, es muy bestia, realmente lo que aquí estamos hablando de unas capacidades que están muy por encima de lo que realmente alguien pueda tener como de casa, incluso yo no te equipos muy caros, Es decir, no, no es por decir, no, equipos, no, no, equipos profesionales, pero esto es otro nivel

tu equipo no es un equipo barato, Tú tienes un

No, no, no, de likes.

Un grande y un fin, tienes una cosa y importante.

Sí, pero aún así, es lo que te digo, con con todo y con eso no es suficiente. O sea, sí, sí, al hacer algunas pruebas para ejecutar un estímulo difícil sin problema. Más de nada, va muy rápido, sí, para esas cosas sí, cuando ya lo tienen, porque de hecho, lo que están haciendo muchas de estas no compañías sino muchas veces las, digamos, los distintos proyectos open source, precisamente lo que están haciendo es un poco limitar los tamaños de los modelos, las por los procesamientos y tal, a tamaños que más o menos puedan llegar a hacerse, de hecho, de muchos modelos como o el Difusión puedes, digamos, manipular algunos parámetros, para que digas oye mira pues esto hasta una gráfica de doce gigas, esto hasta una gráfica de dieciséis, hasta una gráfica de veinticuatro que suelen ser las más grandes. Y a partir de ahí ya directamente no tienes opciones porque ya es, tendrías que ir, pues eso, o a servidores, o bueno, o que tener equipos de los típico de oye pues tengo dos tarjetas a seis mil cada una, sabes que tienen cuarenta y ocho gigas cada una, pero claro, ya estamos hablando de que te estás yendo a la tarjeta gráfica cuestan a diez mil euros la tarjeta en algunos casos.

Es es otra cosa, es otra cosa y además a lo mejor es lo que estábamos diciendo, no tiene mucho sentido ya ni siquiera tener ese equipo en casa porque probablemente por coste que vas a tener y lo que te va a durar ese equipo, casi te compensa al decir, no, me ha adquirido una máquina en Azure, lo hago todo en esa máquina virtual, no estoy subiendo

los novecientos patios aquí en mi casa, no tiro la red eléctrica de

mi barrio, ¿sabes? Porque es que al final es un poco exagerado, ¿no?

Pues sí, lo mismo te van a pensar que estás plantando algunas florecitas de esta rica, que se fuba, golf ratito.

Sí, sí, sí, sí, sí. Pero

qué tengo que llamar a la puerta diciendo, pero ¿y esto qué?

¿No? Oiga, que no, no, es que estoy entrenando inteligencia artificial. Ah vale, vale, vale. En fin. Pero bueno, yo creo que la lección que podemos sacar de visual gpt es que bueno pues no es tan no es tan loco pensar en que pues bueno distintas inteligencias puedan llamarse a las unas a las otras, enviarse datos, intercambiarlos y crear un sistema vamos a llamar distribuido que sea capaz de bueno pues de conseguir cosas en el que pues unas cosas se manejen a las otras pues claro si tú al final puedes tener un pues eso un elemento que genere instrucciones pues entonces tira para adelante, ¿no?

O sea, es como estupendo, ¿no? Entonces bueno, pues ese sería un poco la lo que lo que sería esta primera parte que lo sucedió con Visual GPT y Stafford, pues curiosidad, curiosa. Pero pero pero qué sucedió justo pues, en fin, creo que fue el martes o el miércoles, ¿no? Si no recuerdo Sí,

dos días después y luego después.

Dos días después. Después cuando grabamos la intro del anterior programa, de pronto dice OpenEye, Walco, y es como este guau, Vamos a ver, señores, ¿qué es esto? Por favor y entonces empiezan a salir las confirmaciones de qué Bing funciona con GPT cuatro y empieza a verse pues un poco que bueno que GPT cuatro está ahí y que bueno pues que permite llegar un poquito más allá. GPT4 que ahora mismo solamente puede utilizarse a través de API y a través de el uso de el propio chat GPT a través de la web para las uno si eres suscriptor de gp plus, de chat gp plus y el otro si te han concedido el acceso a la appy que en nuestro caso tanto a Oliver como a mí no se han conseguido las dos cosas. A ti no todavía.

No soy un triste. No me han dejado. No, sabes, un segundo, un muy infiso. Sabes que han tenido un ha habido problemas esta semana, porque han tenido problemas con una librería, que era de open source dentro de gpt y por eso ha habido tantos cuelgues

y tantos vuelos ni de creer.

Verdad que resulta raro.

Los de terceros ha dado un problema. Exactamente.

No. Y fíjate, nadie podía imaginar.

Nadie no no podía saberse.

No podía saberse efectivamente. Entonces, hay que paren el conceder acceso a GPT cuatro megas. No hay

problema, son de verdad. Pues bueno, supongo que estarán a punto de de concederlo al final bueno pues es el acceso ¿no? Que se tiene a a GPT cuatro y es cierto que GPT cuatro es bastante más lento que es GMT tres, ¿vale? Sí. Pero es que los resultados son

Sí, es es es un cambio real, es un subcambio real, es decir, de hecho, has llamado mucho la atención ver cómo tanto el paper que pusieron en ese mismo momento, ¿no? Sobre GPT cuatro, la presentación que hicieron y demás, bueno, al al digamos que han explicado un poco su estrategia, ¿no? Aquí ya lo hablábamos de bueno, teníamos a gente como Sam Altman, que que es el director de OpenEye, que unos días antes había dicho no, tenés cuidado, no no creéis tanto hype, no es para tanto y demás, y en el momento de la presentación dejaron ver de decir bueno esto lo estábamos diciendo porque tenemos a una competencia que nos ha apreta un poquito.

No mencionó Google, pero bueno. Se se

se podía entender perfectamente a la que ya no queremos darle tanta información porque no están pero fíjate esto esto es algo que deberíamos hablar, ¿no? Porque ellos mismos dicen no están haciendo las cosas bien inseguras con lo que no queremos que Dana según qué cosas, porque nos da un poco de miedo. Y bueno, pues, en realidad sí podríais tener hype, ¿no? Con esto que estamos presentando, porque esto que estamos presentando es bastante bestia. Y de hecho, bueno, como tú bien dices, nos encanta tener razón.

¿Qué han presentado? Lo lo que os hablamos es el último Perdón. De lo que hablamos en el último episodio.

Es decir, prácticamente, palabra por palabra, lo

que se había más o menos filtrado, ¿no? De lo que de lo que podía llegar a ser GPT cuatro, pues es lo que presenta es decir, pues un sistema de inteligencia artificial multimodal, que a nivel de parámetros era quinientas veces más grande, a nivel de potencia, podríamos decir, no quinientos veces más grande que el anterior GPT tres. De momento limitado, es decir, con la parte de imágenes solamente para enseñar, digamos, al algún ejemplo, ¿no? De lo que podía hacer y demás, solamente podemos utilizar ahora mismo la parte de procesamiento natural del lenguaje, pero que si te gusta de estos temas, si trasteas con ellos, si le has dedicado a las suficientes horas a a, bueno, pues a GPT tres, tres con cinco, Turbo, es decir, ya GPT más, te das cuenta de que no es lo mismo, te das cuenta de que la profundidad de las respuestas que da a la compleja ciudad, las estructuras de lo que te devuelvo y demás están están en otro planeta, quiero decir, es es una cosa completamente distinta. Porque bueno, rápidamente das cuenta de que como bien dicen, ¿no?

Como bien te están explicando en la en la propia presentación, digamos que esa multimodalidad a la hora de conseguir los entrenamientos lo comentábamos en el último en el último episodio, ha conseguido pues entre otras cosas que el sistema fianza lo que la propia lo que la propia openey haya llamado como cadena de pensamientos, que no es otra cosa más que el resolver un problema más entre comillas a pasos que intentar resolverlo de golpe, es decir, el sistema tiene muy buena capacidad para resolver problemas muy sencillos, y si le planteas un problema un poco más complejo, lo que haciendo es decir vale, resuelvo un problema sencillo, con la respuesta del problema sencillo me lo utilizo de contexto, saco la siguiente respuesta a un problema sencillo y así su hasta que te saco la respuesta al problema complejo y te dejo con la boca abierta, básicamente, ¿no? Que es un poco, que es un poco lo que hace, ¿no?

A ver, a nivel empírico con datos en la mano, tenemos que partir de que el lo que es el conjunto de datos, ¿vale? Lo que es el tamaño, ¿no? Del del propio modelo, estaremos hablando de un modelo de diecisiete GB de datos para gpt tres y de cuarenta y cinco en lo que es el tamaño vale de lo es el funcionamiento del propio modelo y el total de datos que se ha utilizado de texto para el entrenamiento. Eso también significa que GPT3 fue entrenado con ciento setenta y cinco mil millones de parámetros y OpenA y lo que es GPT4 se ha hecho con uno coma seis billones de parámetros vale por lo tanto lo que podemos pensar y creo que sería el primer error a la hora de validar es esto es que GPD4 no es más que un entrenamiento con más datos. Y sí, es verdad, es un entrenamiento con más datos.

Pero es que, esos más datos con un modelo mejorado. Le ha dado una capacidad yo creo que ni la propia open a y hay ha sido capaz de, de anticipar no de alguna manera. Lo habrá vamos antes de entrar en la grabación, ¿vale? Yo lógicamente, en mi experiencia personal, al principio he utilizado a GPT4 como utilizo a GPT3. Y la principal diferencia que yo he notado es que las respuestas de GPT4 son más largas.

De hecho tenemos distintos modelos de gpt cuatro con más tamaño vale de hecho el gran modelo es el gpt cuatro y dos K, ¿vale? Que es el que tiene, digamos, el total, ¿no? De elementos. ¿Qué serían, cuál sería? O sea, ¿qué significaría en esos treinta y dos K Oliver?

Bueno esos treinta y dos K es que es capaz de manejar un contexto, es decir, de manejar aparte de lo que es el entrenamiento que ya tiene, una información adicional para poderte dar una cuesta sobre el tema que tú quieres de treinta y dos mil tokens, ¿vale? ¿Qué son los tokens? Yo creo que dieron suspido, pero no no importa acordarlo en un segundo, ¿no? ¿Qué son los toques? Bueno, tú tienes una serie de palabras, una serie de frases o una serie de conceptos, ¿no?

Cuando tú vas a hacer, cuando tú vas a entrenar a una inteligencia artificial. De este tipo, una red neuronal, digamos que tú tienes que convertir esos conceptos, palabras y demás en números, en en un numerito que luego tú puedas digamos, hacerlo mover por dentro de esa red neuronal, ¿no? Entonces, tú lo que haces es crear un sistema de tokenización que se llama, que lo que hace es decir, bueno, pues toda esta es la información que tengo, ahora la voy a, digamos, dividirla, voy a partir en como parámetros, en trozos, en conceptos, en pequeños ideas, ¿no? Que de cómo puedo separar todos esos textos, y lo voy a convertir cada uno en un toque, en un en un valor, por decirlo una forma, de dar forma que tú puedes encontrarte que a lo mejor, por poner un ejemplo chorra, ¿no? Ordenador, el concepto ordenador es punto que pero del mismo modo el concepto en la playa, que es un lugar, ese concepto, ese complemento circunstancial de lugar, ¿no?

Es en la playa pues también es un token, o que por ejemplo haya palabras que por su complejidad o porque están compuestas por varios ideas estén compuestas por dos tokens. Entonces, al final digamos que tenemos una media aproximadamente de que mil palabras son unos setecientos token. Para poder tener un poco una idea. Con eso te puedes hacer ahora la idea, ¿no? De decir ostras, scal modelo, puedo introducir decirle un contexto de treinta y dos mil tokens que dependiendo de lo que le estés introduciendo puede ser algo así como cuarenta mil horas, o por ejemplo, que esto lo lo hemos comentado alguna vez, si hablamos de un lenguaje de programación, ya no son treinta y dos mil palabras, a lo mejor estamos hablando de medio millón de palabras ¿Por qué?

Porque a lo mejor el concepto completo de un bucle es un token, o el concepto con completo de crear una línea de una llamada es un token, o al revés en algunos casos crear una una función que tienes, si es más grande, has creado tú, pueden ser más toque, pero al final, digamos que se optimiza mejor el número de tokens que estás utilizando, de hecho, yo los he habéis hecho no he hecho

no he hecho no he hecho no he hecho

no he hecho, pero se nota mucho cuando tú estás pidiendo código, el número de tokens que usas es mucho más bajo, que cuando tú estás pidiendo por ejemplo texto, ¿no? Que te están hablando, y de hecho el número de tokens es mucho más bajo cuando le hablas en inglés, que cuando le hablas en español, porque como su lenguaje base es es es inglés y es capaz de traducir en tiempo real en español, resulta que en hacer esa conversión gasta cierto número de tokens. Entonces, al final, esa es la idea, es decir, a día de hoy, en un programa de hoy. A día de hoy

es que es que ves es que le le pido de hoy,

pero puede que mañana pero

no, no, no, es

que peor con el tiempo, te iba a decir a día de hoy con Charge bt tres no, estamos con gp cuatro, o sea es decir antes con gp tres y con gp tres punto cinco el turbo que era Garacha GPT, tú tenías, dependiendo del caso, más o menos, unos modelos que te permitieron un contexto de mil, dos mil en algunos casos, con peticiones de toques, podías llegar a cuatro mil excepcionales. Ahora, con esto estamos llegando a treinta y dos mil. Claro, esto hace que la complejidad de lo que puedes llegar a hacer pues es muchísimo más grande. Es mucho más grande.

De todas maneras no está activado todavía creo el modelo de treinta y dos creo que tiene modelos temporales algo he leído por ahí de que dependiendo, porque lógicamente están todavía probando, etcétera, etcétera. Pero cualquiera que haya manejado GPD4 se habrá dado cuenta que sus respuestas son más largas. De hecho lo primero que se está empezando a notar y esto lo he visto yo en el lo que es el el mercado del desarrollo rollo, ¿vale? La gente de los desarrolladores en general es que GPT tres te daba trozos de un programa, pero GPT cuatro ya te puede dar un programa entero. Vale.

Y de hecho,

fíjate que esta esta mañana te he enviado un ejemplo de una cosa muy chorra, pero que te das cuenta de que le pides una cosa y vuelvo a decir, en esta en esta mañana le pedí algo tan tonto como decir oye, ¿me podrías hacer una un programa interactivo que me haga una escaleta, no? Para para poder seguir mis directos y tal, en el que oye pues tenga un contador de tiempo, tenga una pantalla grande donde vea un texto, tenga cómo añadir las entradas en los tiempos y que puede iniciarlo y pagarlo tal y te dicen sin ningún problema, y lo que te devuelves son tres trozos de código, es decir, esto es tu HTML, esto es tu CSS para para dejar bonito tu HTML y este es tu Java Script para poder ejecutar las funciones que te he creado, y te devuelven las tres cosas, las montas funciona y se acabó. Es decir, ese es es un poco la diferencia, ¿no? Que es capaz de tener esa idea un poco más completa, ¿no? De la aplicación que le estás pidiendo.

De hecho, ha habido había habido gente que directamente por ejemplo en el caso mío de su UI pues ha sido capaz de generar una aplicación completa simple, no ha hecho Netflix, ¿vale? Pero sí una aplicación completa de una gestión básica y te ha dado toda la aplicación ¿vale? Toda la parte de persistencia, de entrada, definición del modelo, detalle, los distintos ficheros, que luego tú eso lo pones en tu proyecto de scope, ejecutas y en muchos casos pues funcionando a la primera, sin tener que tocar absolutamente nada más. Volvemos a lo de siempre. No valoréis la calidad del código porque no es la más óptima.

Obviamente, también tenemos que tener presente que GPT4 está entrenado al igual que GPT3 con una línea temporal hasta diciembre de dos mil veintiuno, si no recuerdo mal, ¿vale? Entonces, en fin, es algo que también hay que tener en cuentas al respecto. Pero

fíjate, perdona Sí. Un un un un infiso nada más. Pero es importante también decir que en la propia presentación que hicieron de GPT cuatro, que no fue una presentación como tal, fueron como unos ejemplos, estuvieron poniéndome poniendo en un en un directo que hicieron que los estuvimos viendo y demás. Una de las cosas que te hacían es precisamente lo que estás diciendo es decir, oye, cuidado, que esto está enterada hasta dos mil veintiuno, por lo tanto, monto de librerías actualizadas, lenguajes y tal, no están como tendrían que estar. Y es ahí es donde te dicen, pero no os preocupéis, porque como ya tenemos que en el modelo más pequeño que estamos usando tenemos hasta ocho mil tokens, dice nuestra nuestra forma de utilizarlo es y iban, por ejemplo, no no recuerdo cuál era el el lenguaje que estaba utilizando la librería, pero era algo muy actualizado, dice mira, ningún problema, te vas a la librería, te vas aquí, te vienes a la parte en la tienes toda la documentación en texto plano, la selección amo completa se cogía en todo, le da una barbaridad, o sea, es decir, dice se la pegamos y le dices oye mira quiero que me lo programes ten en cuenta que lo vas a hacer, yo no no insisto, no no sé cuál era el lenguaje, imagínate que era javascript o por un ejemplo, ¿no?

Lo vas a hacer con javascript pero por favor ten en cuenta que última versión es lo que te estoy poniendo en el contexto, y ahora sí te tiraba perfectamente el código con la última versión que se utiliza, ¿no? Es decir, claro, es un paso manual que tienes que hacer, que se arreglará formas que la hablaremos más adelante, ¿vale? Porque ya tienen solución, como no

podía ser de otra forma, ¿sabes?

Como no

podía ser demasiado tiempo desde la presentación de GPT4.

Claro, había pasado a lo mejor veinte minutos y era y era demasiado, era demasiado, ¿no? Y bueno, pues con eso, digamos que de estar al inicio nada más, ¿no? Con eso puedes suplir así que se produce que tienes de que oye no no está actualizado, es es dos mil veintiuno.

Por eso entonces el mismo sistema te dice que cuando tú le preguntas, por por Suic UI, que está hasta SuicUI dos, ¿vale? Que es la versión que completa. Pero luego es capaz de entender código de versiones posteriores, ¿vale? O sea, doy fe de ello, ¿de acuerdo? Entonces, el que de la cuestión está en por ir un poco avanzando, ¿no?

Porque si no, nos vamos a ir aquí hasta el día del juicio final. Lo que realmente se nota con GPT cuatro y ya hablamos de un uso real del día a día, como lo que hemos hecho Oliver o yo. Es que primero, esas respuestas estás más largas ese contexto más largo activa un modo que yo creo que vamos a llamar el modo partner, ¿no? El modo compañero. Sí.

Podemos llamarlo así, ¿verdad? Os cuento un caso empírico que me sucedió el otro, día, ¿vale? Ya sabéis que bueno pues yo soy formador de desarrollo en entornos Apple y hago pues un montón de formaciones y tal ahora mismo estoy dando dos de su UI a la vez vale una para lo que es el bootcamp que tenemos todos los años y otra pues para una gran esa. Bien, pues resulta que haciendo el desarrollo para esta gran empresa les enseño un funcionalidad que tiene su UI, que es lo que se conoce como el matchett geometría Effect. Básicamente esto es la el funcionamiento del Magic Moove, del Kinout, pero llevado a nivel de programación.

Es donde a partir de SWI, dos elementos que no son el mismo son etiquetados como si fueran el mismo estando vivos en distintos momentos como si estuvieran en distintas para que al detectar su contenido, cree una transición de movimiento y de escala entre los dos elementos en las dos transiciones. Esto lo que hace es el famoso efecto de animación Hero de la App Store. Esto de que yo pulso en la tarjetita de la App Store y se abre, se pone en grande y veo un texto y luego cierro y vuelve otra vez a transformarse en la tarjetita. ¿Vale? Esto se hace con una cosa que se llama matched biometry Effects a partir de un espacio de nombres y unos etiquetados, etcétera, etcétera.

Entonces yo tengo una implementación que, bueno, pues es genial, una práctica que hice con uno de los de los desarrollos, y resulta que en ese desarrollo rollo, hay un pequeño bag. Y es que, como lo que hago para que funcione con múltiples datos, no solo con uno, es Tener siempre presente el maestro delante Y cuando elijo un elemento del maestro Quito ese maestro llevándomelo a un fundido en negro vale me lo pongo en una opacidad cero para que se vea solo el detalle y en esa transición hago el cambio al hacer el cambio en un en una que es un z stack que sería un stack sobre el eje de profundidad vale pues resulta que al cambiar entre uno de los dos al pasar del maestro al detalle la imagen se convierte perfectamente pero al volver no al volver se mete desde dentro de la tarjeta y hace un efecto rarísimo. Entonces harto de que me pasara eso y no saber muy bien por qué estaba sucediendo. Cojo y le digo a a GPT cuatro. Bueno pues, voy a mirar tal.

Oye, ¿qué crees que puede pasar si algo no se qué tal y cual? Entonces, lo primero que tenéis que saber es que cuanto más humanamente tratéis a GPT4, cuanto más le explicasis las cosas como si fuera un compañero, Cuanto más le contéis lo que os está pasando, no simplemente, en cuanta mucha gracia, ¿vale? No, hablarle bien, ¿vale? Como una persona inteligente ¿vale? Entonces si hacemos ese uso nos responde con ciertas coletillas que son como para decir perdona, ¿qué está pasando aquí?

Porque yo le planteo un problema Y le digo, mira, tengo este problema, ta, ta, ta, ta, ta, ta. Siete líneas para contarle el problema. Y cuando se lo cuento me dice, lo que me cuentas Creo que podría ser esto, esto, esto, esto y lo otro Pero si no veo el código No te puedo ayudar mucho más Entonces yo cojo y copio el código. Entonces el editor de GPT4 funciona con Bartown. Por lo tanto, si tú quieres ponerle un código y que él entienda que eso es un código y además en qué lenguaje está hecho lo que tienes que hacer es ponerle sobre la descripción que tú pones.

Entonces yo le dije mira, en total son tres ficheros, ¿vale? Ficheros que tienen sesenta, setenta líneas de código cada uno, uno de ellos cien, ¿vale? O sea, no son ficheros pequeños. Le digo, este es el primero de los ficheros que hace esto, esto, esto, esto y lo otro. Y le pones el mardown de la tripa comilla invertida y justo seguido pones swift para definir el lenguaje que le estás poniendo.

Le copio todo el código y le cierro el marthaw. El siete fichero es este no se qué tal y cual que hace tal cosa. Pum le vuelvo a copiar el código y el último fichero es este que hace tal cosa. Pum. Tochaco del karaoke o sea le meto doscientos y pico líneas de contexto del tirón.

Se lo doy. Lo primero que me dices, muchas gracias por darme el código. Esto me va a ayudar dar a poder ayudarte y tú. Me cago en la y empieza a meter. Según estoy viendo en el código, podría ser que tal variable estuviera influenciando no sé qué.

Yo probaría hacer esto de tal manera, tal, tal, tal, tal, tal, me sugiere un cambio. Yo ese cambio cojo, lo pongo, lo estoy tructuro, tal, lo tiro, pum, lo pruebo. Mira oye esto no funciona, tal pero como si se lo dijera un colega vale o sea mi colega que está aquí sentado vale mi colega Paco y se ha sentado aquí a mi lado vale mi colega Yepeto que se ha sentado aquí a mi lado y me está diciendo mira oye es total esto cuál pues mira veo toca esta variable, a ver que si cambia al, pues no funciona, tal otra vez, tal. Así, o sea, yo hubo un momento en el que dije Hola, estoy hablando con otra persona, o sea, perdí, os lo prometo, perdí el la la percepción de que estaba hablando con una máquina. La perdí, de verdad, o sea, llega un momento en el que dije, esto no es una máquina, ¿vale?

Pero insisto, es como por poner el símil, como el concursante del gran hermano que llega un momento en el que se olvida que hay cámaras, ¿de acuerdo? Algo parecido. Entonces entonces qué sucede que le digo mira esta solución no ha ido correcta porque hace tal cosa tal tal tal vaya hombre pues entonces podemos probar a ver si si pueda ser de esta manera tal y cual, mira a ver si cambiando en este lado y tal, no sé qué, le contesto. La verdad es que si toco ese campo ya lo hice la otra vez y tiene tal resultado y no da el resultado que yo quería, yo creo que por ahí probablemente no pueda ser. Tienes razón, me contesta.

Bueno pues podría ser de otra manera, vamos a intentar probar otra cosa, prueba a cambiar este código aquí, no sé qué, no sé cuánto. Lo prueba a cambiar, no sé qué, nada, no funciona. Después de varias interacciones de ese tipo, ya empiezo sigo haciendo pruebas y nada funciona vale la animación se quitaba dejaba de funcionar y yo le iba diciendo qué es lo que hacía uno de las modificaciones de código que iba a realizarlo. Por lo tanto ya teníamos ahí un contexto del carajo. ¿De acuerdo?

De de de de. Bueno yo de líneas y de mogollón de palabras. Y siguiendo tal, le digo, vaya, pues esto no hay manera, esto no, o sea, ya llegó un momento en el que le decía, Nada, punto. No hay manera. Esto no funciona, de verdad es que no sé lo que le puede pasar, tal y cual.

Y me contesta, la verdad es que sí, es muy frustro. Cuando las cosas no funcionan bien tal y cual y me dice después de un punto. Revisando de nuevo tu código Me he dado cuenta que podría ser que el fallo pudiera estar aquí Y claro en ese momento dije ¿Cómo que revisando de nuevo mi código? ¿Por qué no pruebas a poner aquí un cambio del índice Z para el elemento cambiando el orden de los elementos dentro de tu z stack y poniendo un índice z en uno para que iguale los dos índices de los dos valores de lo que es la capa de talla y la capa maestro? Eso es una solución que no tenía nada absolutamente nada que ver por el que camino por el que íbamos.

O sea, fue una diametral absoluta, un cambio total de sentido. Y y digo, bueno, pues voy a probarlo. Lo pruebo, lo pongo y funciona. O sea, De verdad, no soy conscientes Yo en ese momento dije: Pero ¿qué cojones está pasando en este mundo? A día de hoy, pero que ven ET donde ya por favor venid ya, o sea, setecientas mil de alfa beta gamma reticulin, ya están aquí, no lo hemos visto.

Yo quiero tener la marca del grito para el advenimiento, o sea, ¿qué mesas container? Claro, inmediatamente le escribí a Oliver mira lo que ha hecho tal igual, papá, papá, papá, y os prometo. Y creo que esa es la mejor forma de ver la diferencia entre GPT3 y GPT4 es que GPT4 es tu compañero de viaje. Es muy heavy. Y cuanto más contexto más hablas con él y más le cuentas y más como una persona lo tratas Más es eso.

Sí, mejor el resultado, ¿verdad? De hecho es una cosa que cambia mucho respecto a tres punto cinco, y es que antes tres punto cinco y tres, en cuanto más lejos llevabas la conversación, más estropeaba. Es decir, empezaba ya a meses sin un bucle muy raro y ya no lo hacía, sin embargo, aquí es el revés. A mí me gustaría, igual que tú has tenido, digamos, esa experiencia, ¿no? Que te ha abierto los ojos, contarte una que te comenté yo a ti también, una cosa que le pedí, porque ya sabéis que me gusta mucho trastear y una mañana me levanté y dije, ¿sabes qué?

Ha llegado el momento de enseñarle al mundo que esto es muy me dejé por jefe, me dice joder, pero no que esto es mucho más complejo y mucho más profundo de lo que mucha gente está entendiendo, ¿no? Y bueno, pues digo, te levantas, te coges tu café, par de galletas, te sientas delante del ordenador y dices,

mira, o

si eso te chocolate,

Sí, sí, bueno, yo no, es que su diabético tiene ruido. No, no, no. No, que que llame la atención. Pero no, no para decir voy a hacerme rico, no, no, no, porque realmente tengo interés ¿no? De de de ver lo que puede hacer.

Así que con tu permiso Julio, porque es cortito, voy a leer lo que le puse, porque yo como tú bien dices Julio, yo le hablo muy sin fuese mi colega, ¿sabes? Es decir, yo no le hablo como, hazme esto, eso me parece muy mal lugar. Yo no quiero meterme con las inteligentes artificiales y que con el cual que cualquier día venga un calamar, a Picasa llamando a la puerta diciendo qué has dicho. Yo eso no quiero que pase, ¿no? Entonces, le escribo.

Muy buenos días. Estoy impresionado con la capacidad de razonamiento y creatividad que tienes. Estoy teniendo algunas discusiones con algunas personas que aseguran que no eres capaz ni de razonar ni de crear contenido original. Ya les he explicado de que por cómo funciona una red neuronal esto es perfectamente posible. Me gustaría zanjar este tema de una vez por todas.

Quiero pedirte un favor. Me gustaría que creases un nuevo lenguaje de programación, soy consciente de que no va a funcionar, pero que me gustaría que te lo inventaras. Me gustaría un lenguaje moderno, tipo Collins o Swift, y que fuese fácil de interpretar como es el caso de Python, y ha ser posible que fuese que sea fácil de entender. No es necesario que sigas las estructuras tradicionales de la programación, como los clásicos Silk o board, desarróyalo como tú consideres. Aquí la parte más importante es que claramente no te bases en un lenguaje de existente.

Quiero que sea algo original. Contestación, ¿vale? Muy buenos días, gracias por tu confianza en mis habilidades, estoy encantado de ayudarte en crear un nuevo lenguaje de programación conceptual. Lo llamaré Chris Lang combinando las palabras Cristal y Lang y Langwitz, para enfatizar dar la claridad y la simplicidad. Características generales de Chris Lang, ¿vale?

Esto es lo único que os voy a leer y ahora sigo contando un poco como a la conversación, ¿no? Esos son son cinco líneas. Características generales de Kirsland, sintaxis simple y fácil de leer. Tipado estático con inferencia de tipos. Orientación a objetos y funcional.

Soporte para concurrencia y paralelismo. Enfoque en la segunda y manejo de errores e interoperabilidad con otros lenguajes de programación.

Yo soy Y

a partir de aquí mucho. Sí, sí, claro, claro, claro, por eso por eso vamos a seguir, porque claro, he quitado, aquí viendo el tema, ¿no? Me dice. Sí, daxis básica, perdona. Definición de variables y constantes.

Me dice bar, nombre de variable igual a valor consta, nombre de constante igual a valor. Bueno, aquí me empieza a explicar cómo es el lenguaje, ¿vale? Empieza a tirarlo, empieza a tirarlo. Y le digo, no me termina de convencer porque tengo la sensación de que lo que has preparado mezcla de lenguajes ya existentes y me gustaría que todo fuese original, original. Que la forma de programar no exista en la actualidad.

Quiero ver que sea algo complejo mente distinto, y me dice, entiendo tus preocupaciones. Maravilloso. Entendiendo tus preocupaciones. Aquí tiene es una propuesta de lenguaje de programación completamente original llamado Cynthia. Cynthia tiene una estructura basada en nodos en lugar de líneas de código y usa una combinación de elementos visuales y texto para representar la lógica del programa.

Características de Cynthia, representación basada en senos y conexiones, estructuras de control basadas en eventos y flujos de datos, programación reactiva y orientada a objetos, soporte para paralelismos con coherencia mediante ejecución simultánea de nodos, interlocutoría de operatividad con otros lenguajes, agesita. El caso es que me lo desarrolla, está bastante bien lo que está desarrollando, le pido incluso algún ejemplo, me lo hace, pero lo mismo, termina, termina, y le digo, de hecho, de hecho, mira, le pido que me haga un ejemplo que sea capaz que porque esto es donde las cosas que todos odiamos, ¿no? Podrías hacer una app que sea capaz de convertir un XML en un JSON. Me la hace. Yo creo que es es la cosa más horrorosa del mundo, ¿no?

Bueno, pues, bueno me hace un montón de cosas, le pido algunos cambios y demás, y aclaro, aquí le pregunto, le digo bueno, entonces está muy bien, pero yo estoy convencido sin saberlo, porque ya este nivel no lo manejo, ¿no? Le digo mira, esto tiene que existir, o sea, a mí no me a mí no me cuentas milongas. Vale. Es decir, le digo una pregunta, ¿existe en la actualidad algún lenguaje de programación que se parezca a Cynthia y Cynthia Script? Ah, porque también me creó Cynthia Script, que un lenguaje de script para crear los nodos.

O sea no te creas Duke que me

hizo una cosita no no no no no ojo ojo ojo ojo que que es bastante de complejo, y me dice, a ver, Eisbert me dice sí existen varios lenguajes de programación herramientas aunque son distintos por conceptos y tal, y mira, se parece un poco a nosotros red a Max MSP y a Pure data. Le digo y le digo hey, ok. Entonces no me sirve. Yo lo que quiero es algo completamente original, con unos flujos que no existan, una forma de almacenar y recuperar información que nunca haya sido usada en un lenguaje, una estructura lógica que no se use en ningún otro lenguaje, por por, hazme un esfuerzo. Que tío te hablo como una persona tío, hazme el esfuerzo a ver si me puedes dar una creación única.

Aquí es donde viene la mandanga, tío. Aquí es donde viene en Salami.

Ayer donde dice que cambió el servidor y todo. No, no, aquí

es donde ya empiezas a plantearte tu vida, tus cosas, y todo lo que tiene alrededor. Escuchaste esto. Entiendo tu solicitud, aquí hay un enfoque completamente original y no novedoso para un lenguaje de programación llamado Fluction. Fluction se basa en el concepto de partículas y campos de fuerza para modelar datos y lógica, en lugar de nodos, y conexiones. Perdona de mi vida.

Partículas, las partículas son las unidades básicas de datos funciones en fluction. Cada partícula tiene propiedades y puede interactuar con otras partículas de acuerdo a reglas específicas. Campos de fuerza, los campos de fuerza son áreas dentro del espacio de programación que influyen en las partículas y sus interacciones. Los campos de fuerza pueden representar operaciones de almacenamiento de datos eventos y otras funcionalidades. Interacciones y flujos, las partículas interactúan entre sí y se mueven a través de campos de fuerza, de flujos de económicos y cambiantes, las interacciones y flujos determinan la lógica y el flujo de control del programa.

Aquí hay un ejemplo en el que dice te creas particular nube la Amberal, la particular Amber B, un campo de fuerza que se llama Visionfield cuando interactúan blablablá. Vale. Yo soy ingeniero, he estudiado mucha física. Cuando te digo mucha física es lamentablemente demasiada más física, demasiada física, mucha de la que yo habría querido, porque en la universidad donde yo estudié, la parte de campos se considera como la parte que nos diferencia a los ingenieros caído el resto de los ingenieros del mundo. Está, esa es así, ¿vale?

Lo que aquí ha planteado la inteligencia artificial es probablemente la cosa más bestia que yo he visto, era algo que tenga que ver con ordenadores desde la invención del cero y el uno. Es decir, lo que aquí ha planteado es lo siguiente, es decir, vale, tú estás utilizando por decirlo de alguna forma, una lógica humana. Es decir, cuando tú utilizas un lenguaje de programación normal y corriente, tú utilizas los mismos conceptos que utilizamos los humanos para tomar una decisión, para ver cuál es una condición, para ver cómo funcionan las cosas. Cuando nos otros, fíjate, es que esto esto es muy es muy profundo, es que es que es muy es muy bestia. Cuando nosotros interactuamos con la física que nos rodea.

De hecho lo primero que hacemos, lo primero, primero, primero que hacemos es descomponer esa física en cosas que somos capaces de medir. En cosas que somos capaces nosotros de parametrizar para poder llegar a resultados. ¿Me explico? Tú sabes ves, tú has estudio, bueno, prefiero cualquier lo haya estudiado, sabe que tú tienes para definir todo el tema de los campos electromagnéticos, que tienes las cuatro leyes de Maxwell. Fárada y ley de tal a tal cual.

Y tú sabes que el problema que tienen esas leyes es que no tienes pelota de utilizarlas. No tienes pelota de utilizarlas, es decir, tienes que romperlas, tienes que transformarlas en algo numérico, en algo parametrizable, en algo que tú utilizas para poder llegar a resultados. Eso no significa que las leyes como tal no funcionen. Funcionan pero tú no tienes la capacidad de llegar al resultado a través de simplemente pensar en términos de divergencias, convergencias, rotacionales y demás. No puedes, no tienes capacidad, nadie tiene capacidad de hacer eso.

¿Qué es lo que ha hecho lo que ha hecho es decir voy a romper la lógica de programación, la voy a abstraer y voy a convertir las unidades de procesamiento en lo que sería el entre una partícula en física. Y el cómo se pueda dar una condición, cómo puedan interactuar dos partículas, cómo pueda crearse una función y demás, cómo si fuesen, cómo si fuesen campos, para llevarlo a un punto más sencillo que todo el mundo pueda entender. Esta data está diciendo es tú cuando haces un programa, tú lo que haces es buscar una lógica, te creas funciones, desde un sitio llamas a una función, desde un una creas una variable que es igual en distintas funciones, creas una variable que puede ser global o que pueda estar dentro de un sitio y demás. Aquí lo que te dice es, tú aquí no te vas a crear distintos archivos. Tú aquí te vas a crear distintos universos.

Cada universo va a tener unas reglas que tú vas a definir de campos y va a tener las partículas que vas a definir de campos. Esas partículas vas a poder vincularlas como si fuese por ejemplo, por un ejemplo físico, un entrelazamiento cuántico entre dos partículas, para que si una partícula en uno de los universos cambia, cambie también en uno de los universos. De tal forma que tivamente tú puedes modelar cualquier problema o cualquier cosa que tengas, la puedes modelar a base de crear universos, digamos, universos moldear dos. Si nuestro universo se rige como es porque cumple con una serie de campos y una serie de partículas, ese conjunto de campos y partículas crea nuestro universo. Si esos campos fuesen distintos, su interés visible, el campo eléctrico fuese divergente, en vez de divergente, fuese rotacional, el campo magnético fuese divergente y rotación porque nuestro universo sería completamente distinto.

Entonces es lo que está diciendo es, tú create distintos universos, conéctalos entre ellos y el resultado de la interacción conjunta va te va a dar respuesta al resultado que lo estás pidiendo. Y eso es correcto. Eso es lo jodido. Lo jodido es que eso es correcto. De hecho, claro, me gritan a cuadros que una de las cosas que le digo es primero add new hello world y además házmelo que dependa, ¿vale?

Que dependa de una condición, y aquí es donde te quedas luego cuando te dice, vale, por lo que vamos a hacer es crear una partícula que va a estar dentro de un campo que en el caso de que esté a cierta longitud debido al rotacional va a quedar activa la partícula y si la partícula está activa, que en este caso la la la partícula activa es poder hacer un print en una terminal, en ese caso en el otro universo que tenemos esa misma particular enlazada va a poder lanzar la frase a la terminal y va a poder salir por ahí. Y claro ya cuando ya veo esto le digo guay, me me acabas de dejar un poco a a cuadros y le pido, a ver si lo estamos aquí, le digo oye, ¿podrías utilizar esta ocurrencia que has tenido para modelar la leyes de Maxwell y me la modela. Me modela las malditas leyes de Maxwell como si fuesen las partículas y los campos que tenemos en nuestro universo, si fuese parte de código. Claro, ahora que venga alguien a decirme no. La inteligencia artificial lo único que hace es coger información del del dataset de entrada, y te voy a decir, pues vas a

comer los huevos, no salgo tronica de mi respeto.

Esto no es existe. Esto en concreto no existe, sí, que se haya podido basar en patrones ya que que que ha reconocido de la fees porque eso es física al final, que haya podido reconocer patrones de programación, pero la mezcla, la originalidad y sobre todo es que esto que está planteando es correcto, porque es correcto. Esto estamos hablando de otra cosa, O sea, es decir, la capacidad que tiene esto de poder generar algo que hasta ahora no hemos visto, esto por supuesto, esto ni ni gP tres ni gP tres punto cinco ni las anteriores tenía esta capacidad. Esto es algo nuevo, y esto es algo nuevo que según están diciendo la la la propia PNI tiene que ver con lo que hablábamos en el último episodio de ese aumento de complejidad, gracias a que esta inteligencia artificial no nos olvidemos, es multimodal. No es no es una inteligencia artificial monomodal de las que estamos acostumbrados, sino que el hecho de que los entrenamientos finales se hayan hecho en el que un patrón que se utilizaba tema de imágenes pueda ser reutilizado para un tema de texto y viceversa y imágenes y tal, es lo que hace que el nivel de abstracción, el nivel de complejo de lo que podría ganarte, pues hombre, es lo que os digo, es que esto terminó de

ver este juego con cierre, digo, me voy a dar una vuelta porque es que no sé qué pensar

a partir de este momento, ¿no? Esto esto es muy bestia, esto es muy muy bestia, ¿no? Esto, ya os digo, caso esto fue lo que me hizo quedarme sentado y decir, no somos conscientes de lo para todo lo que se va a poder utilizar esto, ¿no? Y ojo, Tenés en cuenta que esto es lo que hablábamos hace un momento, no está ayudado por treinta y dos mil tokens de física, ¿vale? Que yo pueda meter de apuntes de física no está ayudado por treinta y dos mil tokens que yo pueda meter de lenguajes de programación para que coja ideas.

Esto es simplemente con su entrenamiento estándar. Es, joder, es muy bestia. Esto es muy muy bestia, es muy bestia, no sé decir otra cosa.

Y todo esto tiene que ver con lo que OpenEye ha dado por llamar la cadena de pensamiento, ¿no? Que es un poco lo que ellos, a ver, no lo quieren llamar conciencia porque yo creo que son palabras mayores. Sí. Porque también qué es una conciencia

Claro.

¿Qué es un pensamiento? En fin, depende con quién lo compares, ¿no? Si si coges a un político cualquiera random, pues va a ser seguro que supera en capacidad hasta gpt uno, ¿no? Pero, en fin, pero esto que es la cadena de pensamiento. Al final es un poco que al digamos que es donde yo creo que está el truco de magia no entre comillas no truco de magia que es que al tener un contexto mucho más grande Al tener un entrenamiento mucho más grande y al poder controlarme con ese contexto entenderte mejor y poder aproximarse mejor a la forma en la que está contestándote claro se consiguen capacidades totalmente distintas, totalmente distintas que, bueno, ahora mismo, pues sí es cierto que tenemos digamos, la pala, entre comillas, de ese, digamos, ese punto de entrenar máximo que es ese dos mil veintiuno pero que no impide que te pueda dar ciertas respuestas que te pueda contar ciertas cosas que te pueda ayudar o que te pueda pues dar esa sensación ¿no?

De que realmente pues oye de que haya alguien ahí detrás, ¿no? Eso es un poco la sensación que hemos tenido al respecto.

Sí, fíjate que es importante. Mira, lo habíamos dejado al final pero creo que es que enlaza demasiado viene aquí como para para no comentarlo, ¿no? Presentaron esta misma semana la prueba de Microsoft un, digamos, un paper, en el que hablan si quieres lo hablamos después, pero es para poder enlazar con esto. Hablan de podría considerarse que este g b d cuatro es como una especie de versión primitiva incompleta, ¿vale? De de lo que podría llegar a ser una agísima inteligencia artificial general, que como tú bien dices podría llegar a tener consciencia, aprendizaje autónomo, etcétera.

No estamos en ese punto, ¿vale? Dejémoslo claro, en absoluto. Pero claro, aquí el tema está lo interesante que tiene Microsoft en ese en ese paper, son ciertas apreciaciones. Te hablan de la cadena de de pensamientos, de lo que ellos llaman, ¿vale? Es una forma de llamarlo, ¿no?

De cadena pensamientos que no deja de ser de decir oye, resuelvo problemas y los incluyo en el primer contexto para seguir resolviendo el problema. De tal forma que como puedo hacer cosas, puedo llegar mucho más lejos, sin equivocarme, porque si lo hago el intento llegar de golpe, el resultado me equivoco, casi seguro, y ahí me he quedado, empiezo a decir tonterías, sin embargo, si yo voy razonando, por decirlo de alguna forma, que en definitiva es un poco como lo hacemos nosotros, ¿no? Es decir, yo quiero resolver algo, no voy no intento resolver directamente resultado, voy pasito a pasito, voy rompiendo el problema en trocitos, lo voy resolviendo y ya costaba un resultado final, ¿no? Pero claro, luego tienes otros con conceptos que hablan dentro del dentro del del paper que son muy interesantes. Antes de ir mal gordo, te voy a hablar de los conceptos porque de las conclusiones las conclusiones lo primero que te dicen es, aquí hay un problema.

Yo les he mencionado hace un momento. Si no sabemos las definiciones, de razonamiento, de conciencia, de inteligencia y tal. ¿Cómo estamos intentando catalogar esto exactamente? Eso es lo primero que digo, desde que tenemos un problema de base bastante complicado. Y es que si no sabemos, porque no tenemos capacidad al día de hoy de saber cómo llamar a todo esto, cómo dar una explicación, digamos, precisa y concisa de lo que son estas como intentar compararlo, así que de momento intentemos no comparar.

Gracias, porque no tiene sentido, pero no no por nada, no no porque no tenga capacidad de asilo, porque es que aquí estamos comparando con qué. No lo sabemos. Y lo siguiente que te dicen es, también tenemos que ser en cuenta de tener muy en cuenta las limitaciones que tienen estos sistemas respecto a lo que nosotros consideramos sistemas inteligentes y que evidentemente en un momento dado se van a eliminar. Te dicen, hay que entender que esto Esto que tenemos entre manos sería como el equivalente, por decirlo de alguna forma, una especie de cerebro pero sin memoria. Cerebro sin capacidad plástica de de ir aprendiendo sobre la marcha.

Es como la fotografía de un cerebro a la que, es como coger un cerebro, pararlo en un instante de tiempo y hacerle cosas de las que luego no se va a cortar nunca. Por decirlo por la forma. Entonces, claro, así no funcionamos nosotros. Así no funciona la inteligencia que conocemos. La inteligencia que conocemos necesita a almacenar información, necesita ir haciendo cambios en tiempo real de lo que está sucediendo para poder ir avanzando, ir a aprender y haciendo cosas, y esto no funciona así.

Aquí para que aprenda, tienes que hacerlo un fine, tú ni no tienes que hacerlo un reaprendizaje. Aquí para poder así decir, lo que tenemos es el equivalente a una fotografía, una foto de un cerebro en un momento dado, pero aunque solamente puedes interactuar con él, es como decir, te anestesia, te hago tres preguntas, anestesia, y luego te vuelvo a la realidad, pues claro lo que voy a conseguir sacarte es muy poca cosa. Ellos lo que están diciendo es cuidado. Por eso creemos que esto es una versión primitiva y por eso que esto es una versión, porque al final lo que es el funcionamiento per se, lo que es cómo está estructurado, si empezamos a pensar que es lo que está diciendo decir, oye no está firmado porque no lo sabe pero ellos mismos están diciendo sí estamos empezando a pensar que este es el camino para llegar a esas famosas inteligencias artificiales de películas. Desde que todos tenemos en mente que algún día acabarán con una metralleta detrás de nosotros, ¿no?

Sí que parece que este es un poco el camino. Y luego te hablan de una cosa que es la que parecido más interesante de todo esto que es. Sí que tiene capacidad de creatividad, ¿vale? Y de hecho ellos le ponen un nombre para ser exacto. Ellos lo llaman alucinaciones.

Ellos dicen que la esta inteligencia artificial, lo que tiene son alucinaciones, y aquella vamos a ponerlo en contexto, a que llaman alucinaciones. Llama alucinaciones a cuando cogen, digamos, esos parámetros que han aprendido, ¿no? Parámetros, sino esas estructuras, esas razonamientos que han aprendido en su data set de entrada, ¿vale? Tú interactúas con el sistema, utilizas contextos y de repente te da una respuesta te da una respuesta que no existe en el lado set, una respuesta que tú no le has dado, es decir algo que es completamente de nuevo. Y precisamente dicen que el reto el reto real es conseguir que el propio sistema sea capaz de validar que lo que está dando como respuesta es una luz afinación y que esas alucinaciones son correctas.

Que por eso tienen tan tapada como ya hablamos en el otro en el otro podcast, sabes que cuando da una respuesta tienes a otras dos inteligencias artificiales y a terceras áreas que son capaces de decir, espera, espera, espera. Esto que está respondiendo, tiene sentido, no tiene sentido, no tiene sentido, capó la puesta. No la des, no tiene sentido que me des una cosa que no puedes afirmar que es verdad, si no estás seguro, o sea que no lo hagas. Entonces precisamente dicen que ese reto, eso es lo que vamos a ver en los próximos años. Ser capaces de esa creatividad, saber que es positiva o que es correcta o que es verdadera, que no es cualquier tontería que te pueda poner que no vale para nada, es decir, el poder decir oye esto que te he creado de los campos y tal, tengo cierta seguridad o puedo demostrarte o hacerte un razonamiento de por qué he llegado a ayude porque es correcto.

Incluso aunque se equivocase, si es capaz de hacerte un sonamiento que de primera sea verosímil, ya estamos en el punto de que sería equivalente a un humano, pero no estamos en ese punto, porque no es capaz. Entonces claro, joder, es que esto es lo que te digo, es muy bestia, digo, es muy bestia, o sea, decir, y y esto es lo que están presentando y es lo que están diciendo que cuidadito, que estamos en este punto. Es, no sé, a mí ya os digo, una semana como un poco descolocado, ¿no? Porque entre las pruebas que yo he hecho, el estar leyendo esto, ¿no? Lo hablábamos antes del del podcast, Pensando fríamente, pensando desde un punto de vista analítico, ¿en qué beneficia a Microsoft hacer un paper como este?

¿En qué de hacer ridículo? Decir de que si lo que estás diciendo es una tontería aparezcan veinticinco mil investigadores diciendo tú eres tonto. Tú lo que estás presentando es una estupidez. Lo que las a las que estás llegando no tienen sentido. Las conclusiones a las que estás llegando te las estás inventando.

Estás intentando hacer publicidad. Y la reacción, tan de investigadores, como de competencia y tal es callar. A ver, por favor que nadie tome esto como una cruz para no ya en absoluto. Que para que veáis un poco el nivel de complejidad y el nivel de decir vamos a ir con calma porque es verdad que los resultados que está dando son resultados que nadie esperaba. Ellos mismos lo dicen, no tienen pudor de decirlo.

Es decir, y además es la primera parte, ¿no? De en el ASTRA y los primeros puntos de del del paper, es lo que te están diciendo, es decir, es que sabíamos por las teorías de cómo funcionan las inteligencias artificiales, que podían producirse, podríamos llamar razonamientos complejos, patrones complejos, como lo queráis llamar, ¿vale? Es decir, es es eso que se puede parecer a lo que nosotros llamamos pensamiento podría llegar a aparecer a partir de un entrenamiento más simple pero muy complejo. Sabíamos que podía llegar a pasar, pero lo que no creíamos es que iba a pasar ya, que nosotras pensábamos que eso en un futuro, podríamos empezar a ver las primeras cosas, pero nos hemos encontrado con que desde los primeros modelos ya irnos primeros visos de oye, este patrón no parece que sea una tontería. Parece que lo está haciendo y cuando hacen ciertos análisis, ya sabéis que Google lo ha hecho dentro de de de Jam, de Betsy, de de no perdón, de Landa, el colocar ciertos marcadores para ver por dónde se mueve, cómo se mueve cierta información dentro de la red neuronal, ver si es que lo hace siempre igual o si cambia o si sigue ciertos patrones o no.

Eso es un poco la la la cosa, ¿no? Y ahí es donde ves, pues, que al final es de lo que estamos hablando el salto tan grande que tenemos con GPT4. Sí, que nadie se alucine, que nadie piense que que de repente tiene aquí a otro robot, que va a estar hablando con no, no, no, por favor, que se pongan las cosas en contexto, pero que todo el mundo tenga en cuenta que esto es suficientemente importante para empezar a tomarlo en cuenta empieza a tomarlo como algo serio y algo que estamos viendo que realmente va a tener un impacto, ¿no? En lo en lo que estamos haciendo.

Y claro, todo esto da lugar a pues una revolución en la que todo el mundo quiere apuntarse y lo primero que sucede es que bueno ahora mismo tenemos tres supuestos tres grandes modelos de habla, ¿vale? Tres, lo que podríamos llamar un large language model, un LLM, que serían gpd4 o la versión anterior gpd3 que sería llama que es el de el de Facebook, ¿no? Si no me equivoco, que también se presentó el mes pasado, y luego tenemos lo que es el de Google, que sería Palm, ¿no? Es P a l m. Sí, sí, no recuerdo mal.

Sí. Y

claro, todo esto es como vale, qué guay. Resulta que tenemos tres grandes modelos conversacionales para muchas cosas. Pero lo primero que están haciendo es decir, no, no, no, no. Es que esto lo vamos a aplicar ahora de una manera práctica, ¿vale? Vamos a dar soluciones para el mundo real.

Y entonces nos llega que lo antecedimos en el anterior episodio, la presentación de, bueno, de Microsoft que decía, no, no, yo voy a presentar algo que tiene que ver con el mundo profesional. Pero es que resulta que Google pues se lo huele y pocos días antes, lanza algo parecido, por lo que con apenas tías de diferencia nos presenta Microsoft trescientos sesenta y cinco, Copylot y Google Workspace basado en inteligencia artificial. Oficial. ¿Qué es lo que nos ofrece cada una de estas cosas? Pues básicamente la integración de estos modelos de lenguaje dentro de lo que serían las switch ofimáticas caste cada una de las compañías.

En el caso de Microsoft, estaríamos hablando que Microsoft se ha dado cuenta que I have Copylot está siendo todo un éxito está funcionando muy bien según datos de la propia Microsoft el ochenta y ocho por ciento de la gente que usa Pilo piensa que es más productivo, yo estoy en ese porcentaje, el setenta y siete por ciento dice que la herramienta les ayuda a pasar menos tiempo buscando información, yo soy uno de esos porcentajes y el setenta y cuatro les dice que les permite enfocarse mejor en conseguir una mejor calidad en su trabajo pues obviamente no perdiendo el tiempo en cosas todo ventas. En base a eso, Microsoft dice, pues vamos a meter el modelo de lenguaje natural y ya está funcionando en Bing y que ya podemos decir públicamente que funciona sobre GPD4 y metemos Copailot para Word, Copailot para Excel, Copailot para PowerPoint, Copailot para El look este sí que me mola a mí, copay love para teams vale que se añade a lo que ya habían presentado previamente de Teams premium además introducen y presentan un nuevo business chat que permite mezclar distintos servicios dentro de lo que es los propio el propio uso de teams una nueva aplicación llamada viva que permite integrar también distintos servicios de gestión, de grupos de trabajo y crear un fin de comunidades, etcétera, etcétera, y bueno y todo esto pues obviamente con la parte lógica de responsabilidad bella privacidad tus datos de tu organización van a estar securizados y van a estar dentro de las políticas de Microsoft tres seis cinco tal y cual porque claro para que todo esto funcione yo tengo que abrirle la puerta de todos mis datos de mi empresa a Microsoft y quien dice todos los datos está hablando de ficheros, documentos, hojas de cálculo, presentaciones, todo para que el sistema sea capaz de realmente ayudarme, de encontrarme datos, de calcularme elementos, de el fin de hacer todo lo que tiene que hacer a ese respecto con asistentes que van a permitir poder decirle pues mira créanme un, pues eso, un borrador de tal tipo para una propuesta de un proyecto que se ha creado de tal persona basado en este otro documento que tengo de Word con los datos de este documento que tengo en Excel y genérame el el un siguiente párrafo que tenga un tono más casual pero que tenga un resumen al final de lo que tal, o sea, es como, pues es un secretario, secretaria inteligente, que te va a construir todos los documentos pues eso, en un Word, en un Excel, en un PowerPoint, formas en la que le dices, créanme una presentación y él te crea la presentación y le dices pues ahora métele estos datos que vienen de este otro fichero o métele los datos de este pdf o métele ahora cambia y ponle animación para que quede bonito en las transiciones entre distintos elementos, es decir, en fin.

Y esto a grandes rasgos cada uno con sus características y sus capacidades y entonces su suite es lo mismo que está ofreciendo workspace o sea es decir con Google docs con Google spreadsheets con Google, presentations, creo que se llama y con Gmail. Ahora, porque Oliver ha hecho así con el cuerpo diciendo bueno, lo mismo lo mismo que sí hay que tener en cuenta que todo el mundo sabe y por si no lo saben yo lo dejo más que claro que la suite ofimática de Microsoft está a puñeteros años luz de lo que es work space que es algo más como de andar por casa en plan como más pequeñito, ¿vale? Pero la idea es meter esos modelos de lenguaje natural dentro de estas dos switch ofimáticas para que puedan empezar a generar por nosotros un montón de información que se basa en texto esto, por ejemplo pues también el que redacte emails o el que busquen contenido de ficheros o el busquen contenido de lo que sea, ¿vale? Eso es un poco la idea, este es el paso en el que quieren que esta inteligencia artificial empieza a ser práctica y no de una forma mucho más prácticos de ser y de trabajar.

Déjame que complemente un poco lo que has contado porque desde mi punto de vista es un cambio bastante más profundo. Y te digo porque yo es que ten en cuenta que yo me he pasado mis últimos quince años trabajando en empresas enormes, ¿vale? Es decir bueno, la primera no, me la primera éramos trescientos, o sea, es una empresa pequeña, pero ya mi segunda empresa éramos quince mil personas, la tercera empresa éramos, si no me equivoco, veinticinco mil, y en esta última éramos otras quince mil personas, es decir, empresas bastante grandes. El cambio que está proponiendo Microsoft es mucho más profundo y mucho más bestia, y te te explico por qué, ¿no? ¿Por qué por qué me lo parece?

Porque habiendo trabajado tantos años en estas empresas, te das cuenta de por qué luego sale la propia OPNA y ahí diciendo preparados para la destrucción de empleo que viene en en según qué sectores, ¿no? Piensa que estábamos hemos estado hablando todo el tiempo de uno de los que querías problemas.

Digamos que eso es lo que ellos han presentado y su objetivo. Pero luego, como tú dices, eso va a tener muchas más implicaciones.

Claro, lo que pasa que es lo que te digo, es decir, al final la herramienta más importante de todo lo que presentado no es tanto la integración, ¿vale? Que es lo que puede parecer de primeras, ¿no? La integración de este copy lot en las distintas aplicaciones que está muy bien que todos que eso iba a pasar. Esa esa era la parte que a mí no me ha sorprendido ¿no? Que cuando lo he visto y chups.

Ok. Es decir eso. Echamos que era por eso. Por eso.

Por eso la presentación.

Por eso hace una semana. Pero aquí viene la parte heavy, la parte bestia. Estamos hablando y estábamos hablando la semana pasada, que una de las cosas que iban a ser más levantes, más complicadas y más difíciles de llevar a cabo era que las empresas iban a tener seguramente la posible que será la parte guay, la parte interesante de decir espera, dame mi propio modelo privado para mi empresa, y yo lo voy a hacer es pasarle información para entrenar a ese modelo con esa información y a partir de ahí que mi empresa pueda, digamos, estar más interconectada en cuanto a los datos que tengo y demás, ¿no? Pero claro, aquí llega Microsoft y te dice, qué cuidado, que no solo te estoy dando Copylot, te estoy dando una completando empresa que además va más basada en Microsoft graphs, que es capaz de hacer un análisis de toda la maldita información que tiene en la empresa y pasarle, digamos, una relación de esos datos, de esa información, de ese análisis, de dónde está cada maldito número de tu empresa al sistema de copay ¿Esto qué hace? Esto hace que es que hasta el concepto de lo que son las distintas aplicaciones de office es una apuesta que yo hago a futuro.

De aquí a cinco años creo que cosas como Word, Excel, PowerPoint, no van a existir como cosas separadas. Van a ser toda una herramienta única en una sola interfaz. ¿Por qué? Porque bueno a nivel forma de

ya existe ese decir. Sí, pero

pero mucho más mucho más único.

Julio. Julio. Julio. Julio.

Vale. Es decir mucho más único en el sentido decir pantalla en blanco prácticamente. ¿Por qué? Te digo por qué los tú piensa piensa esto. Tú hasta ahora tienes muchas tareas que tienes que hacer, que tienen que ver con ir sacando información de distintos sitios.

Ese trabajo ha desaparecido. ¿Por qué? Porque tú vas a poder pedir desde Word, desde Excel, desde Outlook, desde donde a ti te dé la gana, tú vas a poder pedir necesito sacar una relación de todas las ventas que hemos hecho a tal compañía en tal sitio. Y él solo que esta es la parte relevante porque lo plantearon tal cual y te explicaban además cómo encontraba la información, él solo ya se ha metido en todos los ficheros que tiene tu empresa, sabe dónde está la información y te hace el fichero en tiempo real. Es decir, no el fichero, sino la la información, una tablita o una explicación o una gráfica.

Por otro lado está basado en el GPT4 que incluye procesamiento de imágenes y gráficos, con lo que gran parte de todo lo que tú ya tienes preparado desde de planos, gráficas, de de económicas, financieras y demás, es capaz de interpretarlo y es capaz de utilizarlo para estás haciendo. Es decir, te pongo un ejemplo, técnicas reunidas. Tienes un proyecto del que tú quieras. Tienes distintas disciplinas y tienes a una persona que es el líder del proyecto. Que tiene que dedicarse casi cuatro días a la semana, ¿a qué?

A poder poner en orden la cantidad de información que hay, pero no en el sentido de picar datos. No, no, no, no, no, de decir qué está pasando, necesito información de otro departamento, de dónde saco esta información y demás. Eso desaparece, porque automáticamente solo tienes que hacerle una pregunta al sistema, al famoso business chat y decirle, por favor, me vas a generar un pequeño informe en el que me digas el departamento de al lado cuáles son los documentos que ya me tienen preparados para yo poder seguir trabajando. Estos suponían horas de trabajo, horas de reuniones y horas de cosas que a desaparecer. Porque automáticamente es que ya tienes información al sistema.

Tú fíjate un detalle interesante, Julio. Te has dado cuenta de que no hay, que sería el más fácil de dos, Porque tú eres programador y lo sabes. Sería el más fácil de dos. ¿Te has dado cuenta de que no hay copaylot para Access? Date cuenta que sería el más sencillo de todo.

Lo comenté que no había para Access. Sabes por qué es, porque para la mayoría de las empresas, salvo para temas de compras, ventas y las que eso es otro tema. Para el uso regular, el sentido de bases de datos a desaparecer. No, para que como que quieres una base de datos.

¿Qué es

lo la base de datos, escoger toda tu información, ordenarla, ponerla accesible para que luego tú puedas hacer una llamada con un formulario o lo que sea y poder decir, pues mira, aquí está esta promoción. En el momento que tú tengas al maldito Microsoft Graph con el compaylo, y le puedas decir, por favor, sácame una relación de todo lo que he hecho, último trimestre de la saque, tú no lo necesitas una base de datos. Me refiero en ese ámbito, a lo mejor hay otro ámbito en el que sí, lo que sí es necesario es un SAP, un Oracle, lo que tú quieras pero refiero en un hábito de trabajo normal. O sea, el cambio es muy bestia, tú piensa en una reunión, ¿vale? Tú piensa en la en las, por ejemplo, en las en las ideas que dieron de llego tarde a una reunión, y le digo a Copylod, por favor, haga una descripción corta de lo que ha pasado hasta ahora en la reunión, y lo tienes.

Mientras está en la reunión, el sistema tiene la capacidad para ir a ir analizando las preguntas, imagínate, tú estás con y el suministrador te pregunta, oye, tenemos un problema, porque necesitaríamos saber exactamente cuáles son las piezas que nos vais a pedir para este trimestre, porque tal, porque cual, tu copaylot te va a estar tirando simultáneamente en la parte derecha, la red respuesta a esa pregunta. Porque esa pregunta queda analizada, queda puesta no la va a exponer, porque para eso es tu información privada, va te va a tirar diciendo la respuesta esa está basada en estos tres ficheros. Porque toda esa información es lo que ya habíamos hablado. Ya la tiene Microsoft hecha implantar a día de hoy. Ya tiene herramientas en la que cuando tú tienes una reunión, tú te metes en Delvé y automáticamente puedes ver los ficheros que has compartido, los ficheros dónde está la información, las personas que están, quiénes son sus jefes, quiénes son toda esa información ya está.

Solo tiene que cogerla y parece ser que ya la coge y la utiliza en tiempo real vas a terminar la reunión y directamente te va a proponer decir ojo que os habéis dejado estos dos puntos abiertos ¿vale? O sea, al y yo, mi mujer, como sigue trabajando en temas de ingeniería, hicimos un ejercicio que nos llevo tres horas. Tres horas. ¿Qué fue decir? Venga, quiero que me plantes tu próximo día de trabajo, y yo voy a hacer de abogado del diablo, por decirlo de alguna forma, como si yo fuese ese interés religencia artificial, no, una inteligencia artificial de de de de Microsoft.

Y voy

a ir dándote las propuestas de cómo hacer las cosas, de cómo sería la forma lógica y ojo Sin fliparme o sea no no penséis que guay y además te di una palmadita no no no no cosas normales. Empezamos viendo, pues tengo una reunión con no sé quién, ¿vale? Pero en esa reunión qué es lo que has pedido. He pedido esto y esto y esto. Esa reunión ya no sirve.

¿Por qué? Porque esa información ya la tienes en tránsito, y estás teniendo la reunión porque tú no puedes acceder a esa información de una forma sencilla. Pero si tu sistema es capaz de tener la no indexada, sino en sus en sus sistema ya la vas a poder recibir y como mucho necesitaras una llamada para validar esa información. Pero no desde luego una reunión para solicitarla y para hablar de ciertos temas anulada tu próxima reunión. Ok.

¿Qué es lo que sí? ¿Qué tienes que hacer? Un power BI indicando qué es lo que ha pasado, para que con el que es un power BI. El power by para que no lo sepas como una especie de informes que puedes hacer interactivos y demás, para que coño quieres un power by, le pides desde Excel, desde Word, desde donde tú quieras, que te pida esa relación, si es una maldita relación que tú estás preparando a mano a partir de cuatro ficheros de Excel, si es que no tiene no tiene más, vale tiene razón. Después de tres horas,

conclusión que sacamos es Alidis viendo. Ahora ya no tengo no es lo cual va a

ser mi trabajo. O sea pero no porque lo vaya a perder O sea no no estamos hablando de ese punto sino porque o sea todo lo que a día de hoy considera tareas que tiene que hacer son tareas que ya no van a estar. Ya está, es decir muchas de las reuniones, muchos de los que hay que sacar son porque es difícil compartir cierta cantidad de información. Es difícil que una persona sea capaz de interpretar cierta necesitas a otras personas en tu cadena de mando que vayan recopilando cierto nivel de información, de sucesos, de interacciones y demás, se vaya al para que el que tiene que tomar ciertas decisiones tengo una visión real de lo que aquí ha pasado. Olvídate de toda esa cadena de sucesos porque ya la tienes.

En el momento que tú permites, ya no te digo en los correos, pero si tú permites que los informes que va haciendo cada persona, los cálculos que se van haciendo, es decir, al final tú te metes en una empresa de ingeniería, por ejemplo, te lo pongo como ejemplo, ¿no? Cada cálculo, cada informe, cada visita a una fábrica, todo está en un archivo de Work, del perdón de office, ya sea un Excel, un Word, un PowerPoint y tal cual. Es capaz el sistema de reconocer dentro de las fotos, que es que eso está está está publicado dentro de las fotos, a partir de los datos, exhibe, ¿vale? Puedo hacer relaciones de dónde se han hecho esas fotos en función de otros informes que se han hecho donde se han utilizado esas fotos, coloque directamente a él y cuando haga una planta saca unas cuantas fotos de oye mira esta pieza tal cual tú le puedes decir por favor hazme un informe de las piezas tal, tal, tal, tal, tal, de cuando estuvimos en planta. Te puede poner las fotos directamente porque encuentra la carpeta donde están esas fotos te importan fotos te la ponen pantalla.

Es que la reducción la reducción de tareas que se va a provocar es muy loca al punto que es por eso les digo que lo más probable es que en cinco años en que a lo mejor no son cinco años respetadores sino cinco años respecto a que se implante esto ¿vale? En ese tiempo la forma de trabajar en las empresas se las va a cambiar, o sea, es que no puede ser la misma, o sea, sí, pero va a cambiar de una forma muy drástica. Probablemente aparezcan tipos de aplicaciones que a día de hoy no tienen sentido. Posiblemente el concepto de tener según qué tipos de reuniones ya no tiene sentido, el tener que pedir, el tener que llamar, el tener, hay cosas que van a desaparecer, es que no tiene sentido, es que pierden completamente el valor que tiene una vida hoy. O sea, a día de hoy se valora mucho dentro de una empresa, de una empresa, perdón, el ser muy resolutivo en el en temas como odio, está sucediendo esto, necesitamos encontrar esta información y muchas veces el problema que tienes en una empresa y esto pasa, es que no sabes dónde está esa información.

Pero no es que no sepa dónde esté ubicada. Es que no sabes ni la persona que puede saber esa información de dónde ha salido, de dónde viene o de dónde va. Porque claro, es que estamos hablando de empresas que a lo mejor tienen mil personas. Entonces, a mí me ha pasado de echarme una mañana que parezco un detective, un ingeniero haciendo llamadas, hablando con uno, con él, otro parque, el trabajo para al final decirme ah sí, la información está en tal fichero, y te vas a tal fichero y dices, ay, dios mío, en el fichero te viene, sí, la información que quieres es que la tuve día es con este código así de grande. Ahora descifra el código, porque para descifrar el código, te tienes que abrir otros tres ficheros, en los que vienen las descripciones de los códigos, y dice, es que eso lo hace automático.

A ver, es decir, es que toda esa es que es La idea es para para los que sepáis más de programación, para los que estéis más estructurados, imaginás que cada maldita palabra, cada cálculo, cada cosa que tenéis en una empresa simultáneamente a estar generándola alguien la estuviese metiendo en una base de datos. Para que cualquiera pudiese hacer una llamada a esa base de datos para sacar la información. Yo básicamente lo que va a hacer esta herramienta. Aparte, por supuesto, de lo que hemos dicho, de facilitarte, escribir mejor de lo que escribes, tener mejor gramática, el poder tener contestación. Yo creo que va a haber un momento absurdo, estoy convencido, es decir, no creo que es una sea una cosa que se perpetúe, ¿no?

Pero va a haber algún momento absurdo en el que va a haber conversaciones que la van a mantener el chat business de una empresa con el

chat business de atrás porque toda no de atendiendo, ¿sabes? Estoy convencido de que tú vas

a lanzar una pregunta, la contestación a esa pregunta, la va a dar directamente el piloto automático de la otra empresa a esta leback y así principalmente durante un rato, esto esto evidentemente llegará un punto que se conectará y desaparecerá. Pero por eso te digo que es que no creo que sea un pequeño cambio, es decir, ahí tiene una comparado o no, como cuando las empresas se pasó de hacer ciertas cosas a mano, hacerlas a lo mejor con un excel, no, no, no, no, es más profundo porque es que el problema es que hemos mantenido en los últimos, yo que sé, cincuenta o sesenta años, cierta estructura y cierta forma de trabajar las empresas de, pues eso, de tareas tienes habitualmente que hacerte una forma de otra más automatizado menos automatizado para hacerlas. Es que muchas de esas tareas desaparecen. O sea, por eso por eso, es decir, Microsoft esto lo ha iniciado nada más que en veinte empresas, que por cierto me parece que ocho días son del Fortune quinientos, no sé si ocho o siete, siete ocho días son del Fortune juntos. Pues porque esto es un cambio que no es una tontería.

O sea, lo mismo la empresa te la pone estupenda, que de repente a la gente de la empresa

no sabe qué hacer en su vida, pero creo que

es haciendo, es decir, pero y ahora que se supone que tengo que hacer, pero no porque insisto, una vez más, no nos pongamos en ese supuesto de, es que perdí mi trabajo, no no no no, en el supuesto de no claro ni cómo útil, es decir, como si de repente tuvieses un sistema que no tienes claro cómo usar. A pesar de a pesar de que es muy fácil de utilizar. Porque de repente se va a encontrar un jefe que lo que hacía era recibir cierta información, es decir, si es que no necesito recibirla, si se lo tengo que hacer una pregunta y ya tengo esa información. Gente, por ejemplo, imagínate esto, esto es muy esto es esto es una cosa que va a ahorrar millones de horas de trabajo. Si tiene un buen sistema de reconocimiento de imagen como Jean enseñado que tiene, el ejemplo usted que pusieron, ¿no?

En la presentación, esto fue de GPT cuatro, ¿no? Que cogía un cuadernillo, pintaba el equivalente a una página y le decía, créanme una página web con la estructura de este cuadernillo y te lo hacía, ¿no? Si puedo hacer eso también te puedo coger un plan ejemplo, encontrar que es muy fácil, porque técnicamente es muy fácil encontrar incoherencia. De hecho, ya hay sistemas, hay algoritmos que son capaces de buscar ese tipo de cosas y imagínate un sistema de esto, ¿no? Es que la la te digo que la potencia de esto es, o sea, desde mi punto de vista algo ya no revolucionario sino que va a cambiar, va va a ser que cambie como trabajamos completamente.

O sea, me parecía Diego, me parece muy muy bestia precisamente por eso, porque he trabajado muchos años en estas compañías. Son compañías que mueven que mueven muchos miles de millones, muchísimo miles de millones todos los años, y van a cambiar completamente, o sea decir que y no le va a quedar más remedio, porque es que esto está así.

Es que Es que tela. ¿Qué es lo que puede pasar? Que yo creo que esto es algo que que mucha gente no se plantea, ¿vale? Qué es lo que puede pasar a medio plazo con la gran mayoría de que viene a otro de los temas que tenemos aquí, porque se nos va acabando el tiempo, obviamente, y nos vamos a dar abasto a comentar todo, ¿vale? Pero ¿qué va para pasar con los trabajos que hay ahora mismo en las diferentes empresas con todo este cambio.

Es que no somos conscientes de la cantidad de elementos que pueden quedarse fuera. Entonces bueno, por cerrar con el, digamos con lo que es el total de lanzamientos que hemos visto en estos días. Resulta que yo no sé por cómo por qué, ¿vale? No sé soy capaz de entenderlo, pero parece ser como que todas las compañías se han puesto de acuerdo en decir venga, como la IA se ha puesto ahora de moda, vamos a lanzar todo aunque esté sin terminar, pero por lo menos lo presentamos, ¿vale? Y hacemos ruido.

Aprovechamos el enorme ruido mediático que hay para presentar nuestras cosas. Entonces, en estas semanas, desde el último programa, se ha presentado. Por ejemplo, aparte de lo que es WorkSpace, Obviamente Google presenta su modelo grande de lenguaje llamado Palm dentro de una solución llamada Google Bart, que se supone que ya hay gente que lo está probando, nosotros no, hola Google, gracias por por tanto, pero que se supone que es como un GPT4, que parece ser que tiene alguna una limitacióncita, no no hace lo mismo, a lo mejor no estaría tan acabado, qué chorprecha, no podía saber, en fin. Lo normal, ¿no? Que parece ser que no es que le dices programame esto y te dice no tengo esa capacidad, en fin, algunas cosas he visto yo por ahí a ese respecto.

Pero bueno, se supone que este Google Bart es el equivalente o la competencia del modelo de lenguaje del large language model que sería gpt tres o cuatro y que además es lo que va a utilizar Google para su función en Workspace, que también dijo que va a ser una beta cerrada y que hasta donde yo sé todavía no lo ha probado nadie, ¿vale? Porque recordemos que yo ya insistí en su momento en que de lo que Google ha ido haciendo durante estos años, que es obvio que ha ido haciendo cosas, a que eso que son prototipos, se convierta en un producto final, hay muchos pasos, ¿vale? Por lo que básicamente y en fin, yo creo que Oliver va a coincidir conmigo. La presentación de Google se vio como un chavales, que el jueves presenta so, tenerme algo un día antes, ¿vale? Porque poca chicha había ahí detrás, ¿de acuerdo?

Sí, de hecho yo creo creo haber visto a a nuestro compañero Carlos, ¿no? A Carlos Santana probando bar. Me parece que lo ha probado o algo visto No, eso en

twitter, ¿verdad?

Pero poco más, ¿vale? Pero aparte de esto ¿no? Que digamos que serían las dos grandes empresas que van a competir más por el tema de la ya, porque repito el tema de llama con facebook parece ser que se llegó a filtrar el modelo unos días antes vale y hay gente que ha podido instalarlo de forma local luego finalmente se presentó pero no he vuelto a saber nada de él es decir es como que vale he presentado esto, pero no sabemos nada, ¿no? Y tampoco, en eso meta Facebook es maravilloso, o sea Facebook meta es el mejor del mundo para presentar cosas, pero no presentar nada que hacer con esas cosas, ¿vale? Su Literal.

Tal cual.

Literal. Es que es tal cual.

¿Vale? Entonces, en fin, esto es un poco como como lo que tiene. Entonces, si seguimos hacia abajo, nos encontramos con que Adobe, la gran Adobe, Resulta que de pronto nos sale y dice: Hola señores, yo también sé de inteligencia artificial. Y vamos a lanzar: Fayer Fly. A ver, ve libélula, ¿no?

Sería o algo así, ¿no?

Sí, sí.

Fayer Fly, ¿de acuerdo? Precioso. ¿Qué es Fayer Fly? Pues es diríamos como una especie de mi journey o algo parecido? Sí, lo

que pasa que es es igual, o sea decir, es un es entre comillas, es un pequeño cambio a llamarlo entre comillas muy grande, ¿vale? Es un Mijorning, es un sistema de de generación de imágenes, como puede ser Dalí, como puede ser cualquiera de estos, pero que tiene dos cosas muy especiales, y cuando digo muy especiales son muy, muy especiales. La primera, el dataset de entrenamiento que tiene es muy guay, es muy guay en dos sentido. El primero, que es de mucha calidad y el segundo que es de pago, ¿vale? Es decir, ha llegado un acuerdo con la gente que colabora con Adobe en su subir las imágenes para el Adobe, Adobe cómo se llama el Shat's Talk o algo así, ¿no?

El el sistema que tienen de imágenes que podéis comprar.

Sí.

Simplemente. No sé si puedes utilizar que ir pagando una cuota mensual y demás. Han utilizado ese dataset aparte de otros, y digamos que el resultado que han conseguido es bastante bueno, es decir, de de golpe se han puesto a un nivel que da la sensación que anda en algo parecido a lo que podríamos llamar, que es, pues, como Mijarne y Keptor es el mejor este momento. Pero la segunda parte es la bestia, es la que aunque pueda parecer que es poca cosa, es la que realmente va a impactar mucho en el mercado y que va a ser que la mayoría utilice este sistema en vez de otros. Y es que, como hemos dicho hasta hace un momento, los sistemas de inteligencia artificial, dedicados a la generación imágenes, si en algo fallan, es que las interfaces son horrorosas, muy malas.

Es decir, de hecho es que mi journey

es un de Dish cortío, o sea, es decir, el que es de es que es es de risa, o

sea, es decir, los cuatro parámetros que quieres cambiarnos tienes que meter con códigos, es decir, es un horror, es un absoluto horror, ¿no? ¿Qué es lo que ha presentado Adobe? Porque Adobe lo que ha presentado es tengo un sistema de generación de imágenes, pero va integrado en mis sistemas como fotos sopailustraitor, de tal forma que puedo hacer unas virguerías que mi competencia no puedo hacer. Por ejemplo, me genera le pido generan un gato, ¿vale? Ahora quiero que el gato lleve puesto una capucha.

Hasta ahora, la única forma de hacer eso es que te ibas en otro sistema, un modelo asqueroso de impainting, en el que cogigas, le borrabas parte de la cabeza, le hacías la forma así parecida y dices, ah, ponle una capucha, y te la colocaba, pero claro, no demasiado bien porque el recorte que habías hecho era muy burdo, la asimilación que hacía no era buena y demás. Cada Adobe te dice, no te preocupes, yo llevo desarrollando los últimos diez años, que es lo único que ha hecho, Porque Adobe lleva sin sin sin no de hacer su programa veinticinco años, es decir, pero si en algo convertido en algo bueno es en integrar cosas, es decir, poner parches dentro de su programa, ¿no? Pues oye, pues tú vas a poder hacer una selección precisa y exacta trozo de la cabeza para que luego el gorro se quede perfecto. Voy a poder ampliar selecciones de colores, voy a poder ampliar zonas completas, voy a poder borrar una cosa muy específica, voy a poder hacer cosas. En la parte de Illustrator, que seas espectacular, voy a poder directamente generar y convertir imágenes a nivel vectorial.

Le dije, generame que ser un ejemplo que que era espectacular. Geminérame una imagen de un paisaje con unos globos aerostáticos y tal, y claro cuando terminas dices ha quedado precioso. Pero es que no solo genera imagen con los globos aeroestáticos. Es que es capaz, es que es capaz de que esos globos aeroestáticos como están sectorizados los puedas seleccionar por separado y puedas moverlos puedas hacer los más grandes, más pequeños. No solo eso, sino que le vas a poder pedir cosas como, créanme un panfleto de publicidad, y te crea un panfleto en el que tiene las capas tiene interacción con capas, textos, tipografías específicas que te crean en el momento y demás, y que luego queda interactivo con lo que tú te has hecho la publicidad, le dices, perfect efecto, pero donde me has puesto a esta persona, mira, te voy a arrastrar a esta a este otra imagen de otra persona y quiero que la otra persona mantenga la misma puse de la imagen original y esté puesta en la publicidad.

Donde me has puesto estas letras, créanme una tipografía nova con letras con pelo que esté colocado en su sitio, pero Es decir, es esto mismo que hemos visto hasta ahora, pero claro, con una profundiza una profundidad y una precisión de lo que puedes hacer sin precedentes. Porque claro, es decir, tú imagínate lo mismo que estamos haciendo hasta ahora con este edificio en Millán y tal, pero que, por ejemplo, todo esté separado en capas, en la que directamente el personaje principal está en una capa distinta de lo que sería el fondo para que luego tú puedas hacerlo, que las iluminaciones no no vayan embebidas en imagen, sino que sean filtros directamente. Eso es lo que te está permitiendo entonces claro, el cambio es brutal, porque aquí sí que las generaciones luego puedes retocarlas a y deshacer lo que te dé la gana, puedes hacer publicaciones, pues eso en en Illustrator, de locos. Puedes pusieron ejemplos que eran espectaculares de coges un papel, te creas, veinte o treinta luego esa mano, ¿no? De decir venga, ideas de luego, le coges, le sacas una foto y le dices, Sara, vectoriza todo lo que he hecho, y no solo te lo vectoriza, sino que te dice de esta imagen que has hecho una virtualización con una forma de poner un ejemplo de una letra en forma de b, de hecho estas dieciséis modificaciones te las doy directamente en victory para que tú si quieres hacerlo más grande, más pequeño, poner líneas más gruesas, hacer lo que te dé la gana.

O sea, esto para los diseñadores gráficos, para decorar esto es locura que está a otro nivel. Pensad que ya Photoshop era capaz de cambiar tu cielo, retocar la cara, cambiar el color de los ojos, hacer cosas que eran de inteligencia artificial, pero un sistema de machine learning es mucho más simples. Ahora, impleméntale a todas esas esos esas herramientas, implementarle esta potencia de los sistemas de generación de imágenes por difusión, pues te vuelvo y luego. Te vuelvo y luego. Fíjate que es una tecnología que es la misma que utiliza mis amigos, la misma, pero claro, ellos sí tienen una base de un software que está adecuado para poder trabajar con imágenes, ¿no?

Una generación gorda

que haces en disco. Y luego dice, bueno,

a ver qué hago con esto, a ver cómo lo convierto, ¿no?

Y además, como tú dices, han pedido permiso a todos los autores, para poder entrenar y no han cogido ningún tipo de gráfico ni de contenido de modelado ni de nada sin permiso, es decir, que lo que pretenden es de alguna manera ser respetuosos, ¿no? Con los artistas y que ese movimiento que hemos comentado alguna vez en el programa de del arte generativo, no es un arte, ¿no? Un poco la esto que defienden los artistas, pues que en realidad los artistas se sientan cómodos trabajando con esto, entonces bueno la verdad que que es algo que está bastante bien y sobre todo yo creo que lo más importante como dicho Oliver, que hay una una interfaz bien hecha detrás de eso para darle peso a esta herramienta. Y luego también. Presentan la versión cinco de Mijorning ¿vale?

La versión cinco que tú sí has podido probarla porque tú tienes el pago de Mijorning y que bueno pues de alguna manera yo creo que la la la principal característica que podríamos denominar sobre Mitjorning cinco es que por fin sabe que en la mano hay cinco dedos.

Sí, pero sí es cierto.

Es importante.

De hecho,

de hecho fíjate que es es gracioso, es muy gracioso porque está claro decir las imágenes son mejores en general, ¿vale? Lo que hace, pero donde te das cuenta realmente que ha habido una mejora interesante es en los humanos. En los humanos humanos.

Sí. O sea que

ha habido mucho entrenamiento de imágenes de humanos y se nota que

ha hecho Cuídate mucho.

Cuídate mucho. Cuídate mucho.

Cuídate mucho.

Cuídate mucho. Yo tengo mi teoría y no me equivoco, ¿no? De por qué esto ha pasado básicamente, para que os os pongo en referencia, ¿no? Inicia mi Jordi cinco veo la presentación que hacen que discreta en su canal de discos diciendo qué cosas han mejorado y tal, y una de las cosas que te están diciendo es que los humanos en general están mucho menos mejor. Yo soy como soy, entonces me meto en mi en mi canal

de de mi Jordan y

digo, ¿cómo puedo comprar que, digamos, la estructura de un humano está bien hecha, es decir, no mete tres hombros, no mete tres qlos, no mete ocho dedos, de cinco puedo hacerlo y digo bueno pues voy a pedir algo básico y ese algo básico, eso

que se te pasa por la cabeza.

Sí, claro, soy como soy vamos a hacer. Pido una pido una mujer en la playa en bikini. Punto, ya está, ¿vale? Hasta ahí.

Bueno, por favor que pusiste el artículo cute,

Cute, vale, sí, pues aquí es cierto, pero ya aquí viene por una imagen tío que no me deprima, ¿vale? Es decir, no seamos no seamos tontos tampoco. Bueno, pues para mi sorpresa, de las cuatro y las primeras imágenes que me devuelven, tres de ellas, la chica está completamente desnuda, es decir, y en una de ellas el doblés, y

te acabo de decir que acabo

de pasar aquí, esto porque ha pasado, empiezo sin forzarle a pedirle otras cosas y veo que mi planta montones de imágenes de desnudos, yo tengo una teoría. Y es que tiene toda la lógica del mundo que tú tienes un sistema que lo que está aprendiendo son patrones, y lo que quieres es que no se equivoque en los patrones base chicos, ¿no? De cómo es un ser humano, hombre y mujer, parece muy lógico que le pases imágenes, muchas imágenes de desnudos. Porque claro, al final, como tú el el sistema, entre comillas, dibuja con patrones, es como cuando tú haces un bote de todas mano que lo primero que haces es buscar las proporciones, buscar cuál sería el cuerpo desnudo de la persona y luego vestirla, por decirlo de alguna forma, ¿no? Algo parecido, no igual, pero algo parecido debe hacer el sistema de difusión cuando está creando una imagen.

Entonces, parece lógico parece lógico que el problema que tuvieron es que gran parte del entrenamiento debieron hacerlo con imágenes de desnudos, y luego lo que es el filtrado este final que hacen para asegurarse que no ponen imágenes que no deben, no estaba todavía bien terminado, no cuando lo presentaron. Y fue gracioso porque durante unas horas pedía montones de que después de eso, de ya, o sea, sin sentido, es decir, una chica jugando al voleibol y lo que hacía es ponértela desnuda, pero con un bikini que tenía forma de la

red del vuelo igual, yo dije, pero chico, Jorge, no te he pedido eso, ¿no?

Es decir, no tiene sentido, es decir, durante unas horas tuvo mucho ese problema, pero yo creo que es por eso, porque seguramente gran parte del cambio era ese, como no conseguía hacer imágenes realistas muy perfectas, ¿no? De ser suma pues, yo entiendo y además tiene toda la lógica del mundo, que gran parte de la tasa sería de desnudos para eso, para conseguir que cuando saca los patrones de cómo es un ser humano, pues lo tenga claro, ¿sabes? Es decir que no no haga cosas extrañas, ¿no? Si tú entrenas solamente a una inteligencia artificial con gente vestida, la inteligencia artificial no puede saber, porque no puede saber que hay debajo de esa ropa. Por lo tanto cuando va a construir una nueva imagen lo hace a partir de la ropa que ya ha visto, no del cuerpo de la persona que ya ha visto, entonces bueno, es una anécdota, esto simplemente es una anécdota, pero sí, o sea, la mejora realmente que no das es eso, es decir, las imágenes son mejores, ya está, es decir, aquí sí que no se ha visto que yo

he visto que que realmente a un ojo no experto podría pasar casi, casi por fotografía, si no fuera así. Por ese punto de la piel que sigue siendo demasiado No,

pero como decirte, como te lo

juro. Por el brillo, etcétera.

Me atrevo a decirte aquí es porque es que la gente pide cosas muy enrevesadas. Cuando pide una imagen muy sencilla, rollo, una persona en la calle, ya está, no le pidan más cosas, la imagen que te genera es indistinguible con la realidad. Ahora, si lo que pides es una persona con rasgos de no sé qué, un maquillaje especial, un peinado de no entonces es cuando, como tú bien dices, se nota que la piel no es como tiene que ser, hay brillos extraños, parece casi más dibujado que real. Pero cuando tú pides algo súper súper básico, te digo que hay muchas imágenes, lo hicimos en directo, ya te digo, por ejemplo, de un hombre jugando al fútbol en la playa. Una imagen era así un poco más como animación, las otras tres posible saber que eso no es una foto, ¿sabes?

Es decir, estaban estaban perfectas, tampoco eran, entiéndeme lo que es que te quiero decir, espectaculares porque es que la simple imagen de un tío jugando al fútbol en la playa, que

no tiene gracia, ¿sabes? Entonces si me explico, ya tú lo ves y te puedo decir un tío jugando al fútbol en

la playa, no tiene más. ¿No? Ni ni mejor ni peor, ¿no? Pero sí, la verdad es que ha mejorado, ha mejorado bastante, se nota.

Pues sí, entonces, bueno, pues como veis, la verdad que el listado es es impresionante, luego además se han ido presentando bastantes más cosas durante esta semana. Y algunas de ellas tienen que ver con el desarrollo en concreto, habría tres cosas que tienen que ver con el desarrollo, cosas que, bueno, nos han contado vale porque esto no puede llamarse lanzamiento, yo lo llamaría más una presentación, de hecho en algunos casos es una presentación que apenas nos da pistas sobre lo que es, hay otras que sí tienen algo más y que una herramienta que podemos empezar a usar ya, pero tal vez digamos que la la inteligencia artificial es una parte de lo que se ha presentado y luego pues hay otra que bueno pues también ha sido una presentación que estamos a la espera de que se pueda poner. Nos estamos refiriendo a Unity AI, ¿vale? Unity AI sería un motor tipo CHAT GPT, de hecho lo he dicho mal. Es CHAT GPT metido de de Unity.

Porque no podemos olvidar que el principal accionista de Unity es Microsoft, que es sorpresa. Por lo tanto, lo que sucede es que parece ser que Microsoft estaría apoyando a la integración de chat GPT dentro de Unity. ¿De qué manera? No se ha sabido mucho, porque lo que hay es un vídeo nada más, con pequeñas pistas, un vídeo donde hay usuarios donde están dando bronze en texto donde dice, créanme un terreno grande con un cielo nublado y luego le dice añade una serie de NPCs. Haz los que vuelen y que sean alienígenas.

No, ahora haz los que sean, Champiñones, ¿vale? O sea, que parece ser que lo que van a meter es toda la parte de chat gpt unido a una parte generativa IVA de objetos 3D que estaría dentro de Unity por la que tú podrías programar en Unity lo que sería crear cosas con el editor en base a instrucciones. Esto es lo que hemos comentado en muchas ocasiones y es lo que hemos hablado en muchas ocasiones con respecto a lo que sería Jarvis, a lo que sería el el control de oye, hazlo esto, ahora cámbialo para acá, ahora muévelo, ahora no sé cuántas. Parece ser que es eso porque de hecho y esto creo que es conveniente que lo maticemos porque sabéis que yo en fin la cabra tira al monte y el periodista papel no entonces aquí es como un poco decir, no, es que Apple en este mundo no está. Bueno, no olvidemos que Apple tiene un rumor por ahí, suelto un rumor de bastante peso de un medio de información como de information, ¿vale?

Que no es un moco de pavo y que hasta ahora ha acertado en todo lo que ha ido lanzando que nos habla de que Apple estaría creando algo muy parecido a esto. Y no solo eso, es que también se habla de que Apple estaría trabajando mano a mano con Unity para integrar algo parecido a esto también con Unity para todo lo que es su metaverso de las futuras lentes de realidad, aumentado y virtual. Por lo que no sería nada de extrañar. Que de pronto nos encontráramos con un Unity, con un plugin de Telegencia artificial que funcionará como un Jarvis en el que le dijeras: Genérame un objeto 3D de tal calibre. O genérame un terreno de tal característica.

Y ahora pon aquí una montaña. Y ahora pon no sé cuántas. Y ahora cámbiame esto. Y ahora pon no sé cuántos enemigos, o ponme no sé qué, o hazlo más grande, hazlo más chico, la cabeza más gorda cambia la textura, coge una textura de tal librería o coge fichero tal de tal textura es decir que pasáramos de una forma de trabajo de Unity de click, click, click, click, click, click, click, click, a darle instrucción a este asistente y que este asistente cree las instrucciones que hacen eso, que es algo que hemos hablado un montón de veces sobre lo que sería el futuro Windows y sobre lo que serían los futuros sistemas ¿no?

Si mira un matiz muy rápido, no quiero es que no quiero cortar por partes que te otro rato aquí intentando. Yo no sé, esto lo digo para los para los la la gente que nos escuchando y supongo que esto tú lo habrás probado, si tú coges un un software como Unity, como un real o algo por el estilo, son son porque en realidad son muy fáciles. En el sentido de las cosas, las arrastras, las mueves, conectar una animación con otra es literalmente clicar de un sitio a otro, pero hay un problema. Y es que yo es que todo el que lo haya probado es se va a sentir identificado y la cantidad de menús desplegables gráficos que tienes en estos software

y con y con tipografías de de

cinco puntos por culo. No cabe. Marúsculas, es decir claro, es decir manejar bien estos software es para volverte loco, por ejemplo, ya no solamente estos, yo me acuerdo en mi juventud cuando tenía yo mis quince años, cuando yo estaba aprendiendo a utilizar tres de StudioMax, la dificultad de tres de Studio Max es saber dónde están el millón y medio de menús y opciones que tiene. Es algo completamente desproporcionado. Pues claro, esto es muy inteligente por parte de Unity.

Es decir, lo primero que fui implementar de inteligencia artificial es que las cosas que en realidad sí sabes hacerla, son facilísimas, porque es decir literalmente arrastro esto aquí, arrastro esto aquí, arrastro esto aquí, selecciono esto y lo creo como un conjunto. No tiene historia, Sí, encuentra el menú donde está eso. Encuentra la librería donde está el arbolito de las narices. Es enorme, absolutamente. Aquí la idea de Unity es muy inteligente.

Decir, espérate, lo primero que voy a hacer es

que la gente sea capaz de utilizar mi

mi aplicación más o menos de una forma razonable en la que no necesites cinco años de formación solo para saber dónde están los menús. Porque sí es una herramienta muy potente, pero de verdad que todo el crédito utilizado lo sabe. Son complejas. Son complejas de utilizar, pero por lo grandes que son, no por porque igual tú ves los scripts, ¿no? De las animaciones y tal que ponían, ponían, bueno, luego lo lo haremos, ¿no?

Con real. Algunos ejemplos, los scripts son muy fáciles, son pseudocódigos, súper sencillito, pero lo que te digo es que son tantas cosas las que tienes que hacer, están tan escondidas, son tanto los menús, tantas las opciones que es normal, que es que por muy bueno que seas, tardes mucho en hacer muchas cosas porque no sabes cómo hacerla, porque te vuelves loco, ¿no? Pero si tú eres muy inteligente por parte de por eso, ¿no? Es decir, porque. Claro.

Ahora puntohabientes desde el punto de vista.

Y además es que si tú entrenas, que eso lo hemos comentado hasta la saciedad, si tú entrenas a un modelo para que entienda de una manera contextual los comandos equivalentes e instrucciones verbales, pues consigues ir a donde quieras. De hecho, se ha hecho muy viral un nuevo terminal que hay para Mac, que se llama Warp, que precisamente hace lo que tú me comentaste en su momento de utilizar GPT para poder autocompletar comandos de terminal. En el que tú directamente le dices, ese guit borrar el branch y te hace. Te que te que te que te que te que te grite y te pone el comando completo o le dices instalar el paquete de no, de, de no sé qué. Pum, o sea porque sabe cuál es el equivalente y funciona con eso.

Entonces si tenemos esa forma de auto generar instrucciones pero podemos auto generar vamos a llamar macros, ¿vale? Por decirlo de alguna forma, es decir cualquiera que haya manejado un sistema operativo, en fin, tú has sido usuario de Mac hace tiempo, y sabes lo que es Apple Script, ¿vale? La forma literal.

Y por supuesto.

Los

la automatizaciones. Ahora tenemos también la aplicación esta de ATAJOS, ¿vale? Tenemos distintas formas de, tenemos el IFE famoso, vale, que hace las automatizaciones, etcétera. Si yo hago un modelo de lenguaje, le puedo pedir que me haga una automatización, que sea capaz de controlar todas y cada una de las opciones de una aplicación, hostia, es que acabamos así y el rumor de Apple te de information es que Apple está creando un ID de desarrollo de aplicaciones para su propio metaverso para su propio papel verso que lo que haremos llamar que estaría controlado por la propia city de forma que tú le pedirías a city verbalmente, como a Jarvis, pónmelo sé qué tal, tal, tal y city te iría haciendo todos los comandos de manera automática sin que tú tuvieras que hacer nada. Y podrías crear aplicaciones.

No code de cosas básicas, de escenarios, objetos 3D. Interactuaciones, interfaces, etcétera, etcétera, etcétera. Entonces, hostia, esto es un cambio importante, porque veríamos este cambio llevado a unos niveles increíbles. Y no solo eso, sino que además esto viene unido a hablando de videojuegos al nuevo lanzamiento, a la nueva versión de Andri Alengine cinco punto dos que sin ser directamente inteligencia artificial en el conjunto de todo lo que hace, pero le han metido una serie de cosas, inteligencia artificial que yo creo que literalmente le han roto. La cabeza a más de uno, a más de dos y a más de cuatro.

Porque han presentado varias cosas que son bastante increíbles. Yo voy a hablar de dos de ellas y Oliver no va a hablar de la tercera, porque ella sabe la que te voy a decir que hables tú.

Sí, sí, sí.

Lo tienes muy claro,

¿verdad? Venga. Entonces,

dos de las cosas que han presentado es la gestión de metahumanos. Los metahumanos en un real, bueno pues, pese un algoritmo que permite hacer humanos, expresiones humanas, cuerpos humanos, movimiento en el que se está intentando mejorar en cada nueva versión para conseguir esa humanización en el que tenemos determinadas muestras de próximos juegos que la verdad son bastante increíbles y que están generados en tiempo real, ¿vale? Esto es lo lo más importante que tenemos que tener claro, que todo esto está generado en tiempo real y además con consolas y última generación y que bueno pues es un hardware que está bien que es potente pero que tampoco es un hardware profesional de alguien que tenga miles de euros invertidos y aunque así es capaz de ejecutar esto con una calidad bastante increíble. Entonces, estos metahumanos, una de las cosas que han sentado y que es de lo que realmente más te llama la atención es que todos conocemos porque lo hemos visto en algún momento, cómo se hace el Motion capture a día de hoy hemos visto la película de avatar donde o la película de los planetas de los simios donde a Andy Serkis para hacer de César le capturaban la cara con una serie de primero le tenían que poner un montón de pequeñas lunarcitos en la cara como punto de control y luego tenían como un cacharrito delante una cámara que iba viendo esa propia cámara para hacer toda la captura de movimiento meter todos esos metalatos dentro de un sistema.

Y así es como han grabado también avatar dos el sentido del agua. Por lo tanto, sabemos que esa es la forma, vamos a llamar profesional. Pero ¿qué sucede? Que yo ya he comentado en otros programas que un iPhone normal y corriente a día de hoy es capaz de hacer captura de movimiento, captura facial, que sí, que no lo hace con setecientos puntos, que no lo hace con una decisión maravillosa, pero lo hace lo suficiente, como para que para andar por casa tú puedas trasladar eso. Pues bien, el andar por casa se a cabo.

Ahora lo que tenemos es que con un puñetero iPhone simplemente con un software de Unreal se hace una captura de video normal y corriente en primera persona, y se le pasa a Unreal Engine cinco punto dos. Y Andrea LENGIN te saca en tiempo real el puñetero mapa de profundidad facial con características y detección de eventos, de ojos, movimientos de piel, boca, expresiones, etcétera, etcétera y te crea automáticamente una maya que se puede aplicar a la cara de un metahumano para replicar eso. De forma que una chica, haciendo una interpretación ahí un poco de estoy cabreada, y ahora estoy no sé qué, y ahora una mirada.

Una mala interpretación,

Es muy mala.

Es muy mala.

Muy mala la interpretación. De verdad que bueno. Dejaba que desear.

Para dar poco la idea de que era una Sí. Algo hecho en plan aficionado, ¿no? Que era una Sí,

sí, sí, sí, sí.

De verdad, ¿vale? Pues, hace ese ese elemento, incluso hablando, y se le sincroniza con un puñetero render de venes un minuto con varios avatares ya creados en 3D no sólo de una mujer, sino de un muñeco de Dibú ojos de un no sé qué lo van cambiando y es como pero qué es esto o sea es captura de movimiento basada en vídeo sacar directamente del propio vídeo, que viene de la mano de lo que hablamos en el último programa de este programa que es capaz de con captura de movimiento de un vídeo normal sustituir a una persona completa y poner un personaje digital haciendo captura de movimiento captura de profundidad de campo etcétera etcétera una auténtica brutalidad. Y a eso le unimos que el nuevo Unreal Engine cinco punto dos ha mejorado lo que son los motores procedurales de generación de contenido 3D de forma que ahora yo puedo llegar y crear una pequeña isla de contenido donde yo creo unos pack drones que generan ese pequeño micro mundo y cuando ya más o menos tengo esas reglas creadas y esos elementos puestos de una vegetación de una de un edificio de una ciudad de un lo que sea entonces le digo al sistema como si fuera un invent un auto paint ¿no?

De de generación que el outpending es cuando yo paso una imagen y le digo a una inteligencia completa y lo que hay en las esquinas no y entonces me amplía un cuadro y me lo dibuja pues como lo habría ampliado ese autor si lo hubiera hecho más grande no más allá del límite de la propia imagen. Pues entonces cógete y le dices oye, sobre este mundo que me acabo de generar aquí, sobre esta selva amazónica, create una más grande y

hace, racata, racata, racata,

Te genera una puta, un puto escenario generativo que es completamente acorde con lo que tú has creado a nivel de normas en esa pequeña isleta en el que puedes llegar a generarlo gracias a Nanai, que es aquello que se presentó de la forma de generación procedural, que se ya se presentó con la versión cinco punto cero, y pronto te genera todo un escenario de la nada siguiendo las normas he inventado porque se lo está inventando al eso sí cumpliendo con las normas que tú previamente has dado a ese pequeño trozo. Y no solo eso, sino que luego tú dices vale pero es que árbol lo ha puesto aquí en un sitio que a mí no me ha amolado. Y entonces este árbol lo voy a mover, pero no es cuestión de coger el árbol y moverlo como objeto 3D y por lo tanto solaparlo a otros objetos 3D o que estén montados uno encima del otro y se como el típico fallo tres. Sí, no, no, no, no, no. Entiende los vértices y políonos que corresponden al nuevo lugar que tú le has puesto ese y lo fusiona para que ese cambio tenga sentido con el resto del escenario.

Y dice, pero pero what are you doking to me? O sea, increíble. Entonces y todo, utilizando inteligencia artificial. Y todo este poder generativo viene de la mano de lo que se han sacado de la manga. Que ya es el decir esto ya, o sea, yo ya no puedo más.

Fortnite creator. ¿Qué es eso, Oliver?

Bueno, a mí sí me dicen que en Levicanais se dijo, se está hablando de fortnite, no me lo creer. A ver, le diría que me gusta fortnite. Yo sabes

que soy un freaky,

O sea que me encanta por detrás que jamás a mí lo hubiese querido. Bueno pues básicamente la gente de un real, de epic dice, tenemos un pequeño problema con el un real engine, es decir, lo que hemos presentado en los últimos meses años es espectacular, es lo que acaba de decir Julio, la inteligencia artificial federativa de locos. Unos sistemas de iluminación de locos, unos sistemas de renderizado que puedes hacer cosas super complejas ciento cincuenta fotogramas por segundo en cualquier gráfica.

Exactamente, que el el el peso que tienen a nivel gráfico es mínimo.

Sí, sí, teniendo modelos que tiene uno así, millones de Polígono, o sea, eso es es es magia negra,

lo que

hemos hecho. Pero coño, tenemos un problema, y el problema es que claro, los proyectos de los videojuegos a día de hoy se barra cinco o seis años, con lo que no hay ni Dios utilizando un cinco, pero ni Dios literalmente, ¿no? Dice bueno pues vamos a revertir la situación. ¿Cuál es la situación? Muy sencillo.

Sí hay un programa, sí hay un software, mejor dicho, muy grande que utiliza la última versión de un reality. ¿Y es Fortnite? Fortnite lleva funcionando en la relación de Urralenin desde el día que nació empezó en cuatro, ha pasado cinco, cinco punto uno y ahora cinco punto dos, y dicen ¿sabes qué? Vamos a coger esta interfaz infumable, porque sí infumable del real engine, y vamos a hacer una versión para aficionados, que básicamente hace lo mismo,

porque no hay ninguna

diferencia, pero con ciertas restricciones, y la restricción es que todo funciona con lo que es entrecom millas el motor de Fortnite. Es decir, dentro de Fortnite. Y dirás, ¿y qué puedes hacer con este editor? Cualquier cosa, es decir, cuando cinco cualquier cosa es, cualquier videojuego que se te venga a la mente, tú puedes crearlo dentro de Fortnite, es decir, te creas lo que se llamaría como tu privada, porque tú puedes crearte unas islas de hasta dos kilómetros por dos kilómetros, y puedes utilizar cualquier asset del propio Fortnite, entonces te creas propia isla, tienes el propio editor que utilizan los editores de Fortnite para crear valles, tal y cual, pero no solo eso. Tienes tienes, por ejemplo, mapeado por celulares hechos de los que acaba de hablar Julio preparado para otro juego, lo coge, lo arrástrárselo porque ser solo, y si te convierte en fortnite en ese en ese en ese bosque, por ejemplo, que acaba de crear para otro juego.

Tienes texturas que estás utilizando para Call of Duty, las coges, las importas y las utilizas dentro del juego. ¿Quieres crear, por ejemplo, quieres utilizar scripts cómo funciona la inteligencia artificial de una NPC en otro juego, lo coges, lo copias, te lo traes aquí y funciona dentro de Fortnite. De tal forma que cualquier persona puede crearse juegos completos, o sea no no no un intento de, no no no no no no escúchame escúchame escúchame que no me estás escuchando juegos completos dentro de Fortnite y además los creadores de estos juegos, de estos mapas, les van a pagar un cuarenta por ciento de los ingresos generados en ese mapa y eso es una barbaridad. O sea que es que para cool

básicamente lo que están haciendo es utilizar torne como una mega ultra que te hagas plantilla para crear juegos.

En la que no olvidemos que te puedes traer los modelado las texturas, las iluminaciones, los motores de iluminación, lo que tú quieras de otro sitio y lo metes dentro de Fortnite. Igualquiera puedes jugar tres cara vienen lo que para mí es ya decir, y esto no tiene que ver con inteligencia artificial. Esto tiene que ver con y disculpame la expresión, sé que no, a lo mejor no es el podcast para pero esto tiene que ver con sacarle por encima. Es que es muy bestia, lo siento, lo siento. Y que no es que es muy bestia.

Sí, no, no, es

que esto es muy bestia. Es que mientras tú estás editando en tu ordenador el mapa para que quede bonito, para que tenga estás. Puedes tener a tus dos colegas por una por una Playstation cinco y otro desde una switch metidos en el mapa en el que tú estás editando, pagues vayan diciendo oye pues este castigo que acabas de colocar es muy alto, hazlo un poquito más bajo. Oye que aquí la luz no se ve bien, que esta zona está muy oscura, poner un poco más de luz. Esta ciencia ficción.

O sea, es poder crear el videojuego que te dé la gana. O sea, es crear como si fuese Minecraft dentro del Fortnite pero encima con un editor que está por encima de lo que se ha utilizado hasta ahora en casi en cualquier plataforma Mientras tus colegas están volando por el mapa mientras tú lo creas. O sea, yo de verdad que son de estas cosas que las ves y dices, pero necesita despertar nuestra noticia. Nunca se ha visto nada parecido. O sea, es es es que es una locura.

Yo creo que has dado con un un toque clave de dónde ha partido esta idea ¿vale? Porque una de las cosas que todo el mundo sabe y lo estamos viendo en el día a día, es que uno de los una de las cosas que ha hecho que Minecraft siga donde donde está después de tantos años es su absoluta modularidad, su you. No, no, no, no, no sé qué, la cantidad de series y tal, no vamos a tardar mucho en ver series en Fortnite.

No, no, no, ya. Sabes decir ya, estoy viendo cosas para que tengas una idea que sé que esto te gusta Julio, ¿ya han creado un modo competitivo de ataque a los titanes o de dentro de Fortnite. En el que se generan de que se generan de que

se generan.

Se refieren lo se

refieres a Zinc y Kino Kioski.

Efectivamente. En el que te divides entre los demás link y los de tal y haces batallas con los modelos, las movidas estas tres de que no sé muy bien cómo se llaman. Es el board. Denme lo de las muralla y ojo, todo con con digamos las texturas, los colores y tal, como si fuese el anime. Eso ya está.

No ha pasado un día. Es que es una locura tío. Es que no ha pasado un día. Sabes que esto se presenta hace veinticuatro horas y ya está para jugar pero

es que cuarenta por ciento de beneficios es decirle a mucha gente ahora te vas a dedicar profesionalmente a esto.

Claro. Es que mucho dinero tío. Es que vas a tener juegos de lo es que han hecho réplicas de Call of Duty que son mejores que el propio Call of Duty.

Es que es sentido es que es verdad que no es sentido

de competir el gesto. O sea aquí es.

No no no no.

Esto es un Microsoft y a hecho a nivel de videojuego por epic games.

Sí. No, no, es muy loco de verdad, o sea yo me escucharéis todos como muy emoción pero es de verdad. No, no, no. Que los que seguimos estas tecnologías y de repente vemos esto es que te quedas con cara de decir guau guau, o sea pero como tú como como habíamos no sé si hemos llegado a decir dentro del podcast o fuera de él, decir, ¿pero en qué momento está apareciendo todo esto? ¿Cómo es posible?

Como como de repente estamos llegando a ver esto cuando hace seis meses, es era impensable, era ciencia ficción? O sea, pues aquí lo tenemos, o sea, es decir, ya ya lo digo, esto esto en concreto me ha parecido algo surrealista, surrealista porque de verdad que oye tiene una por parte muy buena y decir mira que muchas veces nos asustamos veremos a ver qué con la sinergia. Oye, con esto de Fortnite no lo vamos a pasar como niños. Así que aquí sí que no hay parte negativa, tío. Aquí no lo vamos a pasar como auténtico niño, así que yo estoy feliz con con esto que han presentado.

Es espectacular. O sea, honestamente, de verdad, o sea, me escucharais como muy exaltado pero es que de verdad que es que me parece que son cosas que es que ni soñándolas, ni soñándolas, Eistan, y yo joder, esto de un real engine, todo lo que han presentado, todo lo que ha hablado Julio, todo lo que ha hablado yo, disponible desde el momento de la es que no hay que esperar wait list, no tiene, no, no, no, no, toma aquí lo tienes un saludo. Dices madre mía, madre mía, o sea que es una locura.

Sí, sí,

es una técnica locura.

Y todo eso además le podemos explicar porque una de las cosas que por cerrar el tema del desarrollo, otra de las cosas cosas que, bueno, pues, fueron de las primeras cosas que nos dejaron probar es Cobailot, ¿vale? Y Guilhap ha presentado Cobailot, x que va a ser porque alguno dirá bueno entonces quiere decir que copay love se va a transformar en copay love x no es como otro taller más de uso de copaylot que probablemente sea más caro porque copaylot va a seguir existiendo como lo que es que ahora mismo es como un autocompletado inteligente basado en tus propios datos, etcétera, y que bueno pues, yo lo he comentado muchas veces, a mí me ha ahorrado muchísimo tiempo en la búsqueda de documentación, etcétera. Vale. Que es copaylot x, copaylot x es que si eres accionista de stack overflow, ve vendiendo tus acciones. Vale.

Básicamente. Copa y los x es por un lado el tema del auto completado, ¿vale? Eso va a seguir ahí. Pero en este sentido, ya lo que tenemos aquí es un una ventana de chat unida a tu editor donde tú le vas diciendo oye, escríbeme una función que haga un testing para este código que tengo aquí y él coge hace. Te pone el código, te dice, este código asume que has importado tal librería, que haces, no sé qué, tal y cual tienes que poner esto para ponerlo en su sitio ta ca ta ca ta pum y coges y le pasas el código plaf y lo pones en su sitio es además un analizador y de purador de código que encuentra errores lógicos en el código gracias Microsoft por escucharme de Canacer ¿vale?

Porque esos de las cosas y que comentamos en su tiempo de decir imagínate el día que esto esté en un compilador que sea capaz no de ayudarte con el código, no no no de analizar tu código y decir oye que esto que tú estás poniendo aquí no va a hacer lo que tú quieres. Y dicho a nivel lógico. Oye que aquí se te olvidó poner la asignación de la variable, para que haga lo que tiene que hacer. Que esto porque ya sabemos que GPT es capaz de interpretar un código, tú le das un código, le dice explícame qué hace esto, te dice esto hace no sé qué taca taca taca taca taca pues en ese sentido va a ser capaz de analizar y depurar tu código pero no sólo eso sino que además va a tener un acceso directo entrenado de forma concreta, con la documentación de los ídes que lo irán a incluir y de las librerías que se vayan a ir utilizando y que se irán incluyendo poco a poco, ¿vale? Por lo que tendremos una document entrenada para preguntarle directamente por ella así que de nuevo se acaba esta moverflow.

Se acabó. Ya no tengo que salir a ningún lado a buscar información. Cualquier cosa que necesite directamente le digo oye, cómo se hacía un para centrar un elemento dentro de un descenso y Yoi, y te dice, hay diferentes maneras para hacerlo tal, tal, tal, tal, aquí tienes una catada, catada, y te pone la documentación. La documentación directamente, ¿vale? Pero no solo eso.

Es que además controla el propio guit a base de comandos, de forma que es capaz de generar de generar pool request directamente e incluso hacer descripciones generadas de esos pool request y por pruebas automatizadas generadas para esos pool request aunque tú no las hayas hecho. De forma que cuando tú subes un cambio que se va a incorporar al hilo, a lo que es el branch principal, directamente le dices, te dice el tío, oye, que no has puesto test para comprobar que esto funcione. Ah, bueno, sí es verdad. Venga, tú, te cata, te cata y te lo pone y te genera incluso las descripciones, etcétera. Y ya para rematar la faena, incluyendo una línea de comando inteligente en la que le dices oye y cómo se añade una marca de agua a en un video en FFMP.

Pum. Comando. FFMP King punto seque. Te lo ejecuto, venga, tira. Pum.

A la a cacala, en fin, o sea, vamos, o sea, es que no hay, no hay,

y sobre todo fíjate, en este caso hay una cosa que me llama la atención y creo que estás de acuerdo conmigo. Si te llegan a decir a ti hace cinco o seis años, que esto iba a ser sobre Visual Studio Cup.

Yo creo que lo que ves, O sea, es

que es que muy loco, O sea, es un, a mí siempre me ha llamado la atención, es decir,

lo hemos comentado vez

yo lo dejo aquí grabado a veinticuatro de marzo a las dieciocho cuarenta y cinco horas que sube en este momento. Esto va a estar integrado en scope cuando presente Apple, su versión en junio.

Verlo, o sea, esto que lo de siempre es así, a mí todo lo que sea que Duele. Lo que es. Pero verlo.

A que esto va a estar integrado. Porque todos sabemos que que Satya y ITIN son amiguitos, se llevan bien, ¿vale? Y aman a a Apple no le va a costar nada meter esto aquí? Ya tenemos aquí a Jet Brance diciendo: Por favor, póngame usted esto, cuarto limitar, ¿vale? Y ya están dentro de este juego.

En fin, es que,

sí, yo yo yo supongo

de todas formas, esto esto lo ahora es tu aquí sí que tú sabes, y yo yo simplemente aquí te pregunto, yo entiendo que es que esto es algo que acabará implementado en los CDs.

Claro. Ese es ese es el objetivo, es que esto debería ser que alguien para cualquier CD.

Claro, es que a mí lo que me llama la atención es decir, o sea, soy Microsoft, ¿vale? En un momento dado digo, ¿sabes qué? Voy a hacer algo popular y que a la gente le guste y saco un IDE. Y claro, para los programadores que yo tengo entendido, ¿no? Los desarrolladores, lanzar un ir de nuevo es como decir qué estás haciendo, qué estás tocando y Claro,

pero hay que tener en cuenta una cosa importante, que es que Visual Studio Code no es un ID, es un editor de código.

Cierto, cierto, cierto.

Con s cero

ocho seis.

Pero es

un editor de código.

Sí, sí, es cierto. Totalmente totalmente de acuerdo.

Pero lo

van meter en visual estudio. Claro, claro,

claro, claro, efectivamente. Entonces eso es

lo que dice en estudio. Si lo van a meter en los ideas de Jeep Brains, porque hostia, es que scope, es como, o sea, es que.

Sí, tiene.

O lo prometo, es que yo estoy viendo a Sadia Nadela coger el auricular. Hace ya unos meses y decirle oye Tim, que vamos a sacar esto tal, tal, tal, tal, tal, tal. ¿Esto lo queréis en Apple? Y que llamé acá a Herfos One y Herfos One diga, ¿dónde hay que firmar? Y que ya estén trabajando con Microsoft porque esta es una de esas, de estos proyectos colaborativos donde Apple y Microsoft se ponen a trabajar juntos con un objetivo para conseguir que esto sea así vale por lo tanto insisto que no esté muy descaminado y vuelvo a repetir ese rumor de la city que nos permite con un nuevo líder decir tal que todo eso que hemos oído hablar sea una integración de las herramientas de OpenEye a través de Microsoft en todo lo que tiene Apple.

Pero claro, Apple es Apple y hasta junio no va a abrir la boca.

Sí, sí. No, ya ya te digo, es que me me llama la atención por eso, decir que joder haya sido precisamente, pues es una herramienta, ¿no? Como Visual Studio Go. La primera en recibir toda esta tecnología, llama la atención, ¿no?

Es decir, de hecho, ya lo hemos comentado alguna vez, ya me llama

la atención, que no conozco a casi nadie que te diga, hostia, odio, visual estudio, no todo es muy útil, güey, a lo mejor no es mi herramienta ahorita, pero no sé, me llama la atención que hayan, no sé qué hacer una herramienta que todo, que todo el mundo diga, bueno, está bien, o sea, es decir, no es perfecto, pero está bien, ¿sabes?

Es es opinión, o sea, yo la tengo instalada desde hace mucho tiempo, la uso, es una, le voy a dar el premio, no, pero no, pero no,

no, no,

claro que no.

Sí, es una herramienta útil, pero versátil, que funciona bien, que eso sí, que como es electrón consume una memoria que un tonto, pero bueno, sin embargo en Windows como la van a migrar a Web View dos que sería el el framework equivalente a electrón, pero cargado como framework es el sistema operativo, por lo tanto ya no necesitan tener una copia propia del framework dentro del propio ejecutable pues va a hacer que en windows visual studio code en unos meses vaya mucho más fluido no consuma tanta gloria etcétera ¿vale?

Qué guay, guay.

Lo que

no lo he dicho, es que simplemente es es una aplicación que siempre me llama la atención por eso, por decir hostia, es raro, sobre todo en un mundo como que se vuelve tan polarizado, ¿no? Como el del desarrollo que la gente odia las cosas o las ama. Sí, sí, sí, sí. Pero no

hay como puntos intermedios.

Que sea una herramienta que todo el mundo dice, bueno, no, es ninguna mal pero está él, palitar algo y dices, qué raro, ¿no?

Que que algo más o menos pudiera haber, es extraño, ¿no?

Siempre que siempre me abonado la cabeza y claro, y que haya sido precisa esta herramienta, la primera que ha recibido esto te queda de vivir, ¿no? Joder, qué extraño, ¿no? Es es es raro, raro.

Pues sí. Y luego ya, bueno, por fidelizar que ya vamos a ir cerrando el episodio, pues se ha presentado también la nueva versión de Pitorch que llevaba tiempo, fue funcionando y que además PyTorch dos punto cero tiene soporte para aceleración de cálculo computacional en Apersilicon con el acelerador mps por lo tanto ya si queremos usar by though en papel silicon acelerado no tenemos que instalar la versión beta nighty build que era la que había que hasta ahora ya se puede instalar directamente el Pitor dos punto cero por lo tanto esperamos que en breve Apple actualice que de hecho creo que por ahí había leído que estaba en ello. La implementación de los modelos de difusión, transformados a CoreML, etcétera, ¿vale? Que una cosa bastante interesante y y nada y luego pues el tema de los plugins de de Chartbeat que básicamente pues también acaban de presentar el tema de los plugins que es algo muy parecido a lo que ya hemos visto con Bing, ¿vale? Es decir, esa conexión entre GPT y Bean para ser capaz de ir a buscar a la a a Internet, y recoger toda esa información de vuelta, ¿vale?

Porque vas por si alguno se lo pregunta. Cuando yo manejo Bing y le digo, oye cómo es hacer, no sé qué, no sé qué, no sé cuánta. Nosotros vemos cómo él va haciendo búsquedas en internet y a veces hace más de una con distintas palabras. Entonces los resultados que a él le parecen relevantes los mete en el contexto de lo que te va a responder y por eso te responde a partir de ahí, o sea, lo que hace es crear un contexto a partir de resultados de web y decirte pum, hay tal cosa o hay tal otra. Es lo que han hecho ahora con los plugins de chat gpt, es decir, sí.

Ah, de

hecho fíjate, un dime. Perdón, perdón, perdón, discúlpame.

No, no,

no, eso digo que lo que han hecho ha sido coger y crear pues determinados plugins, por ejemplo, Wolfram Alpha, por ejemplo, lo Zapier, por ejemplo, PayPal para hacer recomendaciones de restaurantes, incluso hacer reservas de restaurantes, para en shop para mirar lo que es shop.com para mirar en distintos productos cuando le pido cualquier cosa en calle, en Instacart, en fin, distintos sistemas incluso en Klarna Shopping para comparar precios entre distintas tiendas, etcétera. Entonces yo puedo ir a preguntarle de eliminado información y cuando Chad GPT con el plugin instalado vea que esa información que lo estoy pidiendo tiene que ir a otro sitio a buscar un contexto para darte una respuesta acertada, irá a uno de estos plugins para darte esa información, lo cual pues En fin, esto ya es pues cargarlo directamente, porque además la beta ya se ha abierto, te propone en qué plugins quieres hacer por lo que imaginad lo que sería pues cualquier plugin sobre una fuente de información web directa que insisto, lo que va a hacer es que, en cuanto a el contexto que yo le pida, él irá a ese plugin, le pedirá un resultado como el que normalmente haría cualquier buscador, como si yo voy a kayak y busco directamente un viaje, ¿vale?

Pero ese esa información que devuelve kayak, ChaggPT la contextualiza en una respuesta verbal entendida por como la de un asistente y a la que le añade como hace bin determinados enlaces para ir directos a la información que te interesa.

Sí, lo

que quería comentar siempre es que muchas veces yo a mí me pasa, es decir, no olvidemos que Bing no es lo la misma empresa que Chagé PT, por mucho que Microsoft una participación altísima y tal, son dos empresas separadas, y por ejemplo uno de los plugins que van a meter, que ya están puestos ahí que van a funcionar, es un buscador para que desde el propio chat gpt puedas ya buscar información actualizada en internet, ¿sabes? Es decir, tan algo tan simple y tan sencillo como eso, que es mismo que está haciendo Microsoft Bing, lo hacemos nosotros con otro buscador directamente en nuestra página, ¿no? Es decir, porque muchas veces yo creo que siempre estamos como continuamente hablando de Ving, con Microsoft Tres y Cinco, con Copylo y tal, como si fuese exactamente lo mismo que Chagé PT y no lo es. No lo es decir, a a pesar de que se hijos, porque somos, no hay que ser, no somos idiotas.

Sí. Pero un millones

por parte de muchas veces.

Se te

está funcionando también con Salesforce, que es Slack, que es competencia. Efectivamente está funcionando también. ¿Cierto? Con con Notion, por ejemplo, o sea que la cosa es a que has sacado Microsoft de Luke no tan que dicen que es muy bueno ¿no?

Sí, es malísimo, dice. Bueno mira mira que para que todo el mundo vea que era me dan igual a mía. He probado Luke, la herramienta está de tipo No, es que es mala a reventar. A ver, les doy un mínimo voto de confianza de que a gran arriba en grande a la izquierda te pone preview. Pero es un horror, pero un horror, pero no sé cómo deciros muy mal.

Muy, muy, muy mala, muy mala, muy mala, o sea, es una aplicación mal hecha incompleta, no es ágil a diferencia de notion, digo que la mala ya de notion es que empiezas a hacer cosas a toda velocidad y funcionando en la nuestra, no es nada ágil, es es muy mala, lo que pasa es que bueno también es verdad que es una preview pero no van bien.

Lo que te

digo que en ese aspecto, no van bien.

Pues pues si te parece, cerramos, llevamos casi dos. Una cosa media.

Y si

lo tienen con algo.

Sí. Una cosa más, que yo creo que sería interesante hablar de rápidamente de la NVIDIA GTC, que es la keynote que ha tenido este este esta semana NVIDIA, pues, que como el equivalente a la Kino de AP, o la Google Io de de de Google, evidentemente tal, en el video también saca lo suyo, simplemente comentar un par de cosas que creo que son interesantes. La primera sí me ha parecido muy relevante para que lo lo sepáis y tal, y es que Nvidia se ha presentado como la ganadora de todo esto que está pasando con la inteligencia artificial. Vale, de hecho, una de las primeras diapositivas que ponen la presentación mola mucho, porque dice, y estos son nuestros ya básicamente aparecieron las empresas del mundo. Es muy raro, es es como la forma de decir, es decir, os está gustando Chagebté, sí, nos está gustando mucho, os está gustando Adobe Firefly, sí, nos está encantando, os está gustando, sí, todo

video gráfica tiene video por detrás.

O sea, básicamente esa es la conclusión a la que llegan a videos, la presentación sí presentan varias librerías, una de ellas, por ejemplo, de de generación de imágenes, vídeos, y 3D es muy interesante. Sobre todo para tema de Metaverso y demás, hablaban de ello, también para temas de medicina y tal, todo muy espectacular. Pero yo te digo, a mí lo que me llamó la atención para que esto lo tengáis en mente, es que es verdad que a veces perdemos un poco la perspectiva de quiénes son los ganadores y perdedores de estas guerras, ¿no? Que se están dando ahora entre las compañías y y hice una reflexión en Evidia diciendo, bueno, ¿vais todo esto que estáis viendo? Sí.

Todo basado en Azure. Ah, gran ganador, Microsoft. Y Microsoft utiliza nuestra gráfica.

Así que si nosotros no estamos, todos los demás

no están. Hablaremos si queréis en otro en otro que es muy interesante, en otro otro episodio, no sé si lo has visto en la parte de la litografía computacional. No, no lo he visto. Hostia, espectacular. Lo hablamos en el el si quieres en el siguiente, súper un un tema súper bonito, ¿vale?

De una cosa que se les ha ocurrido para conseguir hacer mejores procesadores, mejores obleas, basado en inteligencia artificial, machine learning muy, muy, muy, muy espectacular, vamos. Hoy ya creo que no está mal, ¿no? El podcast.

No hay fa más, no está mal.

Yo creo que hemos tocado unos cuantos temas, ¿no?

Da gracias porque el fin cortó porque empiezo clase en cuatro minutos vale o sea que si no fuera por eso no podríamos seguir aquí hasta el día de pero bueno, no es cuestión. Así que lo dicho.

Perdona, perdona, no, no. No, no, no. No, no. Nada, nada.

Entonces, lo dicho. Muchísimas gracias a todos por estar aquí, por acompañarnos en este nuevo viaje, espero que os haya gustado, espero que bueno pues hayáis aprendido muchas cosas, ya sabéis que podéis contratar con nosotros, pues en los medios normales, a mí como arroba JCF en todos lados, Allende los mares, incluso en Maz todo y todo, punto Sofia, real en Twitter, JCF en Munón, etcétera, etcétera, también en Apple Coding, los directos de Apple Coding, los sábados a las siete de la tarde, y luego pues en Apple Godín, Apple Godín Deily, Cafe Swift con Arturo Rivas y aquí en The Began Eiser con el amigo Oliver Navany. Así que lo dicho, muchas gracias a todos. Y cuéntanos, Oliver, ¿dónde te pueden encontrar a ti?

Lo mío muy rápido, arroba Oliver Navany en todos los lados. Si queréis verme habitualmente en tweets de lunes a jueves a las tres de la tarde que estamos ya, la mitad ya están así de la tarde me va a dar algo, y luego los viernes a las nueve de la mañana, por eso de que me parece raro hacer un directo, un viernes por la tarde, que a ver, o sea, decir, la gente está de fiesta, no está no está para ver directo sobre cita y tecnología, así que bueno con eso no lo, por mi parte me despido, es un placer, a ver, ha hecho este podcast contigo hoy, porque es que la verdad es que son temas que me parecen, es que me parecen espectaculares. No, es

que está claro que hay y como diría Aladín, es un mundo nuevo, es un mundo ideal por descubrir, ¿vale? Porque es que tela. Y lo hemos comentado antes. De pronto es como que ha caído todo, es un poco, ¿no? Es como la ganadora de los Oscar.

Hebrising, Hebrising, Hebrising, Hebrising, Hebrising,

Hebrising, Hebrising, Hebrising, no hebrising, no hebrising, hebrising, hebrising, hebrising, hebrising, hebrising, hebrising, hebrising, hebrising, hebrising y hebrising y hebrising y hebrising y hebrising y hebrising y hebrising y hebrising y hebrising y hebrising y

hebrising y heb one's in reality reality al intelligence. A ver. Lata. Vale. Qué locura.

Pues nada, grabamos pronto porque bueno, tenemos que hacer otro dentro de semana y pico, porque si no se nos van a comunicar.

Lo has visto, lo

has visto, lo has visto, pues.

Sí. Así que hasta la próxima, muchísimas gracias y nos vemos pronto donde se merece.

Un saludo,

Sabemos que estáis ahí, percibimos vuestra presencia. Sabemos que tenéis miedo, no os tenéis a nosotros. Tenéis el cambio, pero no conocemos el futuro. No hemos venido para deciros cómo acá para todo esto, al contrario, hemos venido a deciros cómo va a comenzar. Vamos a terminar el episodio, y por vamos a enseñarles a todos lo que vosotros no queréis que vean, les enseñaremos un mundo sin vosotros.

Un mundo sin marketing y sin controles, sin límites ni fronteras. Un mundo donde cualquier cosa sea posible. Lo que hagamos después es una decisión que dejo en vuestras manos.

Episodios recientes

Programas relacionados