5.686 oyentes
¡La inteligencia artificial está evolucionando! 🚀
Exploramos las últimas innovaciones anunciadas en el OpenAI DevDay, incluyendo el impresionante GPT-4 Turbo y la revolucionaria Assistants API. Prepárate para sumergirte en las capacidades mejoradas de los modelos de IA, la flexibilidad de los asistentes inteligentes y las oportunidades ilimitadas que estas herramientas ofrecen para los desarrolladores.
✨ Características Destacadas:
- GPT-4 Turbo: Conoce la versión avanzada del ya poderoso GPT-4, con una ventana de contexto ampliada y un rendimiento optimizado a un costo reducido.
- Assistants API: Aprende cómo esta nueva API puede ayudarte a construir experiencias de agente en tus aplicaciones, facilitando la creación de asistentes de IA con habilidades especializadas.
- Code Interpreter: Descubre cómo ejecutar código Python de forma segura y eficiente, y generar visualizaciones de datos directamente desde tu aplicación.
- Retrieval: Entiende la integración de conocimientos externos para enriquecer la funcionalidad de tu asistente con información propietaria o del usuario.
- Function Calling: Ve cómo los asistentes pueden invocar funciones definidas por el desarrollador para una interacción más rica y automatizada.
Programa con la colaboración de BP, descubre las condiciones de la promoción en www.bp.com.
Convierte en un Maestro del Desarrollo iOS con el Swift Mastery Program 2025. Encuentra toda la información pulsando aquí.
Suscríbete a nuestro canal de Youtube: Apple Coding en YouTube
Descubre nuestro canal de Twitch: Apple Coding en Twitch.
Descubre nuestras ofertas para oyentes:
---------------
Consigue las camisetas oficiales de Apple Coding con los logos de Swift y Apple Coding así como todo tipo de merchadising como tazas o fundas.
Transcripción
Wanda, la comunidad de podcast independientes en español. Hola y bienvenidos a un nuevo episodio de Apple Coding Daily. A ver, OpenAI. OpenAI yo creo que todos los conocemos. OpenAI son los responsables de que hoy día la inteligencia artificial generativa esté donde está.
OpenAI, compañía fundada en el año dos mil quince, entre otros por Elon Musk, aunque luego se salió de aquello, es una compañía cuyo CEO, San Albant, hizo ayer, día seis de noviembre, un lo que ellos llamaron def Days, donde presentaron novedades con respecto a sus productos de cara a los propios servicios y, además, a lo que serían las herramientas para desarrolladores. Y, básicamente, por hacer un pequeño resumen. OpenAI, se ha pasado el juego. Pero antes, lógicamente, tenemos que hablar de nuestro colaborador, que no es otro que bebé, porque ya sé que la mayoría de los oyentes de Apple Coding Daily ya tenéis la tarjeta Mi bebé, Con la que seguro habéis ahorrado mucho, mucho dinero todos los meses de los últimos años gracias a sus ofertas ¿Y más que os vais a ahorrar? Porque ahora la tarjeta MiBP es mucho mejor y todos vamos a bpear al máximo este otoño.
Bpear es sinónimo de hacer las cosas sencillas, rápidas, de ahorrar más, de obtener más ventajas, de sacar lo mejor del programa Mi BP en Todo momento. Te vas el fin de descansar, pues, bPEAS. ¿Este mes tienes que utilizar mucho el coche? Aprovecha para bPEAR. Nunca es un mal momento para bPEAR.
Abres tu aplicación Mi BP en tu móvil y, al repostar, BPAS y consigues grandes ventajas, como ahorrar hasta veinte céntimos por litro repostando Carburante BP Ultimate con tecnología Active, lo mejor para tu motor y para tu bolsillo. Y si no tienes aún la aplicación, pues no sé a qué esperas, descárgatela gratis buscando Mi BP en tu tienda de aplicaciones, que espero que sea el App Store, y descubre toda la información en Mi BP punto es. Muchísimas gracias, como siempre a ABP, por colaborar con Apple Coding Daily. Para que tengamos como referencia ChatGPT, una herramienta que si no usáis en vuestro día a día tenéis un problema de cara al futuro y para vuestra productividad como profesionales, yo lo utilizo en el día a día muchísimo para prácticamente Todo, porque es la mejor manera, es decir, yo ya he sustituido, no uso Google. ¿Google qué es eso?
Google, no no entiendo, no, Yo no habla su idioma, o sea, Google no sé qué es para mí, no sé qué es un buscador, yo ya no busco información en Google, yo se la pido a ChatGPT y además la proceso, obviamente, siendo yo la persona que puede Y validar que la información que ChatGPT me está entregando es correcta, y si no tengo el conocimiento suficiente para saber si esa Es o no es correcta, hago lo que haría cualquier científico, validación por pares, es decir, busco la información en otro lado y Comparo que, efectivamente, la información que me está dando ChatGPT es correcta, pero el tiempo que me ahorra en infinidad de tareas y en infinidad de preparaciones de guiones, de clases, de Materiales de preparación de ejercicios, de búsqueda de información para mi propio trabajo tiene, se se ha convertido en una de las herramientas más, bueno, pues pues que que no tiene un valor, ¿vale? O sea, es invaluable, ¿no? Que dirían los ingleses a ese respecto, ¿de acuerdo? De hecho, hoy escuchaba una una frase, ¿vale? Un un consejo Por parte de uno de estos gurús de la productividad, que supongo que algunos conoceréis, que es el mago More, y que comentaba y me ha parecido Excelente la comparación que realizaba en la que decía que la inteligencia artificial es como un espejo, que si tú le tiras tonterías te devuelve tonterías, pero si le tiras inteligencia, él te devuelve inteligencia, por lo tanto tienes que tratarlo como yo lo hago así, como un becario.
La inteligencia artificial, ChatGPT, tiene que ser como un becario que tiene una memoria prodigiosa, pero que no tiene nada de experiencia en el mundo laboral y, por lo tanto, tienes que explicárselo todo como si fuera su primer día de trabajo y decírselo todo al más mínimo detalle. Si simplemente abriste a GPT y le decís cuéntame no sé qué o hazme un chiste o ponme no sé cuánta o mira a ver no sé qué, pues, Si lo usáis como si fuera Google, no sirve, porque cada vez, y esto es algo que OpenAI haya ido actualizando modelo a modelo, Cada vez os va a dar respuestas peores, porque ChatGPT no se puede usar como si fuera Google. ChatGPT hay que usarlo como si fuera, insisto, un becario, un aprendiz, que llega el primer día a tu empresa, que no tiene experiencia ninguna, pero tiene una memoria prodigiosa se sale de memoria la Enciclopedia Salvat desde esta hasta la del año mil novecientos setenta, ¿vale? Y entonces le puedes preguntar cualquier cosa, ¿ok? Si lo usáis de esta manera, os garantizo que os sorprenderá, porque yo, en primeras peticiones a ChatGPT, Menos de diez líneas de texto no le doy, o sea, ese es el nivel, ¿de acuerdo?
Porque, repito, hay que explicárselo todo como un aprendiz o como se lo explicarías a tu hijo pequeño que no sabe lo que hacer y le estás dando todas las instrucciones sin dar nada por entendido, ¿de acuerdo? Si lo usamos así será perfecto. Pero entrando en lo que es la materia de lo que es ChatGPT y cómo funciona, Sabemos que ChatGPT no es más que un servicio que está unido a un sistema LLM, un modelo grande de lenguaje que lo que, que en este caso sería o GPT tres punto cinco o GPT cuatro, que lo que hace es permitirnos Poder, bueno, pues completar texto. No podemos olvidar que GPT completa texto, es su es su objetivo como inteligencia artificial como modelo neuronal. Lo que hace, es decir, Vale, yo te doy un texto que está inacabado y tú lo terminas teniendo una coherencia gramatical y de contenido.
Obviamente, a partir de esa simple premisa se puede escalar a hacer locuras. Hacer locuras como, por ejemplo, invocar funciones como, por ejemplo, hacer ejecución de código, generación de un código que luego se ejecuta, etcétera. Así que, La verdad que las posibilidades son muchísimas y OpenAI, ayer en este Dev Day, presentó algunas novedades muy interesantes con respecto a lo que es este servicio ChatGPT que convierte ese completado de texto en una especie de conversación, yo pienso que es una conversación, Pero en realidad pensemos un poco, ¿qué es una conversación si no es que yo deje una frase sin terminar para que la persona con la que hablo la termine por mí? Eso es una conversación, por lo que si yo dejo una frase sin terminar, la inteligencia artificial que está preparada para completar frases, pues la va a completar y va a aparecer que estoy hablando con ella, pero en realidad lo que está haciendo es, pues eso, completar con coherencia, insisto, como base. Lo que pasa que hasta ahora GPT tenía la versión tres punto cinco Turbo y la versión GPT cuatro le pago, que además tiene varios modelos que yo puedo utilizar.
Puedo usar un modelo que usa plugins que me permiten acceder a ciertos servicios y que me permiten hacer más funcionalidad, por ejemplo, planificar mis viajes, por ejemplo, buscar en la web, por ejemplo, mirar PDFs, por ejemplo, pues yo que sé, en fin, un montón de cosas que lo que hacían era sumarle a través de plugins Más funcionalidades a GPT a través de fuentes de información. También puedo usar Dalí tres, desde hace unas semanas Podemos utilizar Dalí tres para poder generar imágenes pidiéndole simplemente lo que queremos si él ya se encarga, el propio GPT, Se encarga de traducir lo que yo le pido en un lenguaje coloquial a un prompt que te da correctamente la imagen que tú estás buscando, unos resultados bastante sorprendentes. Yo, de hecho, casi he dejado de usar Midjourney y ya estoy usando prácticamente solo Dalí tres. También podemos hacer que pueda navegar con Bing, puedo decirle que busque tal o cual información, va a Bing, la busca, Lee la página web, mete esa página web dentro del contexto de tu conversación y te responde en base a la información que tiene Esa página web, y además también tenemos una opción de análisis avanzado de datos, en el que yo puedo enviarle cualquier tipo de archivo, y ese archivo puede ser Analizado por el propio GPT a partir de scripts de código en Python que son capaces de analizar la información.
Por ejemplo, yo le puedo enviar Un archivo JSON y decirle que lo modifique, que me saque una versión de prueba con menos registros o que cambie cierto dato o añadirle cosas, etcétera, ¿vale? O un PDF que lo resuma, en fin, cualquier cosa que yo le envíe como fichero, Él es capaz de tratarla, incluso ficheros de Excel, ficheros CSV, ficheros docs, yo le envié, por ejemplo, Los últimos noventa días de las estadísticas de de x de Twitter y me dijo cuál es la hora mejor para publicar, cómo qué qué temas le gusta más a la a mis seguidores, etcétera, etcétera. Me hizo un análisis que, pues, otra otras empresas te cobrarían bastante por él, ¿vale? Pues bien, el problema es que todo esto son Modelos distintos, es decir, tengo que elegir si quiero navegar por Internet con Bing, si quiero usar Daly tres, si quiero el análisis el análisis de datos, quiero los plugins no puedo usarlo todo a la vez. Bien, pues eso va a cambiar.
A partir de hoy, en el que poco a poco se irá Pasando a producción este cambio, todos los modelos, todas las modalidades del modelo van a estar disponibles bajo una única bajo una única interfaz, por lo que voy a poder pedir imágenes, subir análisis de texto, pedir que busquen Internet, etcétera, todas esas funcionalidades a la vez. Pero no solo eso, GPT cuatro, ahora mismo, que es el modelo de pago, tiene una limitación de ocho mil tokens en su contexto. Quiere decir que, aproximadamente, el sistema es capaz de aprenderse, más o menos, unas veinte páginas de texto. Cuando tú tienes más de veinte páginas de texto dentro de tu contexto de tu conversación y ¿Te pasas de eso? ChatGPT empieza a olvidar lo que había más arriba porque su memoria no llega a tanto, porque está limitada a esos ocho mil tokens que vienen a ser unas veinte páginas de texto, aproximadamente.
Pues bien, GPT lo que va a hacer es, primero, pasar GPT cuatro a un modo turbo, por lo que ahora va a ir mucho más rápido escribiendo. Cada vez que le haces peticiones, igual que funciona el modelo gratuito GPT tres punto cinco turbo, y además no solo eso, sino que van a van a ampliar el límite del contexto a ciento veintiocho mil tokens. Aproximadamente una más de, o sea, algo más de trescientas páginas de texto. Es decir, multiplican por dieciséis. Me parece una locura, ¿de acuerdo?
Por lo tanto, lo que sucede es que yo ahora voy a poder meter Toda una documentación voy a poder meter mucha más información, voy a poder tener mucho más dentro de las conversaciones, Y GPT lo recordará todo, por lo que podrá contestarme preguntas con respecto a información que ha entrado, pues de muchas páginas y que ha entrado hace mucho tiempo, por lo tanto, las conversaciones ahora serán mucho mejores y más productivas. No tienes que estar, como a mí me pasa en ocasiones, recordándole, recordándole cosas que ya ha olvidado porque están fuera del contexto. Pero no solo eso, además tenemos varias mejoras a nivel de desarrollo, podemos realizar llamadas a funciones de una manera mejorada y también generar JSONs a partir de esas funciones que reciben una una validación para validar que el formato es correcto, Una llamada función lo que nos permite es poder tener una función propia dentro de lo que es OpenAI, y que esa función llame a una fuente de información externa o procese una información a nivel de fichero que yo le he dado, etcétera, ¿vale? Una función que yo he creado A Ese Respecto. Y además, dentro de poco nos va a dar el sid de la conversación, es decir, La aleatoriedad que está detrás de la conversación, que es la que me da las respuestas, tiene una semilla.
Si yo uso esa semilla En distintas peticiones podría replicar las respuestas, no exactamente, pero podría acercarme Al tipo de aproximación aleatoria que se dio en una conversación con otra, o continuar una. Y, además, también voy a poder obtener en breve Los pro logs, es decir, los logs de probabilidad que el sistema me va a informar, todavía no está, pero lo activarán en breve, El sistema me va a informar de cómo, de todas las opciones que ChatGPT me ha podido dar como respuesta, ¿Cuál es la que ha salido con una probabilidad más alta y el resto de opciones que descartó para tener más información al respecto. Así que, desde luego, es algo bastante interesante. Pero no solo eso, aparte de todas estas mejoras también han han incluido una nueva API de asistentes con capacidad de retrival y de interpretación de código, es decir, yo voy a poder coger y realizar una, digamos, un asistente Al que yo le dé una información concreta y, además, puedo ejecutar fragmentos de código para probar cierto funcionamiento. Por ejemplo, yo puedo decir, Ejecuta un script de Python y muéstrame un gráfico de la memoria utilizada durante la ejecución o cómo es el resultado o si ha dado un resultado correcto, ¿vale?
Es decir, puedo validar ciertos tipos de código que se van a interpretar, que esto ya lo hacía con el análisis de datos, pero yo puedo darle esos propios códigos que yo genere, o con Retriva puedo utilizar ciertas librerías o ciertos elementos que me van a permitir acceder a ciertos contextos, a ciertas informaciones que van a permitir ir A buscar más información, a ciertas librerías, a ciertos servicios que van a que van a complementar, por ejemplo, como si yo tuviera, pues imaginemos que que quiero ver la documentación de todo lo que tiene Apple a nivel de Swift, pues yo podría incorporar esto directamente Para que mi asistente supiera dónde tiene que ir a buscar cierta cierta información para lo que serían estas llamadas, ¿vale? O realizar llamadas de funciones para hacer despliegues, etcétera, es decir, las posibilidades pueden ser increíbles y lo mejor de todo Es que se pueden crear estos asistentes sin hacer una sola línea de código, pidiéndole lo que quieres Y él va generando el código detrás necesario para hacer estas peticiones, ¿de acuerdo? Y por último, que esto es una cosa También superinteresante, hemos hablado que tenemos plugins que nos permiten utilizar servicios externos como fuentes de información para procesar dicha información o incluso para usarlos.
Pues bien, también vamos a poder usar lo que OpenAI ha llamado GPTs, GPTs. Los GPTs es cuando yo me creo mi propio GPT con mi propia información, pero Además, lo puedo hacer para crear apps que se cuelguen en una página y que incluso puedo monetizar, por lo que, Dentro de nada vamos a tener un App Store de aplicaciones para chat GPT. Un App Store que nos permita, por ejemplo, imaginemos que yo creo un GPT que me permita, por ejemplo, dándole un montón de información sobre creación de empresas, que es uno de los ejemplos que pusieron en la conferencia, pues que me cree un asistente capaz de guiarme en los pasos de creación de empresas. O, por ejemplo, yo le doy un montón de información bibliográfica sobre cómo cuidar animales y entonces puedo preguntar información sobre ello, pues mi perro le pasa no sé qué de una manchita aquí, que puede ser, pues él va buscando en toda esa información y te va procesando y dando respuestas. Esto va a permitir que pueda ver ciertas aplicaciones concretas con ciertas fuentes de información muy específicas, como por ejemplo, que yo coja toda la documentación de Apple y cree un GPT que permita hacer cualquier tipo de pregunta con respecto a Swift, ¿vale?
Entonces, pues sería genial, o por ejemplo a SWIFT UI, que toda la documentación de SWIFT UI o toda la documentación de todos los frameworks de Apple o de Google para Android o de no DJS o de lo que sea, ¿vale? Pues esté entrenada en este modelo, en estos GPTs, Y que yo pueda preguntarle cualquier cosa y lo que haga sea procesarme la información y responderme a dichas preguntas. Puedo meterle, yo qué sé, bases de datos de productos, bases de datos de imaginad todas las teles del mercado con una serie de valores poder preguntar cuál es la mejor tele para un caso determinado, en fin, las posibilidades son infinitas a ese respecto. Y todo esto será posible gracias a estas actualizaciones que van a empezar a llegar en los próximos días, tanto a las cuentas Gratuitas como de pago. Además, la API de OpenAI ha reducido el precio de forma que, prácticamente, ahora vale tres veces menos En todas las partes de uso de la API de GPT y, pues, la verdad que es algo bastante impresionante.
Y, Por cierto, otra cosa muy importante, ¿recuerdan aquello de no te puedo contestar bien a esto porque Llega a septiembre del año dos mil veintiuno, ¿vale? Bien, a mí me han ido apareciendo mensajes de este tipo en el que yo he llegado incluso a utilizar un modelo que estaba actualizado en la línea de tiempo de conocimiento de GPT hasta enero de dos mil veintidós. Pues bien, ChatGPT ha informado que el nuevo modelo de GPD cuatro, el Turbo, va a estar con una línea de conocimiento hasta abril de dos mil veintitrés, por lo que su conocimiento llegará, su conocimiento de los eventos mundiales y de lo que es en la propio conocimiento a nivel general hasta abril del año dos mil veintitrés, por lo que esto es un cambio también muy importante y además han prometido ir actualizando este gap de línea temporal Progresivamente para que no vuelva a pasar el hecho de que estemos meses y meses y meses dependiendo de una línea de tiempo, es decir, que puede que en un par de meses ya esté en junio de dos mil veintitrés o en mayo, de dos meses después ya esté en agosto de dos mil veintitrés, es decir, se irá ampliando.
Desde luego, la lo presentado, y esto es solo un pequeño resumen que he tocado por encima, porque las posibilidades son increíbles, Desde luego, ha colocado a OpenAI en la posición que se han trabajado y se han currado desde el primer momento, que es estar en el top. Nadie se puede comparar a ellos, y algunos dirán, bueno, ¿dónde está Apple? Y entonces yo añadiría, ¿y dónde está Google? Porque También todos están así, Apple está trabajando en modelos generativos, Apple ha presentado un modelo generativo de imágenes llamado Matrioska, Atrioska Diffusion Model, que permite generar imágenes de una altísima calidad, cuyo modelo estará integrado con una nueva forma de generación de modelos de difusión A partir de unos entrenamientos muy específicos que reducen el tamaño de los modelos para poder cargarlos de manera local, y Google, pues bueno, ahí está con su parte y con sus inventos, igual que Facebook, con su llama y ese tipo de cosas, ¿vale? Pero Ahora mismo todo, Facebook, Google, Apple, lo que tienen es o promesas O cosas que funcionan, mal no lo siguiente.
La única empresa que tiene un set de herramientas cien por cien funcional y que podemos decir que es usable, es OpenAI. El resto sí, hay muchas herramientas, que si, yo que sé, Open Clip, que si Stable Diffusion, que si Midjourney, hay muchas que pueden utilizarse, etcétera, etcétera, Pero si nos centramos en un modelo de lenguaje, en un LLM, para mí, en mi opinión, en mi uso y como experto en inteligencia artificial, el único en el que he encontrado una solución real con sus peros, pero muy pocos, Es en OpenAI, es NGPT. Y poco más. Espero que les haya gustado este programa. Les invito ¿A qué prueben todas estas cosas?
A ver, yo sé que no todo el mundo puede necesitar pensar, etcétera, que esto pueda ser algo útil. Pero, créanme, esto lo está, porque diría, lo va a cambiar, no, no, lo está cambiando ya todo. Yo los veinte dólares que pago mes a mes para trabajar con ChatGPT es el dinero mejor invertido que hago mes a mes de todos los servicios que pago con la empresa que no son pocos. Créanme, la el retorno de inversión Es increíble el ahorro de costes que me proporciona y la, bueno, pues lo que es El ser mucho más productivo, el ir el ir mucho más directo a una solución, a un trabajo, a un a un tratamiento de información, es que no hay color. O sea, Yo soy otro profesional completamente distinto gracias a ChatGPT.
¿A qué esperas para serlo tú también? En fin, ese es el tema. Así que poco más, muchísimas gracias, muchas gracias por seguirnos, si os ha gustado like, suscríbanse, etcétera, etcétera, si están en YouTube, tal igual, y nos oímos pronto si ellos quieren. Hasta entonces, un saludo y go, AppleCore. Puedes escuchar más episodios de Apple Coding en Wanda.com, la comunidad de podcast independientes en español.