Especial WWDC: Apple Intelligence

00:00 /28:58

Desde el Podcast Studio del Apple Park, un episodio especial grabado junto a Pedro Aznar de Applesfera y el creador de contenido Victor Abarca.

Escucha la primera parte del podcast en Las Charlas de Applesfera de esta semana.

Transcripción


Wanda presenta Binarios, con Ángel Jiménez de Luis.

Bienvenidos a un episodio muy especial de Binarios. Como en otros años hemos tenido la oportunidad, el privilegio de grabar en el en el Apple Park, en en Tratado de ABC, está conmigo esta semana Pedro Aznar de Charlas de Apredesfera y de Apredesfera en general.

Hola, encantadísimo de estar aquí.

Y Víctor Abarca. ¿Qué tal, Ángel? Y Abarca Enterprises. Abarca Enterprises.

House of VA.

House of VA. House of VA. House. Y y hemos hablado, esta es la segunda parte del podcast, porque hemos hablado en las charlas de AppleEsfera esta semana de todos los anuncios de los sistemas operativos y ahora vamos a hablar de Apple Intelligence, que es el segundo gran anuncio de de de AdobeDC, que yo creo que todos hemos visto, además de la presentación, hemos tenido una oportunidad de verlo un poquito más de cerca y yo creo que estáis como yo, ¿no? Más o menos.

Me me ha explotado la cabeza.

Literal, Y mira que cuando terminó la presentación me quedé como muy de un poco frío, ¿sabes?

Venimos de varias semanas en el que ha habido un ciclo de noticias y rumores sobre el acuerdo con con OpenA y

que el

acuerdo con Google que al final no se ha hecho, y todo el mundo estaba pensando que esto iba a ser, pues, a lo mejor un modelo local muy pequeñito para ciertas cosas, pero luego en la nube iba a ser todo Chat GPT o Pen AI o lo que sea y no tiene nada que ver con esto y yo creo que merece la pena explicarlo un poco con detalle. Te voy a pedir a ti, Pedro, que lo expliques así un overview rápido.

Vale, hay mucho procesamiento, lo que es lo que se lo que la gente piensa o lo que aparecía en la en la presentación es un poco, bueno, tenemos dos modelos, tenemos un modelo de de Apple que ha entrenado modelos propios. Como modelos propios, me refiero a que Apple ha trabajado en un esfuerzo en coger una modelo de lenguaje muy amplio, destilar contenidos, curar los contenidos, enfocarlos técnicamente con una tecnología que se llama adaptures, que lo que hacen es coger cada uno de los contenidos curados y saber enfocarlos a tareas eminentemente práctica, que al final es Apple. O sea, quiere que hagamos cosas con la IA, pero quiere que hagamos cosas de forma más natural y sin complicaciones y, sobre todo, enfocada a la tarea. Y eso es muy importante porque todo eso, appel intelligence, es un trabajo eminentemente local. Es decir, no tiene otro modelo, no necesita ChatGPT para absolutamente nada, funciona completamente independiente y, sobre todo, funciona en la mayoría de las ocasiones en el propio dispositivo.

Por eso, muchas de las personas que dicen, oye, ¿por qué solo funciona iPhone quince Pro? Es porque necesita una potencia de computación muy bestia para procesar todo esto en en el dispositivo. Si necesita de un modelo más amplio y necesita más capacidad de computación, entonces es cuando va a los servidores nuevos de Apple Silicon, el private cloud este que tienen ahora nuevo, donde ahí se procesa de forma privada, anonimizada, todo eso

Ahora hablamos de eso con Carlos, ¿sí?

¿Y ChatGPT qué es entonces? ¿Dónde dónde entra en esta ocasión? Apple entiende que los modelos, hay modelos de de inteligencia artificial muy avanzados fuera de de Apple Intelligence, y lo que quiere es poder tener la oportunidad de ofrecérselo a los usuarios, si quieren utilizar, por ejemplo, modelos entrenados en documentos médicos, en modelos entrenados en, yo qué sé, pues ingeniería. Entonces, podemos seguir utilizando API Intelligence para nuestras tareas locales, nuestro contenido, nuestras datos personales, pero cuando necesitamos llevar o escalar esa información a cosas más técnicas, más, algo más concreto, más de nicho, los modelos como ChatGPT nos pueden aportar el contexto extra sin tener nuestros datos personales que nos salen del dispositivo. Otra de las conclusiones que había, vale, pero si mi dispositivo no es un iPhone quince Pro, ¿por qué no hacen que todo funcione en los servidores de Apple Silicon, el private cloud este, en lugar de en el dispositivo?

Porque Apple no quiere que tu que tu contexto, tu información personal salga del dispositivo, quiere que eso siga siga estando ahí.

Sí, es, yo creo que es esto es importante, ChatGPT, o sea, el acuerdo con ChatGPT es importante porque tienen algo que va a venir, que es, es lo que tú dices, es para cierta información o para dominios que que la inteligencia artificial de Apple no domina. Por ejemplo, el el ejemplo recurrente que ponen ellos es el de los ingredientes, qué qué plato puedo hacer con estos ingredientes, ¿no? Eso es algo que la inteligencia artificial de Apple no está entrenada para responder, entonces lo que hace es, le puedo preguntar a ChatGPT, pero es es uno de los modelos que va a haber, es decir, puede haber muchos más y la idea de Apple es, pues no hay problema si quiere venir Gemini, si quiere venir Klama, si quiere venir modelos más especializados en tareas, pueden venir y se desintegrarán de la misma forma, ¿no? Es un poco la la historia. Yo diría que, a nivel así un poquito más de de detalle curioso, hay tres, ellos dicen que hay tres modelos importantes, ¿no?

Hay dos modelos en dispositivo y uno que es más es más potente en en servidor. Los dos del dispositivo son muy parecidos, lo que creo que hay uno, creo es, estoy hablando porque son como muy son muy secretivos para ese tipo de cosas y no lo comentan mucho, pero creo que hay uno especializado para imagen y el otro es el especializado para tareas de texto, organización y demás, ¿no? Entonces, yo diría que Apple Intelligence se puede dividir en en en dos grandes áreas, que es writing tools o tres grandes áreas, writing tools, imágenes y Siri, todo lo que viene consigo ahora con Apple Intelligence. Entonces, Víctor, si quieres contar un poco qué te ha parecido writing tools o qué te parece en este esta aproximación a la inteligencia artificial.

Uf, pues, wow, me ha gustado porque me ha parecido muchísimo más ambicioso sinceramente de lo que creo que nos esperábamos, No ha sido, efectivamente, no solo ha sido un modelo como es ChatGPT, no han creado solo un modelo y han dicho aquí está esto, sino que al final es algo que se entiende a nivel de sistema operativo, está muy integrado dentro del propio dispositivo. Entonces, que, por ejemplo, sea capaz de entender dónde viene la información, ya sea de la aplicación de mensajes, ya sea de la aplicación de de correo, por ejemplo, y poder preguntarle a Siri por algo específico que te vaya a dar una respuesta que traiga el contenido del resto de las cosas, eso es lo que me parece que, ok, más allá de los modelos, que sea un modelo de imagen, que sea un modelo texto, eso está muy bien para nosotros, para los nerds, pero que al final a las personas de a pie, ¿vale? Les llegue una respuesta a través de Siri, de una pregunta más compleja de una información que tiene en su teléfono, lo que hace es convertir efectivamente el iPhone en ese asistente personal real, decir ok, eso sí es una inteligencia artificial personalizada y que además se haga todo en el dispositivo, chico, me parece grandioso.

Sí, yo creo que decía Pedro, ¿no? Al final es un es una fórmula de cómo aplicamos modelos a largo del lenguaje a a actividades y a problemas concretos para resolver en el día a día, porque ChatGPT y y todos este tipo de robots conversación de bots conversacionales al final son muy abiertos, son muy abiertos y muy, quiero decir, la gente encuentra formas de usarlos en su día a día, pero es muy muy general, no es no es algo como no, yo lo que quiero es algo que me que que me avise, por ejemplo, que que organice mis notificaciones y me diga cuáles son las importantes, que si yo estoy hablando, pues sí, le digo algo, entienda que es que me estoy refiriendo a lo que está en pantalla o lo que justo le acabo de preguntar, ¿no? Entonces este tipo de de cosas requieren una aproximación que es un poco diferente a la de un modelo general, como puede ser ChatGPT, y en ese sentido me parece muy interesante cómo lo han cómo lo han integrado. Empezaría por por por writing tools, que es las herramientas de escritura que vienen. Bueno, antes de nada, yo voy a decir una cosa que es que todo esto está muy bien, pero es ambiguo en cómo va a llegar.

Va a llegar en inglés y en Estados Unidos

primero,

a finales de este año, a partir del año que viene se supone que se irá expandiendo, pero incluso las funciones que llegan son limitadas al principio y se van a ir expandiendo. O sea, ChatGPT Proofén, por ejemplo, creo que lleva más tarde y y y algunas de las funciones de ZIP también llegan el año que viene. Entonces, es como muy lento.

Aquí, antes antes de continuar, un mensaje para Elon Musk, vas a poder desactivar ChatGPT

Sí, sí, sí.

¿No? O sea, es algo que también y es la pregunta la ha hecho Ángel en el cuando hemos estado viendo este este tema y es, para las empresas, por ejemplo, que son conscientes de la privacidad y no quieren que sus datos salgan a un servidor externo, se puede parar. Se puede cortar ChatGPT, puedes desactivarlo y que tu tu tu sistema, tu tu dispositivo funcione con Apple Intelligence en local y que no salga a ChatGPT y que no se utilice para absolutamente nada. Es decir, todo lo que la gente piensa de es que Apple necesitaba ChatGPT para esto, cuando hemos salido de la charla, Ángel y yo comentamos que precisamente es lo contrario, ha beneficiado esto más casi a OpenAI que a que

veniros, traer las cosas, o sea, traer vuestras intenciones artificiales que podemos ponerlas como complementarias a lo nuestro, pero es complementario a lo nuestro, es decir, es es algo es algo secundario.

Yo creo que, perdona que que te he cortado, pero yo creo que hay un tema bastante curioso y es que, ¿cuánta gente realmente utiliza ChatGPT?

Bueno, es eso es es una cosa curiosa y yo siempre que hablo de este tema, pero es como muy escéptico y muy anti me gusta mucho Chache, A mí me encanta. Y pero la verdad es que tiene un problema grave en ese sentido, el número de usuarios activos no está creciendo mucho, es decir, uno uno uno le da muy grande al principio, pero no está creciendo mucho y mucha gente que prueba la herramienta se sorprende pero no vuelve.

Exacto, es decir, yo creo que es una herramienta que quizás la utilizas para, en un momento determinado, para hacer el resumen de un PDF, hacer el resumen de un artículo de de Pedro Aznar, por ejemplo, pero luego Jesús

esta parte, por favor.

Pero luego dices, pero luego tienes herramientas, por ejemplo, Siri, Siri, si es capaz de ayudarte en tareas del día a día, al fin es un tipo de inteligencia estar utilizando todos los días, está mucho más centrada en no ofrecerte algo muy específico, sino en ofrecerte algo muy genérico para tu teléfono, o sea, en tu teléfono.

Y en tu forma de trabajar, al principio esto, por ejemplo, las herramientas de escritura que llegan con Apple Intelligence son limitadas hasta cierto punto, te va a permitir reescribir un texto, te va a permitir sacar un resumen, pero no genera texto, no es como Schajicti. Ahí está, ahí es donde entra ChatGPT.

Ahí entra, exacto.

Ahí es donde tú puedes decir, oye, quiero que me crees un texto de, a partir de un prompt, puedo llamar a ChatGPT en la herramienta y entonces ya pasa ahí a dices que estás de acuerdo en que se envíe tu información o lo que sea, y ya te genera el texto. Pero lo que hace Apple es otra cosa, es reescribir textos, darles una apariencia más formal o menos formal, buscar sinónimos, cosas así, ¿no? Pero pero es muy limitado en eso.

Para que quede claro, ChatGPT no está debajo de Apple Intelligence, Apple Intelligence no utiliza nada de ChatGPT

No es

un Rev grande,

no es un Rev grande. Y y esto también independiente, es solo una algo que aporta más directamente a lo que ya a lo que ya hace Apple Intelligence, que yo creo que además, para para para que se entienda muy bien lo que hace la serie de Apple Intelligence y lo que hacen otros modelos de lenguaje es, la serie es como si fueran nuestro asistente personal dentro de la empresa, la que conoce nuestra agenda, nuestros contactos, nuestros mensajes, nos organiza. El resto de asistentes es saben de de, pues, de, digamos, que como si fueran de otras empresas, entonces, ellos saben de lo suyo pero no te conocen, entonces te pueden ayudar con la información genérica de la empresa de fuera, pero la tuya no la conoce. Entonces, esa conexión de dos mundos es muy necesaria. Yo Yo creo que Apple tampoco iba a ponerse a hacer modelos de lenguaje amplios de cada una de las áreas de expertise ahora mismo de que hay en el en el mundo y está muy bien en en integrar todo esto, ¿no?

Y es que no

hubiera sentido,

es decir,

no no creo que hubieras eso ese sentido.

Es arriesgado. Exacto. Eso es un poco el problema, lo que lo que Apple está intentando y por parece tan limitadas en algunas cosas exactamente, y ahora hablamos a hablar de de la generación de imágenes, que lo último que quiere Apple es que le pase lo que le ha pasado a Google o lo que ha

pasado a Microsoft. Terrible.

Que terrible, pobre gente, ¿no? Terrible. Salían adelante, no te preocupes, Pedro. Pero pero no, pero es un problema, es decir, tú no puedes tener un modelo de lenguaje, sobre todo Apple que cuida mucho su imagen, que le diga a la gente que coma pegamento en la pizza, ¿no? Eso es un poco, decir?

Ese es un tipo de de de resultado que están intentando evitar con estas con esta aproximación tan enfocada a tareas muy específicas y con dominios tan restringidos.

Entonces, importante técnicamente los adaptes, que yo comentaba. Eso es lo que hace que se centre en la tarea y que el la curación y la destilación de los modelos de lenguaje se apliquen perfectamente a los resultados y no veamos cosas raras, como lo acabas de comentar tú.

Sí, y en y en el tema de imágenes, por ejemplo, ¿qué qué ha pasado? Pues que genera un un un, este puede generar dos tipos de, hay dos grandes dominios donde se aplica, que es yemoji para generar emojis y el image play off. Y image play off donde se crean imágenes, pero son imágenes muy simples con unos pro muy controlados, los que tienes tres estilos y en los que probablemente haya muchísimo control en lo que puedes y no puedes crear otra base de una imagen que sea ofensiva o demás, o sea, no creo, Como siempre habrá gente que lo lleva al límite y vemos dónde están, ¿no? Pero, de

hecho, se pueden marcar si alguna imagen

Sí, sí.

Que no te no te gusta, no no porque sea ofensiva, no creo que que el modelo permita o o llegue hasta ese extremo, pero tú puedes marcar si tú le pides algo y lo que te devuelve no es lo que tú quieres, puedes marcarlo para que Apple al final está en proceso de beta y todo esto lo lo mueva y precisamente por eso lo han hecho la generación de imágenes fotorrealistas, para no meterse en berenjenal es de hoy en mes, tiene seis dedos esa persona.

No, y y más de esos seis dedos es una imagen de un político, diferente una cosa, lo que sea, pues que ese tipo de de problemas intentar evitarlos en la medida de lo posible. Sobra decir que esto, como en muchas herramientas de inteligencia artificial de los últimos meses, viene todo con metadatos, firmado que es una imagen creada digitalmente y demás. Este caso no hay mucho problema porque es evidente que son imágenes que tampoco intentan pasar por reales, pero viene ya todo, digamos, firmado, ¿no?

No creas porque, por ejemplo, en la aplicación de fotos sí que puedes utilizar upper intelligence para editar una fotografía

Y también te lo marcarías. Y ahí te lo

marca en metadatos, porque ahí sí que ya es, ahí sí que utilizando Se

ha eliminado de

una persona, exacto, tal, sí.

Y eso ya va a metadatos, entonces, eso está guay.

Sí, sí, sí, no, eso eso está bastante controlado. Una cosa que me ha sorprendido bastante es que las tareas que yo pensaba que iba a necesitar un servidor no lo necesitan y las tareas que yo pensaba que lo necesitaban, sí lo necesitan, es decir, mucha manipulación de texto cuando es mucho texto y demás, iba a necesitan. Es decir, mucha manipulación de texto cuando es mucho texto y demás, iba a recurrir a servidor, a al al nube privada y y, sin embargo, la generación de imágenes casi siempre ocurre siempre en dispositivos. Vamos a hablar de los servidores y de la nube privada que llama Apple porque creo que es tal vez lo lo más interesante, ¿no? Es decir, han lanzado, todo el mundo sabía que la inteligencia del dispositivo tarde o temprano se va a quedar, por mucho potentes que sean los procesadores, que Apple los tiene muy potentes, tarde o temprano se queda algo corto, entonces tienes recurrir el servidor, pero Apple siempre ha sido muy antieso porque es los riesgos de seguridad que conlleva.

Entonces, han creado esta nube privada que, en principio, es la forma más segura posible de implementar este tipo de de de aplicaciones.

Sí, bueno Sí,

sí, de pronto.

Aquí aquí yo creo que además la implementación, Apple en esto quiere mantener la privacidad, yo creo que es una algo muy propio de la marca y que tienen que seguir manteniendo en algo como esto. Son conscientes de que la gente está preocupada por el tema de la privacidad, todo lo que ha pasado con Meta y el uso de las imágenes para entrenar su propia IA, y lo que hace Apple aquí es, cuando se envía una información a a la nube privada, lo que envías realmente no estás enviando el contenido, estás enviando una serie de datos anonimizados y totalmente que no se pueden consultar ni siquiera por la propia marca, para que te devuelva una respuesta matemática que luego conecta los adapters cuando llegan al al al dispositivo para mostrar un resultado. Es decir, es como partes de una ecuación que no tienes la ecuación completa, pero te le pides que te resuelva ciertos cálculos para tú devolver y crear el contenido. Eso lo bueno que tiene es que también se va a entrenar, es decir, va a seguir entrenándose. Cuando tú pides algo en la nube privada, está alimentando y entrenando a los modelos de lenguaje amplios que hay en la nube, y eso hace un feedback que luego va a destilar en la actualización de los modelos de lenguaje que tiene el iPhone en el dispositivo, que además lo hemos preguntado y han dicho que van a, quieren ser cautos con el tema del tamaño, ¿no?

No van a ampliar mucho el tamaño del sistema operativo por tener los modelos de lenguaje instalados en local para poder procesar ciertas operaciones, y y y que esa ampliación, esas mejoras en los datos del modelo lenguaje en en local también se harán con actualizaciones de software, como como pasan habitualmente con un sistema operativo, con lo que la nube es más, digamos, el coche de apoyo que se encarga, es es el el hierro fuerte, ¿no? El cuando tienes que hacer un cálculo potente, lo envías ahí, te lo devuelve, y no solo es la devolución, lo interesante es que todo ese cálculo ha aprendido de él para que seguramente cuando lo vuelva a pedir, o o es el mismo usuario o otra persona porque están anonimizados, ya sepa cómo responder y vaya aprendiendo de eso y siendo siempre más sencillo. Yo creo, y aquí yo creo que hago, puedo hacer la predicción, que las próximas versiones de Apple Intelligence, esto es Apple Intelligence uno punto cero, yo creo que es casi un sistema operativo nuevo, es una es una barbaridad lo que estamos viviendo. En las próximas versiones todo lo que se está calculando en la nube llegará a el dispositivo local.

Cada vez, lo local cada vez será más potente, ¿no? Pero al final yo creo que aquí el peligro está en en en que es una tentación demasiado grande el tener la potencia de un servidor, ¿no? Entonces, al final es es como pero podemos avanzar más si pasamos cosas al servidor, ¿no? Cuando tienes la herramienta, te parece que puedes y entonces es requiere una una una disciplina muy grande por parte de Apple en futuras versiones, es decir, oye, no, vamos a intentar mantenerlo siempre todo lo posible en dispositivo porque cuanto más dependemos del servidor, aunque hemos creado una solución súper segura, estamos también obligando a que conexión a Internet, a muchísimas cosas que a lo mejor no pasan en el día a día o a que las no sean tan personales los resultados o demás, ¿no? Entonces, yo creo que ahí es donde está el el peligro y y donde Apple tiene que aplicar un poco de disciplina a partir de ahora, pero pero yo creo que la forma en la que está implementada, que ya no es solamente que tus datos sean analizados y solamente se envíen los imprescindibles para hacer y demás, es que también la forma en la que se envía es completamente cifrada a servidores con con IP anónimas, con lo cual es el tráfico tampoco es que se puede interceptar en en de camino al servidor y de vuelta, ¿no?

Hay una cosa muy interesante que dijeron en la en la presentación y es que estos datos, este, todo lo que se almacena, bueno, no se almacenan de los datos, pero No almacena nada, permanece, no almacena nada, evidentemente. Pero todo lo que está utilizando la nube privada está a disposición de auditores externos para que revisen la seguridad y vean que la privacidad es la que Apple dice que es.

Sí.

Cosa que está muy bien, como lo hayan dicho, desde esta versión uno punto cero de Apple Intelligence, porque dice mucho de la transparencia de la marca para que para que todo esto, pues, al final sea sea

Sí, lo que decía antes, para Apple eso es un cambio importante porque su su su provecho hasta ahora es la forma en la que comunicaba su su forma de ver la privacidad era nuestros dispositivos son incluyentes potentes, todo puede pasar ahí y de ahí no sale absolutamente nada, ¿no? Entonces, este cambio que de repente tiene que salir algo, era algo complicado de manejar y por eso digamos que han puesto tanto énfasis en en la seguridad y todos los expertos de seguridad que he visto, han comentado sobre eso, han dicho que si tienes que diseñar un sistema seguro y tienes recursos ilimitados o casi ilimitados como el caso de Apple, esta es la la mejor forma de hacerlo hoy en día que conocemos, entonces, la forma más segura de hacerlo. Que no se que no oyen un fallo y no vaya a explotarse de alguna forma, no sabemos, a lo mejor hay alguna forma alguien descubre cómo explotar el servicio, hay un problema de de datos, pero en principio tal y como se ha implementado sería el ideal que un especialista en seguridad pensaría, oye, tienes que hacer diseña este sistema de forma que sea seguro, tienes todo el tiempo y el dinero del mundo sería esto.

Que que incluso el la propia creación de los de la nube privada, a me encantaría que dieran más detalles de cómo lo han construido, porque es también bastante revolucionario, es decir, tienen servidores creados específicamente para estos basados en tecnología Apple Silicon, que es eficiente, da muy buen rendimiento y además está alimentada por energía cien por cien renovable, que también es estrategia de la marca.

Sí, y es que ese es un problema continuo en tema de IEA, ¿no? Que está todo, primero, todo el mundo depende de los de los chips de Nvidia hasta ahora, con lo cual hay un problema de de de supply, de de disponibilidad, porque Nvidia tampoco puede fabricar todos los que hay, las H cien

Por eso la ha cogido transacciones,

por eso están las acciones como están de Nvidia, pero pero digamos que conseguir esas tarjetas que son necesarias para crear estos servidores de servicios como ChatGPT y demás, pues están en en son limitados y y hay un problema de demanda. Apple se ha saltado todo eso porque puede usar sus propios procesadores, imagino que son M dos o M dos Pro o lo que sea, un M dos Max o lo que sea, y y entonces tiene su propio hardware y lo que tú dices, tiene ya una infraestructura de de inteligencia artificial, es decir, una infraestructura de de energía renovable que puede utilizar para, digamos, evitar una de las partes más feas de todo esto, que es que para que echar el jeepity te haga un chiste tiene que beberse treinta y cincuenta y cinco mil toneladas de agua de o quemar no sé cuántos árboles o lanzar no sé cuántas toneladas de CO dos para resumir tu texto, ¿no? Eso es un poco la forma de de evitarlo.

Sí, yo creo que que el cambio además, esperamos un sistema operativo completamente diferente, esto va a evolucionar mucho, pero yo lo veo como un sistema operativo basado en una interfaz de voz, porque además es súper rápido, no sé si

A mí

me hace de lo que más me ha llamado la atención, La rapidez con la que Siri respondía las cosas eso.

A mí

me ha puesto la piel de

total de

mucha ficción.

Cuando cuando estábamos en la demo pregunté si el si el dispositivo con el que nos lo estaban haciendo las demos era era estaba entrenado, y me dijeron no, o sea, esto es esto está esto está en live, o sea, lo lo estamos haciendo en live y me pareció me pareció alucinante, o sea, es más rápido que la CD que teníamos acostumbrados antes, lo cual, bueno, pues, nos agradecer, pero es que por fin sí que veo que vas a poder utilizar un teléfono, un dispositivo, un teléfono sin tener que meterte en aplicaciones, que vas a poder prescindir incluso de de de consultar dentro de una aplicación, que vas a poder preguntarle a Siri por cuándo llega mi madre en el aeropuerto, llega a tal hora, cuál era el plan que tengo de para hacer después, pues habías quedado para hacer esto. Y basándose en los mensajes que ha ido leyendo en la conversación

de message Ese ejemplo es muy bueno, sí.

Y en el email de confirmación del vuelo de tu madre, o sea, me parece una pasada cómo combina las cosas y dice esta es la respuesta. No hace falta que te metas en en la parte de de mensajes, no hace falta que te metas en la parte de buscar cuál es el correo electrónico que te ha enviado tu madre, no, te lo da todo en un resultado. ¿Te parece brutal?

Sí, sí, sí, eso, y es de hemos hablado de Right Intools, hemos hablado de la creación de imágenes y Siri, digamos, es la tercera pata de Apple Intelligence, y, como comentabas tú también al principio, ¿no? Cómo cómo es la que, digamos, la la estrella del nuevo servicio, a pesar de que yo creo que lo que me ha fallado es que me hubiera puesto ver una una voz nueva de Siri, es verdad hecha con inteligencia

Pasa que cuidado con las voces,

Bueno, pero precisamente viniendo de de Versaut GPT, las voces que tiene que son fantásticas, sí, sí, la más allá del escándalo de Scarlett Johansson y demás, pero son son voces muy realistas Porque

no son perfectas. Tienen un poquito ronquera, tienen algo, tienen

un tono. Sí, exacto, suenan muy humanas. Siri sigue sonando como Siri, no no ha cambiado, no sé si a lo mejor ha cambiado y no nos hemos dado cuenta, muy, suena muy parecido, yo esperaba que cambiaran también eso y sigue igual, pero pero desde luego es es interesante ver el el el nivel de integración que puede tener, sobre todo en en ese ejemplo concreto para mí es el que mejor lo vende, ¿no? Si yo le digo cuándo viene mi madre al aeropuerto, que sepa exactamente, oye, tengo que voy mirar los mensajes que ha mandado, voy a mirar los correos. Esto llega un poquito más tarde también, por lo visto, o sea, no está justo en el de salida, yo creo que lo de salida va a ser lo de las imágenes y el texto, pero Siri va a ser cada vez más inteligente, y se cargan muchas muchas startups de inteligencia artificial, que es un poco la, y sobre todo muchos dispositivos como el Humeat.

El Rabbit.

El Rabbit, por eso querían sacarlos tan pronto.

Sí, sí, sí.

Ahora tenéis aquí la la esto.

Sí, sí.

A mí una cosa que me ha encantado de de de de la demo que nos han hecho y es que cuando la la la cheque que nos ha hecho la demo ha hecho un ejemplo preguntándole a a la Siri con con con Apple Intelligence, vale, quiero que me prepares una, que envíes un mensaje, me prepares una una alarma a tal hora con tal. No, no, no, espera, espera, espera, a tal hora no, mejor a las seis que y Siri ha entendido que la primera orden que le ha dado no era la válida, es la segunda, lo ha puesto y luego la chica ha dicho vale y ahora envíale un mensaje y dile que es a esa ahora, ¿no? Como que el contexto.

Sí, puede entender el contexto y eso es es la clave para que parezca más inteligente de lo que era hasta ahora, ¿no?

Y la comunicación natural,

Una comunicación más natural y y tiene y y tiene acceso a a información que tú te has olvidado que

existe. Exacto, exacto, eso es.

Porque otro ejemplo muy muy bueno es qué música me han recomendado, qué series de televisión me han me han recomendado ver últimamente, y puede acceder a todos tus mensajes, todos tus correos electrónicos y decir, mira, entre todos tus amigos y familiares esto es lo que te han dicho en los últimos meses, que merece la pena ver. Eso es impresionante, porque tú te has olvidado ya de que existen esos mensajes y están ahí, ¿no? Entonces, vamos a ver muchos ejemplos de de de una serie que es va a ser mucho más, esto tocamos en madera, ¿no? Mucho más inteligente de lo que era hasta ahora y que va a dar el tipo de respuestas que esperábamos decir antes, pero que por el tipo de inteligencia artificial que era o el tipo de asistente virtual que era, pues no tenía acceso a eso. Y yo creo que es es la forma de la forma de de implementarlo está bien también, porque mucha gente ha venido en los últimos meses, de todo cuando salían los rumores de los acuerdos con ChatGPT, con Gemini y con todos estos modelos, es como es que yo es que lo que yo quiero es es es que Siri sea como ChatGPT, y sí, tú quieres que Siri sea como ChatGPT para algunas cosas pero no para otras, tú cuando le pides a a Siri que ponga una lana a las siete de la mañana, no quieres que te responda con una alucinación y te la Oh, claro, claro.

Sí, exacto. Es decir, tiene que hacer cosas muy precisas dentro del sistema operativo que los modelos largos del lenguaje generales no están preparados para hacer. Entonces, cómo integras eso es complicado, ¿no? O sea, estas son muy comunes, que es muy divertido, es preguntarle qué hora es a un modelo de de de inteligencia artificial abierto, porque no sabes responder, ¿no? Yo estoy usando ahora mucho las gafas de de RightBan Metal, esas sí te lo dicen, pero, por ejemplo, con el Rabbit R uno, ¿no?

Preguntarle, bueno, ¿qué hora es ahora? Creo que estamos en marzo, bueno, muy bien, pero eso no es una no una respuesta, es decir, es una respuesta que suena humana, pero no es una respuesta a una pregunta que, de hecho, que necesita un dato específico, y para eso los modelos de lenguaje largos de de aplicación general son muy malos, ¿no? Entonces es ese equilibrio de cómo haces que Siri tenga la sensación de de ser un asistente personal que como el que te esperas cuando ves ChatGPT y el como que te imaginas al ver películas como Iron Man y todas esas cosas, es muy es muy difícil de hacer y yo creo que es es en donde donde Apple tiene que jugar un poco a hacer el balance.

Sobre todo también por la porque los ingredientes para para para esta Apple Intelligence son además las aplicaciones que tiene la app, es decir, puede una variante de tus aplicaciones, puede combinarlas. Hay una cosa que me ha gustado mucho de la demo y es que cuando han pedido, cuando le pedimos a a Siri que haga algo, que diga algo directamente trabaja bajo el capó. El usuario no tiene que estar aceptando botones de voy a entrar en esta app, da confirm, no. Siri hace, oye, pues vale, pues me meto en esta aplicación, te reduzco aquí la luz, en esta otra te pongo un texto debajo, que es lo que tú me has pedido, pum, el resultado.

Sí, esto va a venir con esto requiere App Intense,

App Intense,

es una frase que en las aplicaciones puedes especificar, si tiene puede pedir estas cosas. Esto venía muy bien para shortcuts y ahora se va a poder integrar dentro de la inteligencia artificial. Sí. Vamos a ver, porque todo esto, ya digo, no viene justo al principio, va a ser algo que vamos a ir viendo poco a poco, evolucionar, pero pero la promesa la promesa está muy bien. Se nos acaba un poco el tiempo, solo quiero deciros muchísimas gracias por por haber venido a Sabinarios y hablar de esto, estamos en un lugar privilegiado.

Por terminar rápido en una frase que os apareció a viva y sí, os recuerdo, esto es la segunda parte y date a a charlas de espera esfera que hablamos de sistemas operativos, pero en general, ¿qué qué os ha parecido a BiobBC?

Yo le llamaría, calificaría con la palabra nacimiento, nunca mejor dicho, ¿no? Ha nacido algo y yo creo que vamos a verlo crecer.

Pues fíjate, a mí me dejó inicialmente un poco fría la presentación, pero a medida que he ido conociendo un poco más, luego de forma más más pormenorizada, todas las cosas me me he ido animando, ha sido como, espera, espera, que esto que han presentado es más grande de lo que realmente parece. Creo que fue una presentación demasiado grande inicialmente y que cuando te lo van diseccionando por partes es cuando entiendes la gravedad del asunto. Y sí que entiendes que, por ejemplo, Apple Intelligence es el principio de algo muy que puede ser muy grande.

Sí,

sí, yo diría eso es es completamente de acuerdo, es es algo muy complejo de contar, era un era un reto muy grande, había poco tiempo, había muchas cosas que decir, gracias a dios no había hardware, está todavía sí, porque entonces

no cabrese

de dónde saca el tiempo y y entonces era era lo que hacía, pero evidentemente es algo que que vamos a tener que seguir hablando mucho de esto para para entender bien cómo funciona y y y ver realmente todo lo que llega. Ya no solamente en Apple Intelligence, en los sistemas operativos también nos hemos encontrado después de acabar la presentación que había muchísimas cosas que ni siquiera sabíamos. Pues, nada, muchísimas gracias por venir a Binarios. Un placerle. Gracias.

Oyentes, ya sabéis que nos escuchamos otra semana. Chao.

Episodios recientes