Junto a Javier Lacort (@jlacort) comentamos los anuncios de OpenAI, GoogleIO y algunas de las claves de la futura WWDC.
Transcripción
Wanda presenta Binarios, con Ángel Jiménez de Luis.
Bienvenidos a un nuevo episodio de Bilarios. Antes de empezar, tengo que pedir disculpas. Llevo sin grabar desde que grabé con José Sáez Merino por el tema de las Vision Pro en febrero, y y la verdad es que estaba mirando los episodios de esta temporada y llevo solamente nueve episodios en lo que viene a ser casi, en en una temporada normal hubiera tenido diecinueve o veinte episodios, ¿no? Han pasado muchas cosas, de hecho, acabo de salir de un catarro, el tercer catarro encadenado que llevo, esto de tener una hija de dos coma cinco años hace que estés enfermo la mayor parte del tiempo y, de hecho, disculpa exitoso durante el podcast de hoy, voy a intentar poner el botón de de toser muy cerca, pero bueno, por si acaso puede pasar. Pero bueno, son estas cosas que pasan y han impedido que pueda grabar con la regularidad que me hubiera gustado este año.
Me he dejado un montón de cosas que me hubiera gustado comentando en estos últimos meses, pero pero esta semana han pasado bastantes cosas y y quería hablar de algunas de ellas y quería hacerlo con Javier Lacor. Javier, ¿qué tal? ¿Cómo estás?
Hola, Ángel, ¿cómo estás?
Bueno, pues ya ya ya me has oído.
Sí, ya ya ya ya sé que perjudicado, pero bueno, espero que se pase pronto.
Ese es perjudicado de salud, el ser padre quita mucho tiempo. Claro, cuando tu hija es pequeña, pues más o menos es fácil coordinar las cosas y los tiempos, pero cuando empieza a tener esta edad ya dos años y pico, juega más, es más ruidosa, se mueve más. Grabar un podcast es es un ejercicio de de de sincronización como lo habíamos hecho nunca en mi vida, o sea, es una cosa increíble, pero bueno, vamos a ver que si nos sale bien esta vez. Pues decía que han pasado muchas cosas esta semana y quería que hablar contigo de de algunas de ellas, porque ha sido una semana que hemos tenido chat GPT, hemos tenido Google Io, mucha gente de Open ahí hablando de todas las estas cosas que llegan ahora en el chat GPT, el Google Io, los lanzamientos de los iPad Pro, muchísimas cosas y aparte tú has habías comentado en x y en x, sobre todo, ¿no? Tres no te he visto.
No, tres no, no lo uso nada, tengo ahí la cuenta, pero ni luego ni ni leo ni tuiteo, o sea, ni
Pues, estaba yo de vuelta. Yo
yo me pasé a hacer eso eso muchas veces con X, pero me pasé en Twitter, me pasase mucho tiempo y cada vez lo veo mejor y cada vez más completo y cada vez más más interesante. Pero bueno, lo entiendo perfectamente, entonces sigue siendo muchísimo más x, sigue marcando muchísimo más la la conversación.
A ver, una una consulta, ya ya que me hablas de tres, para que veas cuál es mi nivel de implicación con threads desde el ordenador, ¿ya puedo usarlo de alguna forma?
Sí, sí, sí, sí, pues
ya abrieron, ¿no? Vale, vale.
Sí, o sea, no es, de hecho, esta semana han abierto lo que sería el
clon de Tweet Deck para para FedEx. Anda, pues ni enterarme, o sea, no no estoy perdidísimo con esta red, tengo ahí el este y no ni veo ni nada, pero
ya puedes poner columnas con varias varios cestos, está bastante bien. Y tiene muchas cosas que ahora mismo x cobra por ellas, y y en general tiene el espíritu, yo diría, de Twitter de dos mil doce, dos mil trece, por ahí más o menos ahora mismo. Venga, pues uno tiene todo lo que lo que llegó a ser Twitter, pero pero a mí me da más gustito usarla ahora que quise estar.
Igual estos días, algún bugcillo, lo que sea, de hecho, pues sí, un viento severo y a ver si lo íntegro. La verdad es que me da un una pereza terrible, como más redes, más cosa, yo todo esto, yo todo esto ya casi que por compromiso y por informarme, pero bueno, si tiene tu sí de recomendación le daré
No, a ver, o sea, que nadie se espere, que nadie se espere lo que es x, porque el problema que tienes que todavía no hay un volumen de contenido muy grande. Tienes que seguir a muchísimas cuentas para que tengas el chute de dopamina que te da x cuando abres la aplicación, no? Que te den muchísimas cosas y siempre cosas que te interesan y ahora, porque ya es, digamos, has curado a tus seguidores y has ayudado tus todos tus seguidores, bueno, tus seguidos, y y entonces siempre tienes algo interesante y divertido, te refieres o lo que sea. En Threat todavía eso no pasa, todavía a una velocidad mucho más lenta, pero pero poco a poco está cogiendo esa masa crítica que necesita para que eso pase, con lo cual yo creo que lo veremos, o sea, o sea, o sea, aunque ocurrirá. Venga.
Bueno, yo te decía todo esto que decía porque te habías comentado en x que que que veías el tema de unas gafas con chat GPT, no sé qué, no sé cuántos de Apple y también había comentado también que el me hubiera gustado, me me gustaría ver de Apple unas gafas de este estilo, porque está volando las de meta Raymond, y y yo creo que aquí hay algo ahora, o sea, hay hay una categoría de producto que creo que empiezas a tener solidez suficiente como para que sea un mercado curioso. ¿No? Gastrana bien. Pero bueno, vamos a vamos a por partes. No sé si
de chat GPT te ha sorprendido algo esta semana, te ha gustado el anuncio, que se está se está probando algo. Claro, se, pues, ChatGPT, lo que más ganas me dejó después de la presentación en Matshall GPT cuatro o haré la aplicación para Mac, pero no he tenido forma de probarla porque me la descargué muy temprano, pero cuando quise hacer el truco este famoso del proxy de bloquear a petición, se ve que ya la habían capado, me daba un error doscientos cuatro, luego encontré que eso era seguramente que la propia Penny había tocado algo para evitar que la gente cogiera ese tajo. Matías Xavi, acompañado mío en Satakai y exitoso podcaster en Honda, veo que lo tiene por enchufe, lo digo, efectivamente, le envidio por haber podido conseguir el acceso. Y veo y tengo las esas especie de sensación de todo el mundo tiene menos yo.
No, no todo el mundo, el otro lado yo me culpa porque porque el enchufe, o sea, yo conseguí enchufe y y intercedí por Matías también. Vaya, por dios, o sea,
el comentario inocente ha sacado al infractor. Bueno, pues, sí, sí,
No quiero tampoco que que bar al al a la gente que me ha me ha dado acceso, pero pero está bien, o sea, que está evidentemente por por tu trayectoria profesional te interesa, ¿no? Y ser una persona que tiene un profesor de Apple y de tal, es es algo para para hablar, pero al mismo tiempo está todavía un poquito verde la aplicación, es lógico, acaban de lanzarla, están iterando y demás, pero no es, hay hay una cosa que me llamó muchísimo la atención de de la presentación de chat de Open AI del de esta semana, que es esa demo en la que un niño recibe ayuda de un programa de timón de trigonometría a través de chat GPT en la pantalla del iPad, ¿no? Ajá. Y y digamos el la aplicación de chat GPT está viendo lo que está viendo el niño en la pantalla y puedes saber que ha tocado, bueno, el lápiz y demás, y va va indicándole que tiene que ir haciendo. Eso todavía en la aplicación de escritorio, por ejemplo, no está el el ChatGPT no ve tu escritorio en tiempo real, se le puede pasar una una captura de pantalla y cosas así, pero no es todavía ese nivel de integración que yo creo que sería lo ideal, ¿no?
Que realmente estuviera continuamente mirando qué está pasando en tu pantalla y te pudiera estar, digamos, asesorando y diciendo cosas. Entonces, nada más como la web, básicamente es una es un cliente de la web, el local, que tiene algunas ventajas por eso, pues, bueno, pues, ya te contaré todo, consiga el acceso que estoy todos los días intentando hacer el
truco, intentando roguearme a ver si llame tal. Y, además, un compañero Javier Pastor de SATACA consigue acceso para una cuenta genérica que tenemos dentro de SATACA, del equipo, digamos, que no está a nombre de nadie, pero a mí me me crashea, no no me sale, o sea, no no te voy a decir cómo decirlo, pero si me da error y si se desconecta la aplicación se se quita. Es que no, no me sale, disculpa, no sé qué pasa, Pero bueno, que no no hay forma y que si reiniciando o restaurando tal no hay forma, pues bueno, ya no llegará el momento. ¿Pero tú
sabes ChatGPT, tú sabes ChatGPT mucho?
Sí, a ver, no no sé si mucho, porque claro, chat GPT tiene un tema que es que seguramente la usamos más de lo que admitimos en público y y nos queremos todos guardar un poco nuestras cartas o ser cautelosos o el uso profesional sigue siendo bastante tabú. Entonces, no sé si la uso mucho o poco, porque no sé exactamente esto, no están en este tipo de entornos, digamos, no no no son público muy objetivo quizás todavía. Pero bueno, sí, lo uso, ya te digo, no sé si un montón, pero sí que lo uso todos los días.
Yo estoy un poco como tú. Yo creo que la gente, o sea, la gente que que aquí conozco que lo usa vienen del, pues, de la parte de marketing, sobre todo, o sea, de para hacer copy de marketing y cosas así, sí. Para gente de prensa, yo creo que todavía no está ahí. Yo cuando he intentado usarlo para algo, el copy que te da, los el, digamos, los textos que te da para mí son muy impersonales, no tienen gracia, no tienen todavía nada que los, imagino que lo puedes ir poco a poco entregando fotos tus tal y demás, pero pero no nunca me acaba de convencer el el output que te da, ¿no? Entonces, yo no encuentro utilidad en ese sentido, lo utilizo casi como Google, es decir, lo utilizo para resolver dudas y cada vez va siendo mejor para eso.
Entonces, aunque no tenga acceso a información de última hora o lo que sea, ahora ya con ahora ya con GP Plus sí, pues me resuelven muchas cosas que de otra forma, pues no tendría. También es verdad que me acaban de de activar el el Google, lo nuevo de Google, de resúmenes de de de I a de las búsquedas. Ajá. Y y también cumple un poco esa función, ahora te contaré si quieres, pero pero digamos que ese una forma de buscar bastante más lógica para como yo entiendo que debe ser las cosas, ¿no? Ahora tiene muchísimos derivadas en cuanto a tráfico y qué va a pasar con los medios y demás, pero entiendo por qué Google se ha metido ahí y entiendo que que HGPT en el escritorio tiene esa ventaja, es decir, ya lo tengo que tener abierto el Safari, no tengo que ir a la ventana de Safari para verlo, para usarlo, sino que lo tengo en en el escritorio.
El teléfono lo estoy intentando usar más como existente de voz, pero pero es limitado para eso, es decir, esto entramos siempre en lo que es, todo el mundo quiere que Siri sea esto, pero Siri es esto no te pone una cita en un calendario, esto no te pone un temporizador, esto no hace nada que sea determinado, es decir, hace respuestas largas amplias a lo que le preguntas, pero ya está, no no puede tomar decisiones concretas o activar cosas dentro de del sistema, ¿no? Entonces, yo creo que, y y y y
de
de que algo falle. Es decir, si tú le dices a Asiria, ponme una alarma a las siete de la mañana, no es dame un texto de cinco párrafos diciendo que
tú la
vas a poner y luego me la pones a las ocho y cuarto, es decir, te dejé ponerme a las siete de la mañana, ¿no? Y y yo creo que para eso los LM todavía tienen todavía algunas limitaciones. Entonces, entiendo que que que Google, por ejemplo, no lo haya hecho todavía en en Google Assistant, entiendo que Apple, a ver, voy a presentar ahora en Davio DC, pero pero que todavía, digamos, que es una tecnología que tiene sus usos, pero no son necesariamente todos, hay un solapamiento entre lo que hace Sir y lo que hace ChatGPT, pero no son cosas que se puedan sustituir una por la otra al cien por cien, eso es como yo lo veo ahora mismo, no sé si me estoy equivocando, alguien me dice no, no, es que esto si Apple quiere puede hacer.
Sí, a ver, yo lo lo veo como tú en el sentido de que obviamente ChatGPT sirve para unas cosas, si sirve para otras cosas, si la intersección de para lo que sirve los dos es reducida y ahí es donde ChatGPT vapulea Siri. Pero lo que tú dices, pero también es cierto que creo que una implementación no debería ser algo demasiado demasiado costoso. Por ejemplo, pienso en en Notion ahí, en Notion ahí, en Entely Healthy siete Notion, se anunció creo que un poquito antes, por lo menos, la el alfa. No sé si la alfa, la primera vez que dijeron esto es lo lo próximo y lo que estamos incorporando, eso llegó antes a SAPT, eso utilizaba las APIs de GPT, cuando todavía no era tan conocida, sobre todo fuera del sector tecnológico, GPT no era muy conocido. Y básicamente, yo por un primer momento pensaba que ese notion ahí y ese uso de la API de GPT, que era conocido en el entorno tecnológico, servía para esta generación de texto, revisión, correcciones, expansiones, resúmenes, etcétera.
Pero la gracia que vi enseguida es que Notion te permite hacer cualquier cosa como lo harías tú. Tú le puedes decir, Genaname, creo una tabla, una página, una base de datos de este formato con este tipo de información, todo lo que tú haces a mano y te cuesta un trabajo, con lenguaje natural te lo hace. ¿Por qué? Porque Notion ha integrado ese ese modelo, esa API de GPT de lenguaje natural para generar sus propias acciones. Yo creo que algo así, en iOS, en cualquier sitio operativo, no sería muy muy complicado, simplemente sería asociar esa API a ciertos procesos del sistema y que de esa forma, pues igual que con Siri, con lenguaje natural, puedes poner la alarma, pues crear una cita, pues que haya un interrogatorio, pues también podrías activar, desactivar cualquier ajuste del sistema y que la API sea lo suficientemente inteligente para saber a dónde tiene que Sí, imagino que se
puede, a ver, también es una evalúa de latencia, porque, a ver, a malas, tú puede el el LM puede dar un output el lenguaje natural que sí debería poder entender su estado actual, no? Es decir, si el LM dice pon una alarma a las siete de la mañana, no yo, sino el LM, Siri debe entender ese comando y hacerlo como lo hace hasta ahora, ¿no? Entonces, siempre hay formas, entiendo que hay formas de hacer esto y y demás, ¿no? Pero vamos a ver cómo cómo se soluciona, pero ya digo, tenemos a Google, el caso de Google, ¿no? De Google Assistant, todavía muy limitado en este sentido, a pesar de que Google esté esta semana y vamos ya con Google si quieres, pues, digamos, ha hecho un un esfuerzo muy grande de hablar de Gemini, de Gemini o de Gemini y de y de el proyecto Astra y demás, ¿no?
Entonces, todavía están ahí como, sí, tenemos toda esta tecnología, estamos empezando a usarla ya, pero mira, tu Nest, tu altavoz Nest de casa va a seguir haciendo lo que hacía hasta ahora.
Exacto. Básicamente y respondiendo como respondía hasta ahora. Entonces todavía le veo ahí como cierta limitación. Google Io bastante sosito, La rabia que me da Google es que tienen productazos que luego otra cuestión es un poco cómo estructuran sus marcas, ¿no? Y ahora lo que han hecho en el último año y medio con Barbie y con Gemini, sobre todo en ese último evento, donde todo es mucho más confuso que antes, creo que han ayuda.
En la inercia de Google a favorecer mucho la cultura de la experimentación y no incentivar la cultura de hacer crecer un producto que ya está presentado. Y lo que hemos visto con un cementerio enorme y cada vez más grande de productos que van cerrando, pues tampoco te hace confiar mucho en el futuro de ciertos lanzamientos, ¿no? Que es un poco la pena. Es, en ese sentido, son muy opuestos a Apple, para lo bueno y para lo malo. En de Apple me gustaría cierta mayor cultura de la experimentación, cierto atrevimiento a la hora de sacar más versiones de un producto, por ejemplo, lo que hacían en la época del iPhone, donde había muchísimas variantes, factores de forma, diseños, precios, etcétera.
Eso ahora, por ejemplo, me gustaría verlo más con los iPhone, quizás, e incluso más con los iPad, tal vez no hay hay líneas de productos que quizás hay cierto margen para dejar que vuelan un poco más, ¿no? Y no pasa nada si en dos o tres años tenemos que irnos para atrás, como ha pasado, por ejemplo, con los iPhone mini. Pero eso con Apple, pues no ocurre. A cambio, Apple te da una fiabilidad muy grande de que cuando presenta algo suele ser una apuesta de verdad fuerte, importante, y va a ser lo que se va, ¿no? Y si y si cierran, es que algo muy malo, muy por debajo de ese operativo de Apple, tiene que ocurrir.
Entonces, con Google tengo un poco esa dualidad, pero la rabia que me da es que la comunicación que hacen en ese tipo de eventos es, en mi opinión, floja. Sé que es muy difícil cuando eres un gigante como Google, pero yo vi productos muy potentes, tecnologías que son muy prometedoras, ¿no? Pero a la hora de comunicar me daba la sensación de que eran apuestas un poco, pues como tiramos a dar, ¿no? Empezamos a soltar un montón de disparos, una ráfaga enorme para que tú te quedes con algunos conceptos, pero abrumaba un poco, había cosas que no estaban todo bien explicadas. Además, lo comenté también en en Twitter, en x sé que eché de menos cierto mayor valor.
Veníamos de veinticuatro horas antes, estaba OpenAI presentándose OPT cuatro y me gustó un montón cómo lo hicieron. Obviamente era muy estudiado, no era espontáneo, no esta presentación casi en un salón de casa o algo así, con ese mobiliario, las plantas, ese lenguaje cercano, todas las personas sentadas, muy juntitas comentando las novedades. No tenían miedo a sacar ingenieros, ¿no? Y no solamente jefazos, y encima hacía las demos en tiempo real, hacía las demos en directo y no tenían al fallo, sabiendo que además ese tipo de productos, el riesgo de fallos seguramente es mucho más alto que si estás probando una consola o videojuego o algo así, ¿no? Está todo más controlado y más en un sandbox.
Y de hecho falló en la presentación de SPD cuatro, cuando de repente la voz esta empieza a decir, no hay que era vacío o no sé qué, no me acuerdo qué fue, pero como que se estaba riendo de un chiste antes de que lo contara, algo así equivalente, ¿no? Y el otro, pues con toda la naturaleza del mundo le decía, no tan prisa, que ahora te lo he dicho. Ay, sí, perdona, es que estoy tan emocionada, algo así. Y eso, pues, al final es un error, sí, pero naturaliza también, ¿no? Cambio, en el caso de Google parece que tenían pavor a sacar esto en directo por si había alguna alucinación, por si había algún fallo.
Obviamente, Google tiene mucho más que perder que operar ahí. Es una empresa cotizada, es una empresa mucho más grande, con mucho más recorrido, ¿no? Muchos más empleados. Pero la comparación al final está ahí, ¿no? Y para mí esa diferencia de solo veinticuatro horas entre una presentación y otra me marcó mucho por esa diferencia a la hora de presentar.
Como decía, viene la forma de comunicar de Google, ahora viflosea y es una pena porque tienen productazos y proyectadas, es lo que más me voy a subir sin duda, pero creo que se perdía un poco entre tanta cosa el numerito, está con el DJ, no ayudaba mucho, ¿no? Siempre tienes un número de de DJ muy raro al
principio de música electrónica, No es la primera vez que lo hacen, todos Google AI empiezan con este tipo de de DJs de música electrónica raros haciendo cosas desconocidas, pero pero, bueno, en este caso creo que además de alguien conocido, yo no la verdad es que no había oído nunca hablar de él, ¿no? Pero, bueno, entre mucha gente empieza a quejarse que no, que es realmente es un DJ bastante conocido, que es así excéntrico, pero ya Pero pero sí, es es, queda un poco extraño, o sea, yo yo no digo eso, porque eso yo digo, yo lo he visto en otro Google Io, es es más que creo que este Google Io ha sido extremadamente aburrido. Extremadamente poco pensado, poco interesante para el para la audiencia, para la por lo menos para medios de comunicación. El lo que decías antes, Google es la única empresa que te puede, venir de bar, de todo este caos que tenía de nombres y productos en torno a inteligencia artificial, decide hacer una simplificación y le sale algo todavía más confuso. Es decir, Gemini y de repente empieza a sacar uno de los Gemini por arriba y por abajo, el Pro, el no sé cuántos, el no sé qué, ahora el el Flash, el y esto, pero bueno, o sea, que que que Chartbeat GPT también tiene distintas tiers y distintos modelos, pero no sé, la sensación que tengo es que dentro de Google hay una hay una ineficiencia muy grande que no sé dónde sale, debe haber mucho manager intermedio, debe haber mucho, no sé, mucho competencia de Internet de diferentes divisiones, pero está destrozando la compañía, está destrozando la compañía a una velocidad que yo no esperaba que pudiera pasar a un gigante como como Uber.
Es decir, la tecnología la tecnología detrás de ChatGPT y de todos estos modelos de lenguaje, digamos, y y estar tan así, tan atrás, como con las darlas, entrando en la sensación de que estás a un año de distancia, básicamente. Sí. No sé, no sé si
se lo leí, yo lo veo fue Antonio Sabán. Dijo, lo paradójico es que la t de ChatGPT la inventó Google, es de Google, no sé si tú dices ahora.
Sí, sí, es es es absurdo completamente, ¿cómo puedes tener este nivel de ingenieros tan bueno que ha creado esta tecnología y no haberles salido a sacar partido? Y no, ni siquiera al principio que dice, bueno, pues tenían más cuidado, eran, pero cuando ya ves que hay un mercado, cuando ya ves que hay atención, porque a lo mejor ni siquiera hay un mercado, estos productos hacen muy buena demo, como hubiera dicho Steve Jobs, ¿no? Son muy buena demo, pero luego, lo que decíamos antes, cuánta gente los está usando, hasta qué punto es una economía rentable, hasta qué punto es un producto que que Microsoft le puede sacar rendimiento, que o sea, que OpenAI le está sacando rendimiento. Por ahora son pozos de dinero, básicamente, donde las inversores ponen ahí el dinero y y todos estamos usando ChatGPT por las risas y los loles, pero pero todavía no hay un negocio serio de temas que diga sí, esto va es aquí y se puede sacar mucho dinero de ese tipo de cosas. Todos vemos que puede haber una opción, pero todavía estamos muy pronto en el en el punto del mercado, ¿no?
Pero aún así, si tú eres la empresa que que lleva esto desde el principio y ves
que está teniendo atención de los medios, está teniendo atención de del público, deberías de plantearte ser más rápido en hacer las cosas, ¿no? No sé. Sí, ahí, eso es algo una conversación de hace unos meses, no no viene mucho a cuento ahora, pero creo que sigue más o menos vigente. Es que OpenAI ha demostrado que muchos de los grandes principios del marketing, del branding y de las prioridades ahora de lanzar un producto, te las ha destrozado si y el producto es lo suficientemente bueno. O sea, ChatGPT, como nombre, es regulero.
No accedes a ChatGPT mediante ChatGPT punto com, sino que tienes que irte al a un subdominio. Con mi yumi y ya ni hablemos sobre Discord, con esa interfaz terrible, con esas carencias, pero cuando al final los resultados y el producto son tan buenos, pues lo otro importa menos, no? Y con OpenAir lo hemos visto, con tantos lanzamientos a mitad, con tantas alucinaciones, con, ahora ya no tanto, pero en su momento con un montón de veces en las que entrabas y te decía eso está saturado, inténtalo más tarde antes de que lanzaran el plan de pago, ¿no? Y no había alternativa, tenía que esperar y tenía que esperar. Y aún así ha generado todo el interés, toda la conversación, todo el uso, cada vez más gente integrándolo en sus rutinas, algo que es cierto seguramente lo que dices de que todavía estamos un poco a mitad a cocer ahí, no, y realmente no es todavía algo tan estándar como el correo electrónico, como el calendario, ¿no?
Que son ya parte de la rutina de cualquier profesional que se siente frente al ordenador, pero y eso, pero que es inevitable que llegue. Mucha gente, para mucha gente ya lo es, y en el futuro más aún, ¿no? Cuando se establezcan mejor los procesos, cuando los modelos evolucionen, así lo veo yo.
Sí, a ver, yo yo creo que sobre todo lo que es es un cambio de de paradigma interacción con el ordenador. En lo que estamos quedando es es las herramientas que te van a decir es que a partir de ahora así es como queremos interactuar para las máquinas, ¿no? Hablando con ellas. Y y hasta ahora parecía imposible que tenías cosas como Siri, tenías cosas como Google Assistant y como Alexa, y y bueno, tenían sus limitaciones, pero bueno, de entendías, digamos, eran como dominios muy claros dentro de lo que podías hacer con ellos y esto, sin embargo, abre la puerta, no, no, es una conversación general que tienes y y puedes hacer lo que antes hacías con un teclado y un ratón, ¿no? Es decir, ese es el gran cambio de paradigma que traen todas estas tecnologías, y yo creo que que todos lo vemos, por eso digo que aunque todavía no hay un negocio nadie duda de que lo pueda haber porque al final es como no, no, es que está claro que el futuro tiene que venir por aquí porque todo el mundo lo ve muy clarísimo, ¿no?
O sea, todo el mundo a nivel intuitivo ya sabemos que que esto es algo que hemos perseguido durante mucho tiempo y por fin tenemos muy cerca, ¿no? La más allá de la película Hery, no sé qué, no sé cuánto, ¿no? Pero pero la la sensación es esa, que sabíamos que es algo que veíamos como en el futuro veíamos que era ciencia ficción y de repente en un año y medio hemos visto que no es ciencia ficción, es ciencia y se puede hacer ya, eso es un poco la la sensación. Pero pero ya digo, Google es que incluso el el hecho de que hayan relegado Android al segundo día de la conferencia
me parece horroroso, o sea, me parece una cosa de, dios santo, cómo ha cambiado el mundo, o sea, en un año y medio. Sí, es que, sea, tú imagínate que Apple dentro de dos, tres semanas en la conferencia de desarrolladores, la keynote, la conferencia inaugural, va únicamente de nuestro LLM o de la implementación que hemos hecho con OpenAI o lo que sea, o de todos los modelos que han presentado en las últimas semanas, y no dicen ni tío de las novedades de Android. Te lo enseña el martes en una conferencia interna, casi sin prensa. Entonces, sería increíble. Pues es que mira,
tal y como están las cosas, a lo mejor diría que que que que me lo me lo creo, o sea, puede pasar, pero bueno, yo creo que no, que esa Apple si hace algo suele ser enhebrar estas cosas muy bien, es decir, lo que hoy día sería meter todo lo lo que llega con los LM dentro de iOS, dentro de Mac, dentro del, digamos, de la como un tema un tema que va a intentar en todas las plataformas, ¿no? Como el hilo conductor de la conferencia, pero tocando todas las plataformas. Sí, es
más tangencial, ¿no? Menos explícito, menos, esa es la IA, y y ya te contaremos cómo se traduce eso más adelante. Sí, bueno, a ver, o sea,
en el caso también, lo de Apple también es un caso especial porque al final Apple lo que le ha pillado un poco de pie cambiado es primero que tiene los los tiempos ya, pero son muy marcados, es decir, una conferencia a los desarrolladores y ahí es donde se presenta todo, no hace un evento a mitad del año para contarte una cosa de estas, para lanzar un un city, y y luego que que todo lo que todo que habían hecho en inteligencia artificial siempre les ponía el apellido de ML y ahora se dan cuenta de que que eso no vende como IA, ¿no? Entonces, tienen que cambiarlo un poco a las marchas forzadas rápidamente esta Team Cook diciendo I a cada vez que puede ahora, ¿no? Pero pero bueno, no sé, quiero hablar de Project Astra y demás, pero pero antes casi te te quería preguntar ya que te tengo aquí, que cómo ves la Davia D.C. ¿Qué qué esperas de ella?
Pues, sobre qué espero de ella, lo que espera todo el mundo que es ver cuál es la incursión final y exacta de Apple en la línea generativa. A estas alturas de la película, gracias a todo lo que ha de filtrado, sobre todo Goodman, ya se supone que está el pescado bastante vendido, que es un modelo local para tareas muy básicas para no, para que al usuario no le suponga dependencia de Internet y para que Apple no le suponga un coste de ancho de banda por la cara, si se lo puede evitar. Y luego servidores propios para ciertos tipos de procesos y luego para la ya alternativa en sí, ese acuerdo parece que al final con OpenAI. Te rumore también lo de Google, celebro que sea con OpenAI, la verdad me parece, o sea, más prometedor que si fuera para Google y no me parece mal, lo digo porque ha habido también como cierto pesimismo o según con qué casas lo emites, ¿no? Lo puedes ver como un poco de desilusión o incluso una especie de rendición y prueba de la de Apple para todas esas cosas, ¿no?
Según el bando en el que esté, digamos. Yo no lo veo una mala noticia necesariamente. Apple sabemos que le encanta lo más independiente posible y tener esta instalación vertical de software a hardware servicios, pero no es absoluta y, desde luego, prefiero que ofrezca algo cuando el mercado lo requiere ya de una forma tan clara como ahora con la liga generativa, nueve veinticuatro, que no nos tenga años esperando hasta que ellos tengan su propia propuesta. Hace un tiempo hice el símil con el cinco G, o sea, cuántos años llevamos esperando estos módems propios de Apple, gracias gracias a la compra que hicieron de Intel y tal y siguen sin llegar. Tú imagínate que, como todavía no han llegado, no tuviéramos a un cinco headmeit, porque ese Apple le apetece mucho tenerlo todo integrado y nada, eso nunca lo va
a hacer. A ver, y yo mejor que ese símil es el de es el de Apple Maps, o sea, de de los mapas, de los servicios de Google. Cuando hace a iPhone, Apple, iPhone, todo va a todos los servicios de Google. Luego llega el divorcio de Google y Apple, pero hasta entonces, digamos que no era su expertise y poco a poco lo que hace es crear todos estos servicios internos y ahora con muy buen rendimiento. Es decir, yo creo que en Europa todavía esta discusión no ha llegado, en Estados Unidos ya sí, ya todo el mundo está dando por hecho que que Apple Maps ha superado Google Maps.
Entonces, te das cuenta de que de que, bueno, es una fórmula de llegar al mercado como tal cualquiera, ¿no? Que no es que Apple esté dormida en esto, llevan, ya decía antes, llevan haciendo cosas de machine learning, llevan haciendo cosas de inteligencia desde hace mucho tiempo, ahora están siendo bastante más vocales con lo que están haciendo, antes hacía bastante secreto y ahora por lo menos están publicando papers y cosas así, pero que tiene gente muy buena haciendo cosas muy buenas, pero lo que, a lo mejor no lo que no tienen es algo que esté ahora mismo al nivel de chat de GPT cuatro o o de GPT cinco o lo que sea que quieran lanzar internamente o o lo pueden hacer, pero le supone un coste de servidores que no tienen ganas de meterse con ello, es decir, hay muchísimas derivadas dentro de de esas de esas cosas que tienen que tener en cuenta, ¿no? Entonces, eso lo veo lo veo lógico y lo que decías tú, al final es un es un es es una estrategia que tiene que ir en varios niveles, porque lo que quiere, sobre todo imagino, es pasar mucho al local, o sea, intentar que todo lo que pueda ser local sea local.
Sí, seguro, con el paso de los años se pasará un poco, pues, como con city, ¿no? Que cada vez más cosas son capaces de ejecutarse local a medida que los chips van mejorando, van consiguiendo procesos más eficientes, etcétera. Sí, y y sobre todo porque a nivel de estrategia les viene bien demostrar que los iPhones son los únicos que pueden hacer ciertas cosas en local, por ejemplo, no los los a de de los los proveedores hay los proveedores m, porque lo que sí han encontrado, yo creo de, y eso sí, a lo mejor ha sido más, no casualidad, pero sí, sí está en el momento adecuado, en el sitio adecuado, que es que tienen una gama de procesadores que son especialmente buenos con todo esto en la memoria compartida para estas tareas de ejecutar modelos de lenguaje y demás que en otros procesadores que tienes que tener una gráfica mucho más potente para poder hacerlo. Entonces, tienen las piezas que necesitan tener ahora, no sé si tienen todas las piezas a nivel de software y por eso hacen estos acuerdos. Yo lo de los acuerdos, de todas formas, tampoco le iría mucho más allá, vamos a ver qué ocurre en David hoy sí, pero pueden ser muchas cosas.
Es decir, yo creo que con Google, por ejemplo, si tienen un acuerdo de búsqueda con Google, que lo tienen y les pagan miles de millones de
dólares todos
los años por él, es lógico que tengan que renegociarlo cuando llegan estas herramientas, ¿no? Más allá de ahora cuesta más acceder a todos nuestros usuarios de iPhone y los gastos tiene que pagar veinte mil millones en vez de dieciocho mil millones, también es Google diciendo, oye, es que ahora tenemos el call to search, es que ahora tenemos búsqueda generativa. ¿Cómo va a decir cómo cómo vamos a integrar todo esto en el iPhone? Porque si vamos a pagar veinticinco mil millones de dólares por estar en los iPhone, queremos que también nuestras herramientas estén ahí al máximo nivel, ¿no? Entonces, todas esas cosas hay que negociarlas.
No, no, no, no es que no necesariamente significa que Apple hubiera estado pensando en poner Gemin ahí en los en los iPhones, que a lo mejor era simplemente el acuerdo de búsqueda de Google, que cómo se cómo se mezcla inteligencia artificial generativa dentro, o cómo los iPhone van a permitir que elijas modelos dentro de iPhone y cómo se integran, o sea, al final, en todas estas cosas yo creo, o si el iPhone va a tener posibilidad de ejecutar modelos locales, pues si Google quiere que JEM JEM JEM NANO funcione en el iPhone, ¿cómo tiene que hacerlo? Pues a lo mejor tiene que llegar a un acuerdo con Apple para eso. Es decir, hay muchísimas razones para nuestras negociaciones, no necesariamente es es que necesitan un motor de inteligencia artificial generativo externo y va a ser el de Google o el
de chathead. Puede ser, pero también hay muchas otras opciones. Bueno, a ver, en dos, tres semanas, al final el siempre, desde hace un tiempo parece más claro que el acuerdo esté con Google ya no es tanto quiero ser la opción por defecto, sino quiero que tú no veas incentivos en lanzar tu propio buscador y me puedas joder una parte del negocio, ¿no?
Sí, sí, sí, sin duda, vamos, o sea, es es que más bien como es que como está Google, es decir, digo, para que tengo la garganta medio tomada, que es que la, como ha cambiado toda la búsqueda ahora esta semana, es es un es un cambio para Google brutal, pero es para esto en la web todavía más, es decir, medios de comunicación estamos vendidísimos ahora mismo con el tráfico web. Google, anuncios, va a tener que cambiar completamente la la forma de hacerlos y la las comisiones que cobra y demás, porque si no, no se sostiene, pero ahora con la búsqueda de inteligencia artificial. Entonces, imagino que también todo eso es, oye, si vamos a pagar todo este dinero por estar como el buscador por defecto dentro de del iPhone, tenemos que sacarle un rendimiento más y tenemos que hacerlo tan complejo y tan, tiene que ser tan avanzado que Apple tampoco vea el motivo para decir, oye, pues si ahora va a ser todo inteligencia artificial en la búsqueda, pues así busco un modelo de lenguaje propio y audio la búsqueda, ¿no? O sea, si va si si la búsqueda de Google va a ser dame un resultado de inteligencia artificial generativo de todo lo que es que que sí idea la, o sea, la búsqueda ahora del del iPhone, ¿no?
Al final es, requiere replantearse todo lo que hasta ahora se hacía con temas de búsqueda en en móvil y en en el escritorio también, ok, ahí no no afecta tal.
Sí, justo, al final esto va de incentivos, lo que decíamos, si este acuerdo de Apple y Google no existiera, seguramente Apple ya hace muchos años que hubiera pensado, ¿cómo es posible que el proceso, uno de los procesos elementales que hace la gente de nuestro iPhone le esté dejando mucho dinero a Google y nada nosotros, vamos a ver qué podemos hacer con ellos, igual que hicieron en su momento con Spotify y con tantas otras cosas.
Sí, pero mira, con el tiempo al final les ha resultado ser bastante más inteligente, porque imagínate que hubieran puesto en los últimos década y media todo el esfuerzo en crear un buscador web tradicional. Bueno. Y yo, sinceramente, por lo que he visto esta semana, no sé cuánto le queda a la búsqueda tradicional, pero no mucho. O sea, es que ya es es hilarante lo de que lo de esconder los resultados web dentro de la acción de más Google.
Sí, sí,
sí. Como de coña. Entonces, lo entiendo, o sea, creo que hay una
hay un cambio que viene que es muy grande y lo que decía antes,
no es es un cambio que viene que es muy grande y, lo que decía antes, ¿no? Es es estamos cambiando el paradigma de cómo nos relacionamos con las máquinas y y y haber invertido tanto en un buscador tradicional, a lo mejor hubiera sido una malísima idea, ¿no? Aunque hubiera funcionado un par de años, habría sido un un un proyecto que al final no iba a ninguna parte. Pues, mira, todo lo que cabe hubiera salido bien a Apple, de esas. Sí.
Pero bueno, tienen que tiene que invertir en lo en lo siguiente también, ¿no? Entonces, es, pues, lo mismo, lo mismo que hicieron con la web de buscar un
como decías tú, con Google, pues ahora tienen que hacerlo también para para lo que
viene ahora. Por terminar ya, relacionado con Google, porque hablaron de Projecttra, Gafas inteligentes. Pues mira, yo
con las gafas inteligentes he tenido una relación, y voy a decir de amor odio, pero ni siquiera eso. En la época Google Glass, finales de dos mil doce, trece, catorce, cuando hasta que todavía parecía que aún podía saber alguna cosa hasta que ya finalmente vimos que no y empezaron a recoger el cable, a mí me generaba muchísimo rechazo, tanto por la figura del glass hall, y que ahora yo no entiendo nada más porque me puede producir tanto o más rechazo el hall de lo que sea con productos de Apple. Para el Vision Pro también vimos unos cuantos textos durante su lanzamiento, esa figura me causaba un rechazo bestial ver a alguien con las Google Glass que me llevó a pasar, alguien viene con las Google Glass puestas y encima no venía hablando de cualquier cosa, venía como dejando muy claro que tenía una Google Glass y que podía hacer cosas con ellas. Resultaba hostil tenerlo delante, ¿no? Resultaba intimidante.
Ese pedazo de prisma no no no me gustaba nada, no eran muy útiles, no. Me generaba mucho rechazo el concepto, ¿no? Incluso pensando, bueno, quizás en el futuro tal, pero le veía demasiadas posturas. En cambio, pasa el tiempo, vimos en su momento las de hoja de sol de Snapchat, luego sacó metal arriba en stories en y lleva siendo otra cosa, pero al final con esos enfoques, yo no tengo Instagram, no tengo Snapchat, pues no no me era del todo atractivo, pero ya veía, pues por lo menos que era un poco diferente, ¿no? Ya eran gafas, pues mucho más naturales que no indicababan tanto, que tenían unos ciertos usos, aunque no fueran para mí, pero tenía su caso de uso y para mí todo cambia y me cambia todo el chip.
Cuando hace un mes o dos pruebo las Raven Meta, que tú también las has estado probando últimamente, y eso cada vez probé fuera de Estados Unidos, digo fuera de Estados Unidos, porque fuera de Estados Unidos son mucho menos útiles y versátiles que dentro de Estados Unidos por una cuestión de regulación y de cómo aplica metal asistente, pero para mí ya fue el cambio de chip. De repente, ellos son unas gafas prácticamente indistinguibles de unas normales, son un poquito más gruesas, son un poquito más pesadas, tienen ahí la la cámara frontal, bueno, la cámara frontal, la cámara apuntando hacia delante, hacia donde tú estás mirando. Y, aunque no sean al cien por ciento, las gafas normales ya están mucho más cerca, ¿no? Ya se integran mucho mejor, no son hostiles, ¿no? Alguien se puede sentir intimidado si detecta la cámara si sabe que le estás mirando, si no te conoce muy bien, quizás, si eres un recién llegado, pero en general se integran mucho mejor.
La parte de grabación de vídeo, hacer fotos con ellas para mí fue la bomba, por ese punto de vista. Ya desde hace unos tres, cuatro años soy un obseso repentino de generar recuerdos, de acumular recuerdos, de inmortalizar momentos, atmósfera. Yo no solamente el hecho de decir, vamos a hacernos una foto vamos a hacer una foto o un vídeo de un momento así como muy singular, sino de momentos cualquiera. Desde voy a grabar un vídeo, haciendo un paseo por mi casa, porque dentro de un montón de años ya no vivir de esa casa, eso sí no recuerdo, muy vinculado a una época de mi vida y del mundo, y quiero tenerlo, ¿no? Igual que ahora me encantaría tener un vídeo bien hecho de cuando el dormitorio de que yo pasaba el rato cuando era pequeño, ¿no?
Y no lo tengo, pues por hacer ese símil, ¿no? Pues yo me vuelto muy adicto a esto y la Revvan las Revvan metas te lo ponen muy fácil y te lo hacen de una forma totalmente solapada con tu campo de visión, no con tu punto de vista, y eso para mí tiene mucho valor. Pero sobre todo, entrando en el tema de la IA, lo que hace Meta AI, tanto la parte de poder preguntarle cosas y que además el sonido está muy bien resuelto, no,
no sé cuál es su experiencia. Es muy parecido a la tuya, porque yo tenía tenía también, venía de haber probado los de Snapchat, venía de haber probado las las stories, que eran muy parecidas las stories y las del rival metal. Y ahora son muy muy parecidas, pero todavía no habían llegado a este punto de, primero, los vídeos son mucho mejores, el sistema y la interfaz están, la interfaz dentro de lo que se puede tener una interfaz, ¿no? Pero digamos, el el producto está mucho mejor acabado y está mejor presentado, pero lo que tú decías, al final lo que lo que marca la diferencia es la llegada del del asistente, porque de repente tienes un asistente contigo continuamente, ¿no? Yo lo único que le echo en falta es que no se pueda mantener una compensación continua, es decir, tienes que estar haciendo meta, entonces, meta, no sé cuánto, meta no te da, en vez de estar hablando, como por ejemplo cuando, lo más mágico dentro de estos asistentes para mí es la aplicación de chathabet en el iPhone, porque cuando entras en el modo conversación es una conversación y para mí eso es el tiempo, es es la experiencia que hay que buscar y si Meta consiguiera eso sería todavía mejor, pero aún así están bastante bien.
Me gusta la calidad del vídeo, me gusta la calidad del audio, las llevo como gafas de sol normales, yo las uso como gafas de sol normales día
a día y para escuchar podcast y tal con los altavoces que tiene son muy, muy buen. Sí, yo también, y y lo que decía el sonido es que mi duda un poco era, pero esto realmente, si lo quieres escuchar para lo que quizás muchos tenemos en mente, ¿no? Esta conversación continua que ahora no está, pero seguramente en algún momento llegará o alguna versión futura de las gafas llegará, esto se va a poder hacer y y mi preocupación en el sonido, igual que con la Addison Pro, ¿no? Salvando a las distancias, pero si yo las quiero escuchar en un tren, en un avión, en donde sea y no tengo los AirPods a mano, ¿el de al lado lo va a escuchar con la visión. Pero la respuesta es sí, la respuesta es que no, no, no es apropiado estar demasiado cerca de otra gente y ponte a escuchar cualquier cosa porque le vas a molestar, no va a ser muy obvio que estás escuchando cosas.
Mientras que con las reward meta me sorprendió que prácticamente no escuchas nada cuando la lleva puestas alguien que está a tu lado. Está súper conseguido porque no no no se ve nada, no son como unos auriculares de conducción, no sé ni siquiera. Tú escuchas algo muy al fondo, no como cuando está alguien saturado con unos airpods y está escuchando música al cierto volumen. Tú, si estás cerca y no hay mucho ruido ambientes, escuchas que algo está oyendo esa persona, no? O al revés, oyes que algo está escuchando esa persona, pero a lo mejor ni siquiera es capaz de detectar qué canciones o qué tipo de conversaciones.
Pues con la radio band me pasa algo muy parecido. Entonces, son bastante discretas para ser unas gafas que el auricular sale de la patilla, se dirige hacia tu oído, pero no está bien atado ni nada.
Lo único que voy a decir es que el el son requieren tener cierto silencio, es decir, no no funciona muy en ambientes muy ruidosos, pero bueno, eso es lógico, es lo que esperaría, ¿no? Pero para mí el, lo que ha cambiado es la sensación de que aquí hay un hay una categoría de producto que puede funcionar, Y y lo comentaba el otro día en en x diciendo, me gustaría que Apple sacara ahora unas Apple Vision, es decir, unas Apple Vision, unas gafas que fueran, esto, una de radio aumentada, nada de que que me parece muy bien, Yo estoy encantada con la Super Vision Pro y me parece genial, pero que hubiera un producto que fuera esto, que fuera unas gafas simplemente para hablar con Siri y ya está, y y te las pones y puedes sacar fotos o no, incluso sin fotos. Es decir, yo para mí la aplicación clave de esto es la interacción con un asistente de inteligencia artificial, la foto es secundario. Entonces, tal vez lo lógico sería ahí los airpods, puede ser, o sea, que que que si, digamos, crezca hasta ser un asistente de un estilo chat GPT conversacional en ese nivel y y lo puedes llevar en los airpods, para mí sería fantástico.
Y entonces el formato de la gafa a lo mejor no es tan necesario, pero bueno, hay una ventaja añadida en lo que tú dices, ¿no? De poder grabar un recuerdo desde tu punto de vista y de bueno, no, que yo creo que que estas gafas lo hacen y lo hacen muy bien. Aparte de la de la ventaja que, bueno, no es Apple Vision Pro podrían sacar vídeo y fotografía espacial para luego verlos en en en la Super Vision Pro, digamos, en la en la Super Vision, digo, podrían sacarlas para verlas luego las Super Vision Pro, o sea, yo lo veo como un producto que encajaría bastante dentro de lo que ahora hace Apple y que yo creo que que estas gafas de meta me han demostrado que hay un hay un, al fondo es un público muy grande, pero hay un público.
Sí, yo también lo veo así, al final, lo que todos tenemos seguramente en la cabeza para el muy largo plazo, porque estamos tecnológicamente muy lejos de esto, es unas gafas de aspecto completamente normal que hagan lo que hacen las Rev-meta y lo que hace la Addison Pro, más o menos, ¿no? Que pueden superponerte la información entre el mundo y tú, que pueden proyectar esa información, que obviamente estamos lejísimos, ¿no? Esto es esto es un viejo sueño. Entonces, con la Vision Pro estamos un poco yendo a el mayor ideal que podemos cumplir tecnológicamente a día de hoy a costa de un armatoste, ¿no? Que vale que le quitas el sello, le quitas no sé qué y y no es para tanto, pero sigue siendo demasiado evidente, sigue necesitando una pedazo de correa para sujetarlo a la cabeza, la batería externa, un montón de cosas.
Y las raibas son como el camino completamente inverso, a partir de lo que podamos meter en unas gafas que no dejan de parecer tradicionales, pues a partir de ahí vamos creciendo, ¿no? Estas raibas metas son las peores que vamos a tener en la historia. ¿No? Todo lo que venga a partir de aquí va a tener mejor circutería integrada, más sensores, menos peso, lo que sea. Y y me encantaría ver a Apple haciendo lo que tú dices, un camino a la inversa desde la Vision Pro, y no significa cargarse a la Vision Pro, creo que pueden ir en paralelo.
A a lo
mejor en
el muy largo plazo hasta puede confluir en un único producto, porque ya se han roto muchas barreras, pero seguramente estamos lejos y de momento nos quedamos sin ese camino paralelo.
Sí, a ver, al final es lo que está haciendo Meta, Metcha tiene Oculus, tiene sus gafas de radio virtual, ¿no? Y y luego tiene esto, entonces entra todo dentro del mismo división, pero son cosas muy diferentes todavía, ¿no? Pues, yo lo que estoy diciendo es que Apple tiene la oportunidad de hacer esto también. No sé si lo va a hacer, yo era un firme defensor de que ha de lanzar un libro, un lector de libros electrónico también en su día y mira, pero pero desde luego tiene los los ingredientes para hacerlo y creo que habría un mercado a lo mejor. El problema es que tienes que se canibalizaría mucho el mercado, las iPad las abrevision Pro, ¿no?
Es decir, porque uno de los puntos de venta de las abrevision Pro es estas gafas son las que te permiten grabar, aunque lo puedes hacer también con el iPhone, te permiten grabar vídeos en espacial y demás y y demás, ¿no? Pero pero no sé, yo creo que hay un hay una oportunidad muy buena para entrar en este mercado ahora con la tecnología que tenemos hoy en día y creo que es un producto que merece la pena, es decir, no por volver a ver, que es la película más manida esta semana, ¿no? De de la historia, ¿no? Pero esta idea de de ya estamos en un punto en el que podemos tener un asistente en el que se puede hablar y y no creo que haya que meterse en temas de distopías y de tantas cosas así, simplemente es algo que yo creo que es una tecnología que existe y gente que le sacaría mucho partido y que ahora mismo no hay una interfaz muy buena para hacerlo, más allá de que quieras usar chat GPT en el en el teléfono, ¿no? No, con el sistema de voz que tiene sus problemas.
Todo esto viene por una necesidad mía muy concreta, y es que de un familiar que tiene problemas de visión y él estaría encantado de poder interactuar con con esos asistentes, pero es muy complicado porque necesita navegar las interfaces de los teléfonos, de las cosas así para llegar a ellas, ¿no? Entonces es es todavía bastante complicado a pesar de todas las opciones de accesibilidad que existen y esta semana apenas anunciado algunas pruebas, todavía es es bastante, hay mucha fricción. No es una persona que sea invidente de toda la vida, que es, digamos, que se ha acostumbrado a manejar estas cosas, sino que es una pérdida de visión progresiva y entonces que empezar desde cero ahora a aprender estas cosas y esto todavía es muy complicado, ¿no? Entonces, si hubiera una fórmula más natural, así como los altavoces, digamos, de casa son una cosa muy natural, tú los pones, empiezas a hablar y te dije, sirio, ey, lo que sea, y empiezas a hablar con ellos y perdonar a la audiencia por si se dispara alguno, pero pero digamos que son muy intuitivos en ese sentido, todavía no hay esto en telefonía en ese nivel o en o en o o por lo menos no hay una forma de que ChatGPT haga esto sin tener que primero pulsar alguna cosa en un esto.
Entonces, las gafas digamos que es una un formato muy bueno, te pones las gafas, las gafas se activan y ya puedes hablar siempre.
Sí, esto es algo que no es inmediato, no es algo que vayamos a tener ya ni mucho menos, pero justo hablaba de que yendo GPT cuatro O y lo mismo puede aplicar a Google y ya lo vimos con Astra, usaron realmente ese ejemplo en la demo, es que veo más apropiado que nunca que se planteen unas gafas. Open AI sabemos de hace un tiempo que está Alma junto a Johnny ahí buscando financiación para sus propios dispositivos físicos para poder dejar de depender de que la gente se instale su aplicación dispositivos ajenos a acceder a la web, sino que ellos controlen mucho más la experiencia y después de v s p t cuatro o pienso, yo iba a las gafas, clarísimamente. Podría haber más ejemplos, pero en la demo lo vi clarísimo cuando se pusieron a resolver el problema este matemático, ¿no? Estaba el tío escribiendo a mano en un folio y con la otra mano sosteniendo así, con hombre medio dislocado el el iPhone enfocando al folio, es muy incómodo ese día tedioso, no es apropiado. Entonces, yo pensaba es que con unas gafas ya está ya open ahí, ya estaría, o sea, GP cuatro ya estaría viendo lo que ve esta persona, ¿no?
Y las gafas no significa que tengamos que de repente llevar gafas puestas todo el día, todo el tiempo, sino simplemente, pues, como llevamos los helpsos, a veces los queremos llevar o los ponemos, a veces no son apropiados o no los queremos no los quitamos y los llevamos en el bolsillo, las gafas ni eso, las podríamos llevar colgadas de camisa del cuello, de lo que sea. Y para mí ese es futuro clarísimo y por eso ahora valoro también mucho más el array Bank meta. Tú decías lo de el caso de uso de la conversación, ¿no? Con las gafas que también se puede plantear en forma auriculares, pero para mí el hecho de que también hayan añadido ahora la visión irá a más y que cada vez podrá procesar mejor y más vídeo en tiempo real de forma continuada, es fundamental para ir por la calle, para estar trabajando, para estar trabajando incluso delante del ordenador y que ya dejes de depender de una aplicación que te vea o no sé qué, sino que ya no tengas que activar la visión de chat GPT en el Mac cuando la te sientas a trabajar ahí o sacar el iPhone cuando está yendo por la calle o lo que sea, sino que siempre es, o siempre que tú quieras, está viendo tu entorno gracias a las gafas y tú tienes esa figura, pues, que te susurro al oído como con el ritmo en meta y te va aconsejando y te va diciendo la lo que tú le pidas, pues, este código, ¿no?
Pues, ya no necesito estar pegándolo o que lo esté viendo directamente la aplicación del Mac, sino que con la data se puede venir más aconsejando en tiempo real.
Sí, va va a cambiar mucho este tipo de cosas, Yo creo que estamos en al borde de una revolución bastante, bastante grande y siempre he intentado ser muy escéptico con esto y no ponerme en el lado hype y demás, pero esta semana me ha dejado tocado, o sea, me ha dejado tocado a niveles incluso de de ansiedad, de de profesional, ¿no? De que va a ser de nosotros, porque para alguien se dedica, mi trabajo fundamental es encontrar y resumir información, evidentemente, o sea, a nivel muy abstracto, ese es mi trabajo. Evidentemente aquí esto, digamos, ese trabajo va a ser obsoleto muy rápido, pero va a ser obsoleto muchísimos trabajos, ¿no? Entonces, vamos a ver qué pasa, va a ser curioso. Javier Lacort, muchísimas gracias por venir esta semana binarios y por acompañarme esta semana que estoy con la voz fatal y con la tos, pero bueno, un placer tenerte aquí, la gente que quiere saber más de ti qué puede hacer,
pues puedes escuchar el podcast Looping Infinito cada mañana a las siete, dando perspectiva sobre Apple y su competencia. Puede leer Sataka, que también está muy bien, tanto mis artículos como de todos mis compañeros. Ataca además es una web, pero también es una cuenta, es un canal de YouTube, es una cuenta en Tik Tok, es un manager todos los domingos, leyó a mi compañero, José Pastor, o puedes seguirme en Twitter arroba J La Corte,
que es la única red social, la dueña de vivir en esto. Yo yo diré una cosa, si alguien escucha este podcast quiere una experiencia en lo que es un podcast que funciona como un reloj y sale todos los días cuando tiene que salir por lo infinito, es es el mejor ejemplo. Ya sabéis que yo soy Ángel Jiménez de Luis, podéis leerme en el periódico El Mundo, podéis leerme en x, en arroba Jorge Jiménez, en thretch, en arroba Jorge Jiménez, en Instagram, en arroba Jorge Jiménez, en general, en cualquier sitio, en arroba Jorge Jiménez suelo ser yo, y esto es viral, es un papel de tecnología que sigo con la intención de retomar y hacer más más regular, pero por ahora eso es lo que hay. Muchísimas gracias por estar aquí esta semana y nos escuchamos pronto. Chao.
Gracias a nuestro mejor
Puedes escuchar más capítulos de este podcast y de todos los que pertenecen a la comunidad Wonda en wonda punto com.