Patrocinador: Si no tienes aún instalado miBP en tu Android o iPhone estás perdiendo dinero. Puedes ahorrar hasta 20 céntimos por litro repostando carburante BP Ultimate con tecnología Active, cada vez que bepeas con tu móvil. Es fácil: muestras tu app gratuita al pagar y recibes el ahorro al instante. — Porque ahora la tarjeta de miBP es mucho mejor.
Hoy nos acompaña Andrés Leonardo Martínez Ortíz, quien lidera las relaciones con desarrolladores en Google. Vamos a sumergirnos en el aprendizaje automático, una disciplina que está marcando pauta en la informática y la computación. Google se destaca como una de las principales empresas a nivel mundial en diversos subcampos de esta área, y vamos a descubrir por qué es tan crucial tanto en el presente como en el futuro.
Exploraremos conceptos técnicos de manera accesible para todos, cambiaremos nuestra perspectiva sobre nuevas tecnologías y desentrañaremos los desafíos que aún esperan ser superados.
Kernel es el podcast semanal donde Álex Barredo debate con buenos invitados sobre las plataformas y compañías tecnológicas que afectan a nuestra vida diaria.
Enlaces:
Transcripción
Bienvenidos a un nuevo episodio de Kernel, el podcast semanal de tecnología de Mixsion. Y hoy estamos con Almo, un Googler, un ingeniero de de la propia Google, y vamos a hablar de aprendizaje automático, pero bueno, como le dicen, de machine learning, ¿no? Que yo creo que es el término Más usual, más conocido. ¿Qué tal estás, Almo?
Pues muy bien, me pillas en Las Vegas, que he venido a trabajar unos días a Estados Unidos, estudié ayer en el San Francisco y hoy hasta el domingo estar en Las Vegas en una conferencia.
Genial. ¿Has estado por el NYPS estos estos días pasados?
No, he estado trabajando con el equipo, no.
Ah, muy bien. Bueno, pues, como sé que estás súper preocupado, vamos a empezar con lo básico, vamos a hacer, e intentar dar como un vistazo a lo que es el aprendizaje automático que el otro día hablábamos con Rosa Jiménez Cano, que entrevisto a Sundar Pichai, a CEO de Google, y decía que el el aprendizaje automático es súper importante, súper interesante, que están intentando meterlo en la cabeza de los gobiernos que se adapten, que se adapten los currículos en las universidades, en los en los institutos, para que todo el mundo, o la mayor parte de personas posibles, salgan teniendo un conocimiento de qué es este tipo, ¿no? De de de nuevo género o de nueva rama de la informática tan potente. Entonces, yo creo que podemos saber algo con lo básico, ¿qué es machine learning es, ¿y qué es inteligencia artificial y y en qué se diferencian?
Pues mira, inteligencia artificial es toda una rama de de la computación y, bueno, en realidad de es áreas de de la ciencia que lo que intenta es desarrollar sistemas que produzcan o simulen el comportamiento inteligente que tenemos los seres humanos. Esto incluye, por ejemplo, pues áreas como la planificación o el procesamiento del lenguaje natural, los aspectos relacionados con percepción en general, percepción artística si quieres, uso razonamiento, ¿no? Sistemas expertos y ese y ese tipo de de áreas. Entonces, hay algunos aspectos que se consideran como inteligentes, que son, Básicamente, los los procesos de aprendizaje. Entonces, cuando queremos reproducir la forma en la que aprenden los seres humanos, entramos en un área llamado Machine Learning, y que una buena forma de entenderlo es, básicamente, intentamos que las máquinas aprendan de la misma forma que aprenden los niños pequeños, con ejemplos.
Aunque suena muy rimbombante y, en realidad, los resultados que se tienen aplicados a criptoproductos son realmente increíbles, Lo cierto es que, básicamente, estamos enseñando a las máquinas a aprender, de alguna forma que aprenderemos los seres humanos con los ojos pequeños, que es con competición y con muchas es Muchos ejemplos, el más sencillo digital. Yendo un poco más allá, lo que hacemos, básicamente, es enseñar a las máquinas con ejemplos, o lo que es lo mismo es programar con ejemplos. Si conoces un poco cómo lo que es la programación, pues, sabes que requiere el el describir de una manera más o menos estructurada estructurada y ordenada lo que queremos que haga una computadora. Hace cincuenta años era una programación de muy bajo nivel, donde realmente nos es. Estamos muy distantes de lo que es el la el concepto humano de de instrucciones, porque programamos en base a registros y conceptos de muy bajos niveles de la computadora.
Según han ido evolucionando los lenguajes de programación, pues, poco a poco nos vamos acercando a niveles mayores de extracción. Entonces, el machine learning podría ser como un nivel máximo de abstracción en la que, incluso aunque no sepamos cuál es el procedimiento formal y estructurado para resolver un problema, básicamente, enseñándole muchos ejemplos a una computadora, somos capaces de desarrollar esa solución, con lo cual, ya te digo, de una forma algo más formal, Así es la tecnología más que programar una computadora con ejemplos.
Claro, es decir, en vez de decirle, si te doy estos datos, me devuelves esto, UPS, o si te o hacerle una ecuación clara y y concreta para cada ejemplo, lo que le haces es un dar como un montón de de de casos de entrada, es lo que tú esperas que sea el resultado a la hora de procesarlo, ¿no? Ese sería el ejemplo, y le dices, hala, lo pones ahí a procesar un montón de ejemplos, miles, diez mil o millones de veces, ¿no? Millones de repeticiones distintas.
Sí, un ejemplo muy fácil de entender es por por ejemplo, cuando queremos es entender qué es un gato en una fotografía. Desde un mundo de esta técnico, una fotografía no es más que un conjunto de datos Que son píxeles con velocidades y colores. Entonces, claro, explicarle a una computadora que en la esquina superior tienes un otro tipo de gato que es una oreja que tiene pelo y tal, pues esto es bastante sofisticado y, de hecho, depende de cada dificultad o qué eliminación, de cómo sitúa la foto y demás. En cambio, es mucho más sencillo mostrar millones de fotos de gatos y de una forma más o menos curada, es decir, alguien le dice un gato o un gato, pues, somos capaces de que el sistema aprenda a reconocerlo sin darle una instrucción precisa. Y, de hecho, lo lo, desde el punto de vista matemático, es Lo que es realmente asombroso, desde el punto de vista y sistema matemático, son las estructuras que representan ese conocimiento.
Son, Básicamente, mucha red neuronal y y otros sistemas de redes.
Cuando te refieres a red neuronal, es eso, que es una red neuronal en concreto, y la gente seguro que lo ha leído muchas veces desde hace, a lo mejor, una década, pero sin sin ponerte supertécnico, ¿cómo explicarías un una red neuronal?
Bueno, pues, una red neuronal no es más que una colección de procesadores muy sencillitos que reciben una entrada Y tienen una salida, básicamente, con una función relativamente simple, ¿vale? Que puede ser, pues, una función lógica o o una función, más o menos, sofisticada. Entonces, cuando es sumas muchas de estas funciones, se crea una estructura básicamente en red, como si fuera una malla, que sería una red de una capa, y puedes acumular muchas de estas mallas. Pues, hay unos procesos muy sencillos de desde el punto de vista matemático que, de manera acumulada, dan resultados espectaculares como los que vemos en las CouchBisher normales, siguiente imágenes, donde aplicamos machine naturales normales. Entonces, es el ejemplo clásico en el que la unión hace la fuerza, porque cada una de esas células, cada una de esas neuronas, realmente son muy sencillas.
Como digo, reciben una entrada y tienen una salida, pero acumuladas es, de manera, pues, estructurada, dar lugar a una capacidad computacional, pues, realmente, difícil.
Claro. ¿Y en en Google tenéis una herramienta o habéis creado una herramienta hace tiempo y seguís optimizándola y lanzando versiones nuevas o mejorando el software que se llama TensorFlow. ¿Lo habéis hecho código abierto para que todo el mundo y otras empresas, incluso competidores vuestras, se puedan aprovechar de esta tecnología y la mejoren y, digamos, mejore el mundo, por decirlo así, ¿no? De toda la capacidad, de todo las ventajas que que que aporta TensorFlow o los resultados de aplicar TensorFlow CVS a a un problema determinado, ¿no? Como puede ser identificar fotografías, identificar quién está en una foto, ya digo, es reducir spam, ¿no?
Un montón de cosas. ¿Por cuál es la decisión detrás de esto, de de de de liberar TensorFlow? ¿Es es tan sencillo como eso?
Bueno, pues, esto realmente encaja en en los planteamientos que son, digamos, core en en nuestra en nuestra filosofía común. Ya sabes que nuestro nuestra meta en el mundo es organizar la información del mundo y hacerla accesible a todo, y básicamente esto es un reto de dimensión realmente increíble, es un reto muy importante. Entonces, cuando empezamos a trabajar con es con machine learning, que ya en el año dos mil, pues, Larry Page decidía como, digamos, la última versión de lo que sería Google, ser capaz de organizar esta información una manera inteligente, nos dimos cuenta que ese reto no se puede resolver, no lo podemos resolver solos, ni debemos tampoco, digamos, mantenerlo en en posesión exclusiva. Entonces, no solamente con ZensoFlow, hay otros ejemplos como Kubernetes, como Polymer y multitud de ejemplos como el título Android, que es También es como práctico abierto. Básicamente, entendemos que la forma en la que tenemos que resolver estos problemas de enormemente complejos, de dimensión universal, digámoslo así, Es haciendo accesible estas soluciones para todo el mundo.
Entonces, uno de los claves es aspectos de de de por qué se ha desarrollado tanto la la el machine learning en los últimos años tiene que ver con este planteamiento de apertura. No solamente hemos hecho TensorFlow Open Source, sino que además colaboramos con empresas del sector, desarrollando tecnología juntos, Tenemos mecanismos para invitar a investigadores de universidades de todo el mundo que que vengan a a Google a participar en nuestro trabajo, colaboro con ellos, si echas un vistazo a a nuestra labor científica. Publicamos infinidad de artículos científicos en los que compartimos Nuestras investigaciones, nuestros logros con con la comunidad científica, que están accesibles desde el minuto cero en en Internet, y Alimentando también lo que comentabas antes de toda esa necesidad de crear un tejido a cursos humanos que sea capaz de de de resolver este reto, Tenemos un programa de impreship de de precarios que vienen a a nuestras oficinas también para para aprender y desarrollarse en stand up al día. Con lo cual, como te digo, este Este planteamiento de hacer abierto TensorFlow es un planteamiento que entronca directamente con el core de nuestros nuestra filosofía como como empresa. Creemos que la complejidad que ponen los retos a los que nos enfrentamos, si quieres como industria, si quieres como como seres humanos, Requiere que seamos abiertos y que colaboremos y que queremos compartir también los logos de las cosas que vamos con eso.
Exacto, porque un una de las aspectos que más llama la atención a nivel de de, visto desde fuera del del campo de la inteligencia artificial, el aprendizaje automático y tantas tantas es es que los investigadores, los académicos, los los ingenieros que estáis trabajando en esto, hacéis mucho énfasis en compartir vuestros datos, en compartir vuestros hallazgos, lo que encontráis en publicar, en hacer mucho paper científico, en leer mucho paper científico, o bueno, como en tantas otras industrias. Pero sí que es hay como una aversión a a que cada empresa lo haga de forma aislada, es hay como mucho espíritu de compartir nuevas tecnologías y nuevas es cambios y, ya digo, hallazgos que puedan mejorar otras tecnologías, es decir, lo que alguien encuentre, a lo mejor, aprendiendo a distinguir ciclistas con las cámaras de un coche autónomo, se puede utilizar, a lo mejor, para detectar noticias falsas.
Bueno, como te decía, yo creo que uno de los factores que que ha contribuido a la es en resultados, en logros transplicativos que hemos conseguido, ha sido el ser capaz de de, no solamente compartir es Los algoritmos y los logros que también, sino además incluso hacer accesibles dataset de de información para hacer entrenamiento de sistemas. Hoy Internet permite hacer a otro estilo de información, y además añadiría otro texto más que creo que es significativo, y es que hemos productificado de una manera muy rápida. Si conoces un poco el área, pues, los primeros algoritmos de machine learning, el perfectrón, ese tipo de cosas son de finales de los cuarenta, principios de los cincuenta, ya habían algunas cosas, incluso a un nivel mucho más básico, lo que es el perversión y estadística que se aplica en inferencia, Pues el del siglo diecinueve, final del dieciocho, el diecinueve, el tres. Entonces, ¿por qué está ocurriendo todo esto, no? Pues, aparte de esa apertura, aparte de ese compartir, Se hacen ciclos de productificación muy rápido que dan lugar que, básicamente, ejemplo, somos capaces de introducir el el las respuestas automáticas en Gmail en apenas cuatro meses, hoy en día hay una enorme cantidad de de de respuestas que son directamente procesadas por el sistema y Básicamente, facilita, dependiendo de una persona que sea un dispositivo móvil, tenga una serie de respuestas preconfiguradas para hacer la interacción mucho más sencilla, ¿no?
Si nos vamos a los sistemas de búsqueda que hemos implementado en Google Photos, pues ahí el ciclo fueron seis meses. Entonces, procesos de aceleración básicamente se traducen en una La recurrencia, una equiparación mucho más rápida y que al final significan el que, pues, si quieres verlo de una manera Prácticas somos capaces de fracasar más rápido y aliterar, al final, pues, usamos lucir rápido. El hecho, ya te digo, de llevar, de dejarnos un poco la no no dejarnos, sino que complementar todo el proceso de la academia para llegar a la última milla, digámoslo así, y ser capaz de, pues, implementar mecanismos como el que hemos implementado en en Google Assistant, mecanismos como los hemos suplentado en el Google Translate, el filtro de spam de de Gmail o o las funcionalidades que nos permiten detectar Malware en el en Chrome, pues, básicamente, como digo, es hemos ido complementando esos mecanismos para agilizar Y para ser capaz de agregar ese conocimiento compartido, que por otra parte, como te decía, es la única forma, creo yo, de enfrentarnos a estos retos de complejidad, a veces, difícilmente, mesurable, porque es un problema muy muy complejo.
Sí, y, ¿sabes? Uno uno de los sitios donde creo que más se ha visto recientemente, o el público ha podido ver más recientemente, la evolución de de estos algoritmos vuestros, por ejemplo, en reconocimiento de fotos, es decir, mucho del entrenamiento que ha hecho que la cámara de Google Pixel dos, por ejemplo, sea tan excelente y sorprendente, ¿no? Que con un sensor único, Con una lente más o menos normal y ya sea capaz de obtener unas fotos, unos resultados tan excelentes, sobre todo en baja luz, yo entiendo que ha sido gracias al entrenamiento de los años anteriores con procesando un montón de imágenes en Google Photos y y y cosas así. Otro ejemplo, a lo mejor puede ser, no sé si me vas a corregir, todo la evolución y la gran mejora al salto de cualidad que ha tenido Google Translate en los últimos dos, tres años, desde que, básicamente, lo habéis dicho, venga, ponte a aprender idiomas US, y por tu cuenta, ¿no? Al algoritmo o a los sistemas o los ordenadores detrás de Google Translate, y las traducciones son mucho más naturales.
Es Sí, yo creo, personalmente, no sé si compartes ese día, pero si has utilizado el Assistant, el reconocimiento de bots es es increíble. Porque además, no sé si has observado un efecto que es curioso, y es que tú empiezas a hablarle a la System y empieza a reconocer, pues, tus palabras, pero cuando has terminado de hablar, a veces reconfigura la asistencia para ajustarle, ¿no? Es decir, más allá de lo que es puramente el reconocimiento de voz, que tiene técnicas que utilizan Kernel, al final hay como otro paso más en el que, de alguna forma, contextualizando, entiende que estás hablando de una cosa y no de la otra, Y y esto realmente, en el efecto, el impacto yo lo he observado en, pues, en muy poco tiempo y disponible, como sabes, desde hace También poco tiempo en España, pero pero es increíble. Puedes hablarle en varios idiomas, yo que si me puedo de ahí para acá, a veces le hablo en inglés, a veces le hablo castellano y y el efecto es es increíble. Realmente, además, el proceso acumulativo es exponencial, no es como en otras técnicas en las que es decir, paso a paso, es un proceso lineal, sino que aquí los procesos de aprendizaje se acumulan.
Entonces, Translate es un ejemplo estupendo, el reconocimiento de nuevo estupendo. La parte del spam ya se nos ha olvidado gracias a a este tipo de tecnología, pero hace lo mucho sufríamos de manera frecuente, pues, todo tipo de historia en nuestra en nuestra inbox. Y bueno, fotos también. Cada vez más vemos cómo, esto que comentas del del chip y algo mismo que hemos desarrollado para Pixel es realmente es increíble porque te permite hacer un enfoque dimensionando la tercera, la profundidad, la tercera dimensión de una manera realmente sorprendente, como le digo, denominada que la acumulación es exponencial, ¿no es?
Exacto. Y una de las grandes diferencias de Google a nivel de que, como decís, de de organizar toda la información mundial, queda un poco en contraste con el acercamiento o el el estilo US, o el espíritu un poco que que mantienen tanto Apple como puede ser Microsoft, y quiero aquí que me que me que me expliques un poco, sin entrar mucho en detalles, porque ellos hablan, y y en Google también habláis, de un tema que se llama la privacidad diferencial. ¿Puedes explicar un poco eso? Porque yo creo que nunca le ha quedado claro hecho a al al al lector medio, al oyente o alguien que se interesa un poco por los móviles, ¿en qué en qué consiste?
Bueno, yo te puedo hablar evidentemente de de nuestra sobre otras compañías, pero, como te puedes imaginar, no solamente en las aplicaciones que se van a beneficiar del machine learning, sino Cualquier nueva tecnología, la confianza es fundamental. Necesitamos introducir la tecnología de manera que el usuario se sienta computable y que entienda los beneficios y sea capaz también de, pues, administrar adecuadamente, pues, sus decisiones, ¿no? Entonces, en en este sentido, Como bien sabes, ya acabo de comentar, todas las soluciones relacionadas con Kernel, pues, se apoya en una cantidad en agencia de datos Y además se ofrecen servicios personalizados, con lo cual, pues, las implicaciones son son importantes y para nosotros es fundamental que los dos se permanezcan seguros, es que, de alguna manera, cuando el usuario decida utilizar estas características nuevas, sea capaz de entender que Nosotros vamos a proporcionar las máximas garantías de de calidad y de seguridad en los datos, porque eso es fundamental, no ya en estos productos, sino en todos los productos que hace Google, Y le vamos a dar al usuario la oportunidad de que decida en cada momento qué es lo que quiere hacer, qué información va a compartir y qué va a obtener.
Entonces, en en este sentido, si conoces nuestra política y nuestras, de hecho, desde el punto de nuestra de de de UX, la la funcionalidad, pues el usuario sabe en todo momento qué tipo de información está está manejando, qué tipo de información se utiliza para cada los servicios que obtiene y puede decir en todo momento es el el cómo manejarlo y cómo, digamos, gestionar su privacidad. Esto, indudablemente, requiere conocimiento y, por eso te decía, que la parte de interfaz Básicamente de cómo comunicamos esto es fundamental, porque nuestro negocio, nuestra compañía, se basa básicamente en la confianza Que nuestros productos pierdan en nuestros usuarios, con lo cual es fundamental, como te digo, no ya en los productos relacionados con GLearning, sino en todos nuestros productos, Esperamos la productividad y la seguridad de los datos de una manera fundamental, es muy relevante.
Exacto. Y yo creo que se nota, yo creo que se nota cuando un acercamiento o la balanza que se hace con estos con estos equilibrios, por decirlo de alguna forma, da mejores resultados, y al final yo creo que es lo que todos queremos, ¿no?
Un momento, Álex, ahora sigues contando esto porque antes tengo que dar un consejo a nuestros oyentes que seguro que ya conocen de episodios anteriores la palabra VPR, ¿no? ¿Qué es eso de VPR? Pues es descargaros la aplicación de Mi BP CVS. En vuestros iPhones desde la App Store o, en el caso de que seáis usuarios de Android, que yo los he visto, que hay usuarios de Android seguidores de Coopertino, Vais a la Play Store de Google, descargáis la app Mi BP y podéis empezar a ahorrar en carburantes en estaciones de servicio De BP, pero también acumular puntos con cada repostaje que luego vais a poder canjear es por regalos muy interesantes y descuentos en un montón de marcas y de tiendas. Además, Si habéis repostado en BP en los últimos dos meses, podéis acceder a privilegios Mi BP, que son descuentos muy exclusivos en un catálogo de tiendas que todos conocemos, viajes, restaurantes, planes de ocio, UPS.
Es de ocio, de belleza, con la aplicación MiBP, sin hacer nada más que repostar, que es algo que al final tenemos que hacer todos.
Es, volviendo tres al tema de de Google Assistant, estoy recordando el Google Home y, bueno, el Google, el asistente de Google, que es el que, digamos, el cerebro del propio Google Home o de de los móviles en Android, etcétera. Ahora mismo, uno de los mayores problemas o de los mayores es retos que tenéis en en esta tecnología, es el conseguir encadenar frases, el el que sepa, digamos, que sea capaz de ir mucho más allá de, te hago una pregunta, me das una respuesta, una, dos, uno, dos, ¿no? Que sea uno, dos, tres, cuatro, que sea una conversación fluida, ¿no? ¿Es tan difícil dar este salto?
Es. Bueno, yo yo suelo resumir esto que has descrito, que tenemos que pasar de de lo que es el comando al al assistant a la conversación, Vale, es decir, tenemos que tener tenemos que tener llegado el punto en el que seamos capaces de conversar con nuestro Assistant y que nos entienda y que nos ayude realmente para hacernos más efectivo Más llevadera, digamos, nuestra actividad diaria. Entonces, nos encontramos en una fase muy temprana de todo lo que tiene que ver con machine learning y con Te comentaba antes que si trasladáramos esta conversación a otros campos, nos daríamos cuenta de de un poco lo que estamos hablando, Realmente, a pesar de que hay mucho interés y que desde el punto de vista de los medios, pues, se ha despertado, las oportunidades desde La economía, la tecnología y el entendimiento son fabu pero estamos todavía en una fase muy temprana. Esto que para nosotros resulta sencillo, contextualizar, Somos capaces de manejar distintos conceptos en paralelo para entender en cada momento de qué estamos hablando. Una pregunta en un momento determinado te puede ayudar a discernir si estamos hablando U otro, podemos reforzar la sensación que tenemos sobre un contexto básicamente observando información, si quieres, es casi inapreciable, pero eso el ser humano lo hace muy bien, las computadoras todavía se encuentran relativamente distantes.
Como digo, estamos en una fase muy temprana, también desde el punto de vista de experiencia de usuario, es muy importante que la historia, comentábamos antes, la parte del reconocimiento de Word, esto ayuda en orden, Porque antes, pues, los sistemas funcionaban de una manera más afectuosa, digámoslo así, tenías que repetir la anotación, tenías que repetir el comando. El hecho de que ahora seas capaz de comunicarte, pues abre un camino enorme. Esto va a facilitar el que seamos capaces de profundizar en esa contextualización de la interacción con los asistentes, pero, como digo, nos encontramos a que seáis bastante temprano.
Sí, yo recuerdo, no sé si estoy seguro que también, es entrenar el IBM el Via Voice, el programa este reconocimiento de voz, hace quince años, veinte años, y tenías que leerle párrafos y párrafos y párrafos hasta que empezaba a entender un poco, un poco tu voz, y cuando leías una palabra de una forma un poco rara, era un desastre. Y ahora un móvil casi en en en la otra parte de la habitación te puede detectar, como que decías tú, cambias de idioma, vuelve y te corrige cosas que has dicho antes, es el salto de cualidad Es es efectivamente, como decías tú, exponencial.
Sí, ya te digo, en el caso del reconocimiento de voz, vas en el coche, es Tienes que buscar una dirección, le das un comando de voz para que te diga cómo llegar a a cierto sitio y, a pesar de su entorno ruidoso, Sin interacción, sin interacción manual, es capaz de darte la dirección, estás en casa con la familia de nuevo. Todo los que llevamos utilizando los Los accidentes desde hace algún tiempo, la diferencia es solamente significa.
Eso es. Y una última pregunta técnica, por lo que yo puedo entender desde desde fuera, desde muy fuera. Parece que hay como dos campos, uno el que está intentando en en tema de de aprendizaje automático, ¿no? Inteligencia artificial. Me refiero, uno que está intentando que se estandaricen los procesos visibles, es decir, el el ordenador o o la máquina, ¿no?
Esta caja negra, es, de unos datos, devuelve otros datos, es decir, cuáles son los trazos y por qué toma las decisiones que toma, por qué, por ejemplo, usando el ejemplo que decías tú, por qué ha decidido que esta foto es de un gato, cuál es el momento clave que dice, que lo identifica como un gato y no como, pues, un paisaje, y y otros que dicen que no, que todo lo contrario, que hay que dejar que la máquina intente como aprender de forma opaca, no sé si si tiene sentido decirlo así, porque los resultados van a ser como más puros.
Es, bueno, al margen de, digamos, la, digamos, de la perspectiva sistemalógica, es decir, de de a qué tipo de conclusiones nos llegan, a qué tipo de algoritmos, que sería muy interesante de valorar. Existe, digamos, alguna aproximación mucho más sencilla, que no creo tanto que sea como una dicotomía, no creo que sea decir si lo hacemos caja blanca o caja negra, que es lo llevamos en en términos técnicos, sino que es, más bien, en qué contextos tiene sentido aplicar una u otra. ¿Qué quiero decir? Según el tipo de de problema al que estemos enfrentando, que de hecho sería una conversación interesante, para qué tipo de problemas son interesantes este tipo de algoritmos, bueno, según el tipo al que nos estamos enfrentando, a veces no tenemos ningún tipo de de de meta final, con lo cual no tiene sentido hablar de caja blanca porque no sabemos a dónde vamos. Tiene que ser El algoritmo, el que básicamente provee espacios dimensionales de de de orden, digamos, gigantesco Y, de alguna forma, eventualmente llega una solución en la que realmente no estamos tan interesados en saber cómo se ha llegado, sino sencillamente que la encuentre.
En otros casos en los que existe un riesgo inherente de decisiones que se pueden tomar, por depende del del tipo de aplicación. Necesitamos ser capaz de, Digamos, contabilizar cuál fue la secuencia de decisiones que han llevado a ese resultado, ¿vale? Entonces, insisto, esto es un tema también, Todavía estamos en base muy temprana, hay una un aspecto, si quieres, de de vistamología, de a dónde queremos llegar en función de qué algoritmos apliquemos, luego, desde un punto de vista mucho más sencillo es, hay decisiones que necesitamos ser capaz de validar, que necesitamos saber por qué hemos llegado ahí, Por el tipo de conclusiones o o la aplicación de esas decisiones, que cómo van a afectar, y hay otros problemas en los que no no es tan crítica esta Spec, Por ejemplo, hemos publicado, no sé si he sido esta semana ya, pero vi el anuncio público el otro día, hemos hecho unos trabajos con la NASA, en la que estamos enviando Machine Learning para analizar información que recogemos con telescopio. Pues, en realidad, ahí no es tan importante, a lo mejor, entender cómo se llega a una solución, a un dato interesante, sino el encontrarlo, porque el espacio de búsqueda es infinito, básicamente, ¿no?
Y estamos hablando de temas de asistente, en la que Te tiene que indicar si tienes que tomar la a uno para ir a tal sitio o tomar una alternativa, pues, a lo mejor quieres saber por qué y tienes que mostrársela al usuario para que él finalmente valide, comprendes, ¿no?
Exacto. Yo creo que va a ser un un poco polémico cuando los los, por ejemplo, un un caso un poco más extremo o o que la gente lo va a entender dentro de cinco o diez años, que es cuando hay muchos coches autónomos, es decir, por qué este coche autónomo ha girado hacia la izquierda o ha girado hacia la derecha y se ha estrellado, ¿no? O o o, o sea, entre las compañías de seguros, los políticos, va a haber mucha, mucha discusión, yo creo, pues, sobre este tema, así que a ver a ver cómo cómo evoluciona. Y ya para acabar, Andrés, muchas gracias. Te te voy a hacer dos preguntas, ya a nivel como de carrera profesional.
Si alguien quisiera dedicarse a este tipo de tecnologías, bien desde análisis de datos o desde ingeniería desde la academia, etcétera. ¿Qué tipos de estudios deberías de perseguir? Imagínate que alguien que está ahora, que tiene dieciséis años, una chica, un chico que tiene dieciséis, dieciocho años, es que se plantea, ve claramente cómo esto es el futuro, se lo dicen sus padres, lo dicen sus profesores, lo lee, lo entiende, etcétera, ¿dónde tendría que matricularse? Hacia qué ramas debería de dirigirse?
Bueno, estos, lo que es procesamiento de de datos y machine learning, hay multitud de de de áreas. Es. Evidentemente, nos venimos para bajar en la aerolínea, donde tu base matemática tiene que ser fundamental, entonces, cualquier carrera de matemáticas, aulas aplicadas, estadísticas, Puede ser un área de de de formación básica, si vas a trabajar en esa parte de algoritmo, con los aspectos más relacionados con programación. Ten en cuenta que, pues, Hay todo un conjunto de profesionales que trabajan. Entonces, yo creo que de una manera significativa hay un efecto que que a veces se nos olvida, pero que creo que ha sido también diferencial en los últimos UPS.
Hoy en día, cualquier persona puede tener acceso a cualquier tipo de información para desarrollarse en esta área, la va a tener disponible en Internet. Va a tener el software, básicamente con un ordenador barato y un sistema operativo como Linux, que que no tienes que pagar, que es gratis, tienes acceso a tu tipo de tecnología, pues básicamente, con doscientos o trescientos euros te puedes poner a trabajar y puedes cambiar tu vida y la de la humanidad entera con un poco de de ingenio, ¿no? Porque toda la información, todas las herramientas, entonces, más allá de la formación formal, e, igualmente, efectiva y necesaria en muchos casos, hoy en día, gran parte de estos desarrollos tecnológico, estas innovaciones se producen en el mundo de las comunidades y en el mundo de Internet. Si a eso le complementas con formación técnica en Produvación, en algunos casos, sistemas distribuidos, porque los algoritmos que se programan requieren computación, que no está disponible en una única máquina, sino que requieren uso de App Center y de de Cloud, pues, Pues, es necesaria y la parte más, digamos, acorde del núcleo sería la parte de Algoriña donde se está haciendo un trabajo, es Pues, realmente muy fuerte.
Aquí hay un dato curioso, ¿vale? Que a mí me me sorprendió y tiene muchas noticias. Y si echas un vistazo a los algoritmos y cómo se desarrollan las publicaciones, aunque Aunque toda la gente que trabaja en esta área suelen ser ingenieros, matemáticos, lo cierto es que muchas de las principales mejoras que se hacen es Son casi inspiracionales, es decir, tienes una serie de parámetros y en un momento determinado decides utilizar una aproximación en vez de otra, En realidad no tienes muy claro, no tienes una justificación en base a una deducción matemática, sino que sencillamente crees que puede ser interesante, la prueba, La evalúa y efectivamente funciona, con lo cual, más allá de la formación, más allá de tener acceso a todos los recursos, hoy por hoy, en la en la fase en la que estamos, la creatividad, es la inspiración, el entender un poco el dominio más allá de lo que son los algoritmos, está también siendo muy necesario. Con lo cual, pues bueno, creo que Multitud de profesionales, gente joven, gente que quiera posicionarse en nuevas áreas, va a poderse hacer, porque lo usan documentación, los El material, las herramientas están disponibles en Internet, casi a veinte gratis, y se puede probar todo tipo de ideas de una manera muy interesante, y Y tendremos que combinar, y volvemos un poco a la conversación del del desde el principio, tendremos que combinar gente con conocimientos técnicos, gente con conocimientos en matemática y estadística, con gente creativa que sea capaz de darle una aproximación alternativa a problemas que, le digo, de de por sí son muy complejos.
Exacto. Y ya por último, para acabar, dime, yo creo, por ejemplo, el periodismo, ahora yo creo que va a llegar un momento en que muchos artículos o muchas de las cosas que que escribimos y que publicamos, OS, etcétera. ¿Lo van a poder hacer o lo están haciendo ya en algunos campos un script o un programa informático? Dime alguna profesión así que te venga a la cabeza o algunas profesiones, un par de ellas, que que tú crees que nunca, nunca, nunca, o bueno, casi nunca, a lo mejor en el siglo veinticuatro o sí, es, ¿van a ser sustituidas nunca ni por un script informático ni por ni, como te diría yo, con un por un brazo robótico con ruedas?
Es. Bueno, yo tengo formación técnica y y esto creo que me hace, básicamente, una persona muy optimista. A lo mejor en otro tipo de formaciones, pues, hay un poco más de pesimismo en cuanto a al futuro, pero los que trabajamos los que trabajamos en tecnología, en ciencia, básicamente, Mixsionado con mucha vocación y con mucha optimismo acerca del futuro. Siempre pensamos que hemos conseguido cosas visibles por Al punto de nosotros hemos llegado, y mañana va a ser mucho mejor. ¿Qué quiero decir con esto?
Que a pesar de que, pues, puedan existir preocupaciones de de cómo va a afectar la tecnología al mundo en que vivimos, Si te echas el vistazo atrás, con todas las cosas que aún nos queda por mejorar, básicamente, los últimos dos mil años hemos ido mejorando y en los últimos cincuenta años de manera exponencial. Así que, por responder de una manera bastante amplia, pues es cierto que muchas profesiones se verán afectadas, pero, Pero también, en el sentido positivo, se van a abrir nuevas oportunidades y veremos cómo la tecnología, más que acabar con ciertas profesiones, lo que va a ocurrir, creo yo, es que vamos a tener una especie de inteligencia aumentada, en la que las máquinas, las computadoras nos van a ayudar a hacer nuestro trabajo, nuestro Entretenimiento a nuestra vida cotidiana mucho mejor. Estamos aún en una fase muy temprana, como te decía antes, ha habido mucho interés y esto a veces distorsiona un poco los tiempos. Yo creo que estamos todavía muy lejos, que las máquinas sean capaces de contextualizar como hablábamos antes, que sean capaces de entender los aspectos tutoriales, idiomas, incluso sociales, ¿vale? Así que, en fin, veremos, no no no sé hasta qué punto va a haber una una respuesta definitiva a esto.
Bueno, Andrés, Almo, muchísimas gracias por acompañarnos hoy. ¿Dónde te puede encontrar la gente? La gente que quiera, por ejemplo, seguirte en redes sociales hacerte alguna pregunta o leer tus papers.
Pues, yo utilizo Twitter y, de hecho, suelo curar mucha información, tipo tecnológico, para startup también, es por por interés profesional y me ayuda también a compartir mis intereses con con la gente que con la que interactúo. Entonces, en Twitter soy Dávila Grau, Y allí podrán encontrarme un poquito de información sobre todos estos temas que hemos estado hablando. Y si necesitan hacerle alguna pregunta o sugerencia, pues también es una buena forma de interactuar, por supuesto, en LinkedIn, este tipo de cosas, creo es la mejor la mejor forma de estar al día hoy.
Bueno, vamos a poner el enlace a todo de lo que ha estado comentándonos en la entrevista hoy en las notas del episodio, para que lo podáis encontrar, lo podáis tener. Y, de nuevo, ya muchísimas gracias, de verdad, no puedo agradecerte suficiente que hayas estado con nosotros. Muchas gracias, Almo.
Gracias a ti por la entrevista.
Adiós.
Es. Es. Es.