00:00 /30:13

Esta semana vuelve a ser protagonista la Inteligencia Artificial. De hecho fue elegida el año pasado como palabra del año, presente en las aulas, las fábricas, nuestros bolsillos.

Es una realidad cada vez más presente en nuestras vidas... ¿Vivimos en la era de la IA? ¿Alguna amenaza? A esto y mucho más conversan nuestros invitados de hoy: Nuria Lloret, catedrática de la UPV y subdirectora del Instituto IDF, y Javier Palanca, investigador del Instituto VRAIN.

Además, contactamos también entrevistamos a Ramón Salaverría, catedrático de la Universidad de Navarra y presidente del Comité de Expertos del Consejo de Europa sobre sostenibilidad de los medios periodísticos.

-------

5ª TEMPORADA

"Revisado por pares" es un programa en el que investigadores de la Universitat Politècnica de València (UPV) pasan por nuestros estudios para comentar, de dos en dos, la actualidad científica. Una agradable conversación para estar al día de los avances en el mundo de la investigación académica.

Con la colaboración de la Fundación Española para la Ciencia y la Tecnología (FECYT) del Ministerio de Ciencia e Innovación.

Transcripción

El año pasado fue elegida como Palabra del Año, aunque más bien habría que decir Palabras. También fuimos muchos los que a finales de 2022 empezamos a trastear con el chat GPT, una inteligencia artificial con la que puedes mantener conversaciones y que podría haber redactado, por ejemplo, esta entradilla a este revisado por pares. La inteligencia artificial está presente también en las aulas, en las fábricas, en

nuestros bolsillos. Es una realidad cada vez más presente en nuestras vidas, aunque de ella empezó a hablarse ya en 1956, fecha en que el informático de Estados Unidos John McCarthy acuñó este término. Casi 70 años después, ¿vivimos en la era de la inteligencia artificial? Se lo preguntamos hoy a Nuria Lloret, catedrática de la UPV y subdirectora del Instituto IDF, y Javier Palanca, investigador del Instituto

Brain. Comenzamos Revisado por Pares. Revisado por Pares, un programa presentado y dirigido por Luis Durano, en UPV Radio, radio.upv.es. Nuria, Javi, bienvenidos de nuevo a Revisado por Pares. Hola, muy buenas, ¿qué tal? Buenos días. Mil gracias a los dos por hablar de inteligencia artificial, que bromeábamos incluso que quizás sea este el último podcast, que igual la inteligencia artificial nos sustituye también

aquí. Bueno, eso es lo que la gente se cree, pero bueno. Ahora vamos a hablar sobre ello. Pero la primera pregunta muy genérica, ¿estamos en la era ya de la inteligencia artificial, Nuria? A ver, desde el 56 está hablando de esto. La verdad es que la tecnología ahora está mucho más preparada para que funcione y efectivamente los avances de los últimos años han sido espectaculares, pero todavía no hemos visto ni un 10% de lo que realmente va a ser la

inteligencia artificial. Ahora estamos jugueteando, yo creo que estamos haciendo como los niños, haciendo provicheos, viendo cómo va, pero vamos, los próximos años sí que van a ser espectaculares a nivel de uso diario, yo creo. Que le llegue a la población y que entienda realmente la población para qué sirve esto de la inteligencia artificial. Estamos hablando de un 10%, Javi.

Por tanto, ¿hablar hoy de una vida sin inteligencia artificial? Sí, claro que es posible. ¿Y en el futuro? Es posible, pero yo creo que no nos damos cuenta de que en realidad ya en nuestro día a día tenemos la inteligencia artificial metida por todas partes. No nos damos cuenta de que nuestros móviles ya tienen inteligencia artificial, que podemos mantener conversaciones ya con ellos, podemos pedirles cosas a los asistentes virtuales.

Google, el propio buscador, es una inteligencia artificial que sabe encontrar información en base a nuestras búsquedas, es decir, la tenemos muy metida dentro. Claro, es posible, pero no sería la vida que tenemos ahora. Claro, obviamente posible sería, pero efectivamente sería una vida diferente y cada día va a más, cada día la inteligencia artificial impregna más aspectos de nuestra vida.

¿Qué nos ofrece hoy? Porque hablabais de nuevo de esa cifra del 10%, ha comentado ahora Javi, y lo decíamos también en la entradilla, en nuestros bolsillos están llenos de inteligencia artificial, pero ¿qué es eso que no pensamos que pueda ser inteligencia artificial? Y detrás sí que lo hay. Pues casi todo lo que utilizamos en Internet lleva inteligencia artificial.

Todo lo que es temas de tendencias, todo lo que nos aparece en Instagram que no hemos pedido, todo lo que es los temas de e-commerce, o sea, en el día a día del consumo está la inteligencia artificial, donde hay dinero siempre está la inteligencia artificial. Lo que ocurre es que mayoritariamente la gente piensa que no está tan enfocado a las cuestiones económicas, pero sí, pero hay también toda una parte que es lo que yo creo que es más interesante

y es todo lo que es la detección, por ejemplo, en salud. Ahí va a haber un trabajo muy importante y ya se está utilizando incluso para determinar tipologías extrañas de cáncer, cosas así, y esto mucha gente todavía desconoce que se utiliza. Y ahí hay muchas perspectivas y muchas oportunidades también. Javi, sí, efectivamente hay mucha gente que piensa que la inteligencia artificial básicamente

es o un robot o alguien con quien puedes conversar. Y eso, aunque es algo que está ahora muy de moda, no es la única inteligencia artificial que existe. Existe desde hace muchos años y en diferentes ámbitos, aspectos, en la bolsa, en medicina y hemos hablado también en muchísimos aspectos. Claro, a finales del año pasado, a raíz sobre todo del que Fundeu dijera, o la RAE perdón, seleccionó ligera inteligencia artificial como palabra del año también, a raíz del

chat GPT, veía un titular, creo que era en el país 2022, el año que aprendimos a hablar con las máquinas. Quizá no. Siempre digo lo mismo, que íbamos hablando con las máquinas desde que los buscadores de internet existen, como mínimo.

Que no nos damos cuenta que detrás está el famoso algoritmo. ¿Y qué es ese algoritmo? No es ni más ni menos que una inteligencia artificial que sabe entender aquello que estamos buscando y seleccionar las webs que más nos interesan para ese tipo de búsqueda que estamos haciendo. Eso ya es un tipo de inteligencia artificial. Y es un riesgo, Nuria. No, yo es que a mí el amarillismo con la tecnología me produce urticaria.

Entonces, yo sé que hay muchísima gente que vive y los medios de comunicación y tal les interesan las noticias más bien amarillas. No de la inteligencia artificial nos va a quitar el trabajo o nos va a tal. No, realmente la inteligencia artificial es como cualquier tecnología, se puede utilizar bien o mal.

Si la utilizas bien es fantástico. Entonces tenemos que volver a la raíz de todo a la gente que educarla para que sepa utilizar las cosas. Y ahí es donde estamos. Pero la tecnología no es ni buena ni mala. Siempre es según como la uses. Y la inteligencia artificial es muy buena o puede ser fatal. Entonces, ahí tenemos que ver cómo educamos y cómo hacemos para que realmente se utilice de forma correcta. Pues de comunicación vamos a hablar también un poquito a lo largo de los próximos minutos.

Y estas dos últimas preguntas, y también parte de la respuesta de Nuria, se las hacíamos y nos respondía a nuestro siguiente protagonista. Con él hablamos también del chat GPT, de periodismo, de docencia. Le escuchamos. Bien, en este programa que estamos dedicando a la inteligencia artificial, al chat GPT, hablamos con una de las voces más autorizadas de este país en periodismo, en medios digitales.

Él es catedrático en la Universidad de Navarra, investigador. También hemos recibido docencia por su parte aquí en esta universidad en algún curso que nos ha impartido. Estamos hablando de Ramón Salavarría. Ramón, muy buenas. ¿Qué tal? Es un gusto estar con vosotros de nuevo, habría que decir.

Eso es. Y muchísimas gracias. La primera pregunta, Ramón, para el profesional de la comunicación, para el estudiante de hoy, de comunicación audiovisual, de periodismo. ¿La inteligencia artificial es un gran aliado o una gran amenaza? Es una herramienta y como toda herramienta se puede utilizar bien o mal.

Cuando uno quiere comer un chuletón necesita un cuchillo y el cuchillo es una herramienta muy útil para poder comer carne, pero al mismo tiempo un cuchillo mal utilizado puede causar un perjuicio muy grande a otras personas, por ejemplo. Con la inteligencia artificial, en realidad como con cualquier tecnología de la comunicación, ocurre algo similar.

Lo que pasa es que la potencia de esta tecnología es muy grande y por tanto el peligro y también el potencial de una tecnología está directamente relacionado con su capacidad de generar consecuencias. La inteligencia artificial tiene una capacidad poderosísima en este sentido. De hecho, la inteligencia artificial es un conjunto de tecnologías, no es una única tecnología, sino que es un conjunto de tecnologías que de alguna manera están introduciéndose en distintas fases del trabajo periodístico

y por tanto el potencial de transformar el trabajo de investigación, de producción, de distribución de los contenidos periodísticos es enorme. Es algo que estamos empezando a ver en los medios y que por tanto necesitamos en primer lugar entender, ver cuáles son las posibilidades que tiene y también los peligros y amenazas que plantea. Desde la irrupción del chat de GPT todos hemos, entre muchas comillas, trasteado con

él, pero se ha generado también mucha discusión y debate sobre si seremos capaces de discernir, de distinguir entre una noticia generada por este chat y una noticia generada por ti o por mí. La respuesta es obvia, ¿no, Ramón? ¿O no tanto? Bueno, no sé.

Para mí no es obvia, desde luego. Me parece que va a llegar a un punto en que va a ser indistinguible o incluso que la distinción entre un texto generado automáticamente por inteligencia artificial, por una tecnología como GPT-3 o cualquiera que venga a continuación y un texto generado por humanos, pues probablemente sea, por una parte, una mayor corrección en el texto generado automáticamente que el que elaboran mediante procedimientos humanos las personas.

Serán más correctos ortográficamente, sintácticamente, gramaticalmente los textos elaborados por máquinas, pero al menos de momento, yo creo que por largo tiempo todavía, esos mismos textos van a ser mucho más insípidos, menos capaces de evocar emociones, etcétera, y también menos ligados, en el ámbito específico del periodismo, a la observación directa, a la información actualizada.

¿Por qué? Pues bueno, porque estas herramientas de inteligencia artificial vinculadas a la generación automatizada de texto, en este caso, pues tienen unos procesos de elaboración que no se acomodan bien con la información de ultimísima hora. Beben sus contenidos de repositorios, de contenidos como la Wikipedia, etcétera, cuyo ritmo de actualización generalmente es más demorado y no son los del periodismo.

Por lo tanto, una herramienta como GPT-3, por ejemplo, puede ser muy buena para hacer un análisis de los cinco puntos básicos de no sé qué asunto, pero para informar sobre algo que acaba de ocurrir me parece que todavía un buen reportero claramente está muy por delante de esa máquina. Por lo tanto, hablaba también hace unos meses con Carmen Torres, una de las mayores especialistas en la inteligencia artificial en nuestro país, y nos venía a decir que pretender esos titulares

que cada vez una máquina hace mejor esto que un hombre, una máquina titula mejor una noticia que un hombre o una máquina opera mejor que un cirijano, que esos titulares como que hacen mucho daño de cara a la comprensión y al resultado final de lo que puede llegar a aportar la inteligencia artificial y de la mano indispensable siempre del ser humano, pero que hay que tener un poquito de cuidado desde el ámbito de la comunicación con cómo se comunica también

el poder de la inteligencia artificial. Pues estoy muy de acuerdo con esa reflexión. Me parece muy muy sensato alertar sobre ese discurso que plantea una supuesta infalibilidad de los sistemas gestionados por inteligencia artificial y en cambio una falibilidad humana propia de nuestra condición.

No debemos olvidar que los sistemas de inteligencia artificial, en definitiva, son diseñados por humanos y al final los elementos que ponderan y que orientan los resultados que producen posteriormente de manera automática esas tecnologías están diseñados por personas que consideramos falibles. Es decir, al final detrás de la máquina siempre hay una persona y por tanto en el diseño de esas tecnologías también caben sesgos y por supuesto y de hecho se han identificado,

caben olvidos, caben muchos elementos que terminan no generando un contenido supuestamente objetivo como podría parecer. Son más precisos, son desde luego mucho más rápidos, son muchísimas más capaces de generar más volumen, pero también es verdad que olvidan contenidos que pueden resultar relevantes, claves para entender en su conjunto un fenómeno, que tienen también una dificultad para conectar emocionalmente con los destinatarios.

Ese tipo de cosas las máquinas, no voy a decir que no las hacen, de momento voy a decir que de momento no las hacen y por tanto me parece que la fórmula adecuada es buscar una complementariedad y no una sustitución del factor humano en los procesos productivos y en particular en los del periodismo.

Y por tanto no tratar de trasladar la idea de las máquinas no sustituyen sino que las máquinas nos complementan. Esta es la idea. A ver, yo pienso que también los que plantean un rechazo abierto a las tecnologías emergentes y en concreto el conjunto de las tecnologías de la inteligencia artificial, todos aquellos que ven una amenaza a los fundamentos del periodismo y de su calidad, me parece que como ha ocurrido en muchas otras ocasiones con la incorporación de nuevas tecnologías, más pronto que tarde van a terminar asumiendo

yo mismo esas tecnologías dentro de su trabajo. Es indiscutible, por ejemplo, yo que sé, las tecnologías de transcripción de voz a texto, tecnologías estrictamente de inteligencia artificial. ¿Qué periodista no ha soñado en su trabajo que de repente haya una máquina que automáticamente lo convierta en un texto sin errores? Eso es un sueño porque ahorra muchísimo tiempo y es un tipo de trabajo de carácter mecánico que es necesario para

hacer un buen trabajo periodístico pero que desde el punto de vista del valor añadido, del análisis del contenido, pues no tiene mucho. Lo que te hace es facilitar una actividad enormemente enojosa desde el punto de vista de la cantidad de horas y de trabajo que supone. Bueno, pues si tenemos una máquina que nos lo hace, bienvenido sea.

Y estoy absolutamente convencido que incluso los más recalcitrantes opositores a la incorporación de la inteligencia artificial en el trabajo periodístico le harían la ola. La van a utilizar, eso es evidente. Viene la ola, Ramón. En las aulas universitarias la inteligencia artificial también es un aliado o todo depende también, como comentabas al comienzo de esta entrevista, del uso que se haga de ella.

Recientemente leíamos a Lluís Codino una reflexión muy buena que tiene mucho potencial también en las aulas, Ramón. Absolutamente. La reflexión es exactamente la misma. De hecho, se aplica al periodismo, se aplica a la educación y se aplica a cualquier ámbito, efectivamente. Debemos aprender también los profesores y los alumnos a manejar con responsabilidad y con inteligencia estas herramientas, porque nos van a permitir hacer análisis más profundos, nos van a permitir correlacionar

adecuadamente materiales, nos van a poder, yo que sé, la barrera, por ejemplo, lingüística para poder trabajar con fuentes bibliográficas de otros países que hasta ahora no eran accesibles porque podrían estar escritas en lenguas que no dominamos. Ese tipo de barreras van a ir cayéndose y tenemos que aprovechar ese potencial para tratar de hacer una educación más orientada al estímulo, a la inteligencia y a la creatividad.

Pues con esa reflexión cerramos esta parte de nuestro Revisado por Pares, protagonizado en este caso por Ramón Salaverría. Ramón, muchísimas gracias por atendernos a UPV Radio en este caso, a la Universitat Politècnica de València y volvemos a escucharnos o vernos próximamente.

Es un gusto, Luis. Hasta la próxima. Muchas gracias. Hasta la próxima. Son muchos los titulares que deja esta entrevista, pero si os parece, nos quedamos con la última reflexión, que yo creo que resume. Al final debemos aprender a manejar estas herramientas, sea en el periodismo, en el aula, en nuestra casa, en la pura investigación, desarrollando máquinas con las que hablemos.

Esa es la clave. También ha hablado Ramón de los sesgos que hay detrás también del desarrollo propio de la inteligencia artificial, si es distinguible o indistinguible un titular, pero eso ya es más en concreto en el campo de la comunicación. Pero estas ideas generales es por donde va la investigación hoy y la aplicación de hoy y de mañana, Javi. Claro, efectivamente.

Aprender a utilizar esas tecnologías es algo que vamos a tener que hacer y que llevamos haciendo mucho tiempo. Es decir, cuando apareció la Wikipedia ya se habló de que se va a cargar la educación, los alumnos ya no van a aprender nada y no ha pasado eso. Hemos aprendido a integrar esta herramienta dentro de nuestro día a día.

Cuando apareció Photoshop iba a desaparecer la fotografía profesional y para nada, la han integrado como una herramienta imprescindible. Pero es que al final es una revolución industrial más y aún me acuerdo cuando mi abuela me contaba que cuando apareció el primer automóvil en el pueblo la gente salió a la calle a gritar que las máquinas se han escapado de la fábrica y al final es obviamente una revolución en el transporte lo que supuso el automóvil también.

Todo este tipo de tecnologías las vamos a ir integrando día a día y aprendiendo por supuesto a complementarnos con ellas, pero no suponen para nada una amenaza. ¿Tiene sentido, Nuria, hablar de inteligencia artificial que pinte, que hable, que escriba mejor que Nuria, que Javi, que Luis, que los humanos? Es que yo creo que no va a ser ni mejor ni peor.

O sea, a mí incluso yo tengo un pensamiento sobre esto y me preocupa más que, más allá de lo que pueda o no pueda hacer, quién está detrás de la tecnología porque ahí es donde tenemos que preocuparnos. O sea, en el momento en el que todos desarrollamos, investigamos, estamos en una politécnica, la ciencia abierta, pero quién está financiando muchos de estos proyectos.

Porque, por ejemplo, ChatGPT, uno de los socios de la startup es Elon Musk. Y este señor no solo está en esto, está en casi todos los proyectos que hay inteligencia artificial más punteros. Está él, también está Bill Gates, también está tal. O sea, yo creo que que hagan las cosas no me preocupa demasiado porque, como bien ha dicho mi compañero, estamos en la quinta revolución industrial ya, la del ser humano y la inteligencia artificial.

Los humanos nos adecuamos siempre a las características. Ahora bien, los monopolios que se están creando detrás de todo el tema de la tecnología sí que es más preocupante y eso sí que es muy desconocido. Entonces, yo creo que haremos, pues bueno, desde luego pintar, pues yo pinto fatal, así que cualquier cosa de inteligencia artificial pintará mejor que yo. Pues vamos de la mano ahí. Claro.

Entonces, en otras cosas igual no, pero lo que me preocupa es quién controla todo este tipo de cosas y que no esté siempre en las mismas manos. Y eso sí que yo creo que ahí tenemos un trabajo que hacer las universidades, las instituciones que investigamos, el tema del conocimiento abierto. Me gustaría que la inteligencia artificial nos ayudara más también a esto, ¿no? A abrir esos campos. Esa sí que es una amenaza, Javier. Podría ser una amenaza si de verdad estuviera todo en manos de grandes empresas.

Efectivamente, pues detrás de OpenAI, que es la gran empresa que ha hecho chat, tpt y todo esto, pues sobre todo está Microsoft ahora mismo, que ha puesto muchísimo dinero. Y de hecho ya se oyen voces de que lo van a integrar en su buscador Bing, que no usa nadie, para ver si así consiguen que sea utilizado.

Pero también hay que ser un poco positivos y saber que también están saliendo alternativas completamente abiertas y libres. Pues ya hay una alternativa para la generación de imágenes que cualquiera se puede descargar en su casa, la puede entrenar con tu propia cara para que te haga imágenes donde tú apareces. Ya hay un modelo también de lenguaje parecido a chat gpt o a gpt3 en concreto, completamente libre, que al final hay una serie de filántropos por ahí que son los que ponen el dinero, porque por desgracia

sí hace falta dinero para entrenar este tipo de modelos que son tan grandes. Pero bueno, acaban a disposición de todo el mundo y eso nos abre una pequeña puerta de decir, bueno, aunque las grandes empresas tienen una cierta ventaja a la hora de disponer de estas tecnologías, cualquiera en breve podremos acceder a ellas sin ningún tipo de coste. Quizá haya que comunicar mejor esas otras alternativas.

Exactamente. Por supuesto, muy importante, muy importante. Las grandes empresas los tienen muy fácil. Y los medios de comunicación tienen que vivir de algo, entonces el que financia los medios de comunicación tiene más posibilidades. Y hablaba también Ramón de la infalibilidad de la máquina y la falibilidad humana. A ver, aquí para nada tenemos que pensar que las inteligencias artificiales son infalibles,

ni mucho menos. Es más, cuando rascamos un poco dentro de una inteligencia artificial, si supiéramos lo que hay dentro, a lo mejor alucinaríamos, porque lo único que hay es una fórmula matemática que calcula probabilidades. Y una probabilidad, como todos sabemos, siempre es un porcentaje de éxito o de fallo, con lo cual siempre vamos a tener inteligencias artificiales con un porcentaje de fallo posible.

Siempre se van a poder equivocar, igual que efectivamente se equivoca un humano, por no hablar de, como muy bien ha comentado Ramón, de todo el tema de los sesgos que hay introducidos en el propio entrenamiento de una inteligencia artificial. Si la hemos entrenado con conocimiento humano y ese conocimiento humano está sesgado... Obviamente la inteligencia artificial, si ChatGPT, aprende de X contenidos únicamente, el resultado de la redacción o de...

voy a decir una barbaridad, de un TFM. Sí, sí, si no, no. No es tan bárbaro, no es tan bárbaro. Lo he dejado ahí caer, sí, sí. Cuidado con eso, porque salió una noticia esta semana pasada que la ciudad de Nueva York ha prohibido en sus colegios, universidades, etc., el uso de ChatGTP.

Con lo cual, que a mí me parece una tontería, porque ponerle vallas al campo nunca ha subfuncionado y basta que tú a alguien le prohibas algo para que lo gaste a tope. Parece que no se acuerdan de la ley seca, pero bueno, ahí estamos, ¿no? La historia nunca la recuerda nadie, pero efectivamente ahí hay mucho tema para rascar.

Es que es equivalente a que prohibieran usar Google para hacer su trabajo, no tiene ningún sentido. Hay que aprender a integrar esa herramienta. Hay que educar a la gente para que sepa en valores. Lo que pasa es que, como es antiguo esto, estamos hablando de cosas muy modernas y educar en valores suena súper rancio, pero es que la realidad es que al ser humano o lo educamos o puede utilizarlo todo de muy mala manera. Y ojo, que a lo mejor los docentes también tenemos que cambiar la forma de evaluar y

adaptarnos a estas nuevas tecnologías, que siempre queremos que el alumno no haga trampa, no cambie, pero nosotros quedarnos tal cual estamos bien cómodos. Obviamente no, también tenemos que pensar, obviamente nos han de ayudar, el sistema nos ha de ayudar, a lo mejor con grupos más pequeños, donde la evaluación sea más directa y no todo por escrito, por ejemplo.

Es decir, hay muchos mecanismos que hay que plantearse. Hay que reciclarse todos. Claro, que la revolución nos llega a todos. Claro, efectivamente, efectivamente. Ahora, eso sí, lo comentaba también Ramón detrás, pongamos de nuevo un caso, de un TFG, de una reacción, de una noticia periodística redactada por este chat.

Lo que no habrá nunca es la emoción, ¿o sí? Podrá haberla, podrá haberla. En nuestro grupo de investigación tenemos toda una línea de investigación dedicada a las emociones, sobre todo a la detección de emociones, pero también obviamente a la simulación de emociones por parte de una inteligencia artificial. Entonces, es una línea que tiene todavía mucho recorrido, pero obviamente aprenderemos también a integrar ese tipo de cosas.

Sí es verdad que a día de hoy, chat que petee, en cuanto le aprietas un poco, se le ven las costuras, obviamente. No te hace textos con mucha profundidad. Ponías el ejemplo del Quijote, ¿no? Hace poco. Por ejemplo, sí, sí, yo le pedí a chat que petee que me contara el Quijote como si hubiera ocurrido en la luna, por ejemplo.

O luego le pedí que me lo contara como si fuera un payaso. Es decir, le puedes… O de reescribir incluso la historia, ¿no? Efectivamente, puedes pedirle cuéntame la Segunda Guerra Mundial como si Hitler hubiera sido el bueno. Todo ese tipo de cosas se las puedes pedir y te va a generar historias. Ahora ya digo que enseguida se le ven las costuras porque la profundidad que te da de momento obviamente va a mejorar, pero de momento la profundidad que te puede dar es limitada.

Por tanto, el principal desafío de la IA, Nuria, hablábamos, hemos hablado otras veces, muchas otras veces de la componente ética de la inteligencia artificial, pero también retomando esa entrevista con Carmen Torres, nos decía que uno de los mayores retos y desafíos es esa parte ética de la que Carma Torres es referente, combinar bien las capacidades humanas con las capacidades de la máquina, que son bastante distintas.

A ver, realmente yo creo que ahí está la base de esto, ¿no? Cuando se habla de… Sobre todo a mí me preocupa cuando se habla de una manera muy frívola de la inteligencia artificial va a quitar puestos de trabajo. Pues no. La realidad es que el mundo cambia, las revoluciones industriales han hecho cambios y los seres humanos vamos adecuándonos. Entonces la inteligencia artificial tiene que ayudar a los humanos a tener mayor calidad

de vida porque todas las revoluciones nos han permitido tener, digamos, en algunas cosas mejor calidad de vida y ya lo hace y habrá que decidir para qué queremos y en qué puestos de trabajo y cómo se necesita. Y luego también hay que asimilar que efectivamente cualquier tecnología y más la inteligencia artificial eliminará X puestos de trabajo, pero tengamos claro que creará otros.

Entonces reciclémonos, reciclemos a la gente, preparemos a la sociedad y pongámonos en marcha para esa nueva forma de trabajar. Y ahí es donde está… A mí me parece que siempre hay que ser positivo y pensar en, vale, se cierra esta puerta pero se hablen 25 más. Y la inteligencia artificial nos abre un montón de posibilidades de trabajar de otra manera, incluso con cosas que ni siquiera todavía creemos y sabemos.

O sea, es que el problema como docentes es que seguramente estamos formando a gente que va a hacer cosas que ni siquiera sabemos que se pueden hacer ahora mismo. Y preparar a la gente para dentro de cinco años ahora mismo es complicado en temas de tecnología. Decirle a la gente, vas a hacer esto, igual no.

O sea, que hay que estar un poco ahí con los platos, jugando a ver, vamos a ver la bolita mágica. Hay que preparar a la gente, por tanto, para saber utilizar bien las herramientas de cada momento. Exacto. Claro, efectivamente, al final, adaptarse a eso. También tenemos que aprender, obviamente, como sociedad, no solo como individuos a utilizar esas herramientas.

El ejemplo del automóvil vuelve a ser bueno. Aparte de que seguro que se enfadaron mucho los herreros que hacían herraduras para caballos cuando se inventó el caballo, porque, oh, va a destruir un montón de empleo, porque obviamente se creó una industria enorme a raíz del automóvil. El coche. Pero también hubo que crear una nueva legislación para ese coche y aprender a utilizar y a integrarlo en la sociedad.

Hay que trasladar esa misma situación a la integración de la inteligencia artificial en el día de hoy. Pues, con esas reflexiones, nos vamos a despedir. Esta despedida también va a ser humana, no lo va a hacer una inteligencia artificial. Núria Lloret, Javier Palanca, mil gracias, de nuevo, por haber participado en este primer Revisado por Pares de 2023, que hemos arrancado hablando de inteligencia artificial y seguro que volvemos a vernos o en este estudio, o en la universidad, o en otros lugares, haciendo divulgación

que en este campo los dos sois unos tres. Mil gracias a los dos. Muchas gracias a vosotros por la invitación. Hasta aquí, como decimos, este primer Revisado por Pares de 2023, que este año también contará en todas sus entregas con la colaboración de la Fundación Española para la Ciencia y la Tecnología del Ministerio de Ciencia e Innovación.

Hasta la próxima entrega. Sean felices.

Episodios recientes