Parar la inteligencia artificial ahora que estamos a tiempo

00:00 /1h25

Además este episodio es muy especial: hemos encontrado el héroe perfecto, el precursor de toda nuestra filosofía, un titán, un monstruo, una máquina.

NOTICIAS

Google se ha asociado con Replit https://www.bloomberg.com/news/articles/2023-03-28/google-partners-with-ai-startup-replit-to-take-on-microsoft-s-github

ChatGPT es el nuevo turco mecánico https://arxiv.org/abs/2303.15056

Microsoft lanza un copiloto de seguridad que utiliza IA para defenderse de los ataques https://www.microsoft.com/en-us/security/business/ai-machine-learning/microsoft-security-copilot

¿Está copiando Google a ChatGPT? https://www.theverge.com/2023/3/29/23662621/google-bard-chatgpt-sharegpt-training-denies

GPT4All es un chatbot que puede ejecutarse en un ordenador portátil. Para imitar ChatGPT, los autores recopilaron unas 500.000 interacciones escritas por humanos a partir de GPT3.5 https://github.com/nomic-ai/gpt4all

Más empleo, impacto económico de la IA https://arstechnica.com/information-technology/2023/03/generative-ai-set-to-affect-300-million-jobs-across-major-economies/

Italia ha prohibido ChatGPT por violar el GDPR https://www.elconfidencial.com/tecnologia/2023-03-31/veto-prohibicion-chatgpt-italia-espana-inteligencia-artificial_3603590/

¿Se puede medir el avance del aprendizaje profundo en cuantos? https://dblalock.substack.com/p/2023-3-26-arxiv-roundup-unit-scaling

Buzzfeed ya escribe artículos sólo con IA https://www.niemanlab.org/2023/03/are-buzzfeeds-ai-generated-travel-articles-bad-in-a-scary-new-way-or-a-familiar-old-way/

Midjourney para las cuentas gratis (y no quiere problemas con China) https://www.techdirt.com/2023/03/31/midjourney-ceo-says-political-satire-in-china-is-pretty-not-okay-but-apparently-silencing-satire-about-xi-jinping-is-pretty-ok

OpenAI invierte en la empresa de robótica 1X https://fortune.com/2023/03/27/altman-vs-musk-openai-treads-on-teslas-robot-turf-with-investment-in-norways-1x/

Una muy buena noticia de IA e investigación médica https://twitter.com/monospodcast/status/1642829108009680896

Despidos en Domestika "por culpa" de ChatGPT https://www.lavanguardia.com/economia/20230331/8869692/domestika-prepara-ere-despedir-89-personas-espana.htm

Bing Chat con anuncios https://twitter.com/debarghya_das/status/1640892791923572737 

PUERTA GRANDE O ENFERMERÍA

LuzIA, creado por la gente de Ticketea como ChatGPT integrado en WhatsApp https://www.soyluzia.es/

Conecte GPT-4 a su cerebro https://www.youtube.com/watch?v=-HYbFm67Gs8

EL TEMA DE LA SEMANA

La carta https://futureoflife.org/open-letter/pause-giant-ai-experiments/

BASADOS O HACIENDO LA CIENCIA

Rafael Luque, un referente https://elpais.com/ciencia/2023-03-31/suspendido-de-empleo-y-sueldo-por-13-anos-uno-de-los-cientificos-mas-citados-del-mundo-el-espanol-rafael-luque.html

Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com

Transcripción

Hola a todos, Sol Antonio. Venimos del gimnasio, tengo que decir, Antonio, que te he visto hoy con muchas ganas de soltar hot takes. Hot takes, Matías. Es que hay que mojarse, Matí. Vienen tiempos en que tienes que decidir, Matías. Nos ponemos apocalípticos, nos ponemos dumerianos, Matí.

Esa es la gran disyuntiva ahora con la lla. Yo viendo el guión de hoy de 16 páginas, lo que quiero es una moratoria, lo que quiero es una pausa de seis meses para descansar, para tomármelo todo con calma y te veo a ti viniendo con toda la energía contraria. Te veo un toro de miura entrando, pues ya basta de referencias. Yo creo que va a ser un recurso que deberemos emplear en un grande momento de la vida.

Cada vez que algo te tranquiliza, te genera un poco de ansiedad, te preocupa algo, Matías, pide una moratoria de seis meses. Fácilmente, ¿no? Va demasiado rápida la innovación de nuevos tipos de torrijas. Una moratoria de seis meses que nadie inventa nada. Demasera series que no pendientes de ver en Netflix y en Amazon y todas estas cosas. Una moratoria que nadie produzca, hasta que estemos más tranquilos, ya lo podemos abordar con tranquilidad, con calma, Matías.

Lo peor es que vengo de otro de estos viajes que hago, de hecho, oyente notará que estoy medio afónico, medio resfriado, y fui a ver de nuevo el cohete español, el miura, y esta vez sí pregunté para qué usar la inteligencia artificial, pero como sé que no va a dar tiempo a meter nada de esto por el guión que tenemos hoy, te lo voy a dejar para el episodio que viene. Ah, muy bien, muy bien.

Así que dejamos algo para pendientes. Hoy es episodio especial apocalipsis en la inteligencia artificial. Gracias a la famosa carta de investigadores, Elon Musk y demás personajes que han firmado una petición de moratoria, que será nuestro tema principal del episodio, y vamos a tener, porque además hay como cien noticias importantes, bueno, hemos seleccionado las diez más relevantes, las diez más interesantes, y tendremos que ir súper rápido, Matías, con las noticias, porque hay muchas chichas en la carta y en el debate posterior.

Lo hacemos rollo flashazos informativos, no ronda de noticias. La primera, Google ya está preparando su GitHub Copilot, porque igual que viene haciendo últimamente, se ha asociado con una nueva startup, en este caso con Replit, que es un IDE, un entorno de desarrollo, para combinar sus modelos de lenguaje de los que venimos hablando con el software Ghostwriter de Replit, para ayudar a los programadores a completar su código.

Y esto, que yo, que tengo muchos amigos programadores, veo como poco a poco le van cogiendo el gustillo, por ahí en Telegram, un amigo me decía, mira esto lo ha hecho un 80%, lo ha hecho el Copilot, pues Google no quiere perder este tren. Sí, de nuevo la estrategia de ir de la mano de otro, y bueno, Replit es un IDE bastante majo, yo lo he usado alguna vez porque tengo mis pequeños flirteos con Python,

y es un IDE bastante majillo, es online, por lo tanto está todo sincronizado, si cambias de equipo, está bastante bien. Entonces, ya tiene Ghostwriter, que es esa ayuda a la programación, y por la pinta del acuerdo, parece que va en un pack el usar el cloud de Google, usar las APIs de Inteligencia Refial, la del último modelo de Python, y por ahí irán los tiros de pias. Aquí he visto que ha puesto un título de los tuyos, ChargePT es el nuevo turco mecánico.

¿Qué era el turco mecánico? Lo he tenido que leer en la Wikipedia porque no me lo sabía, y me ha quedado más claro, pero fícalo tú. Viene de una metáfora de, bueno, una presunta máquina turca, que realizaba una serie de tareas, pero que era un poco falaz porque lo que había dentro era un señor turco. Lo que parecía que lo hacía una máquina, pero lo hacía una persona. Esto ha dado pie a que Amazon tuviera un servicio que se llama el turco mecánico, el de mechanical torque, y consistía en que tú mandabas tareas de repetitiva,

de poco nivel, para que la ejecutara gente dispersa por el mundo a muy bajo precio. Por ejemplo, etiquetar data sets para entrenar inteligentes artificiales. Si quieres etiquetar, pues en qué textos hay mensajes racistas, o quieres etiquetar, en qué fotos hay perros y en cuáles no. Pues es típica tarea que puedes dar a este servicio del turco mecánico, y en el lugar del mundo habrá gente que por unos centimillos le merezca la pena realizar esas tareas para los investigadores.

Pero lo usa el investigador, lo puede usar Arikome, lo puede usar cualquiera que tenga una tarea de una tipología similar. El estudio que traemos hoy es que el 3.5, el chargé peto original, realiza las tareas que suelen asignarse al turco mecánico, mucho mejor el resultado con más precisión que lo que ofrecía el servicio y a bastante menor coste. Y esto es una de las tareas que probablemente pasemos de asignar a seres humanos a asignarlas a inteligencia artificial.

O sea, típica tarea que hay alguien en algún país de África o del sudeste asiático etiquetando cosas, ahora también se pueden hacer con GPT. O sea, esta gente que por ejemplo etiquetaba cosas para GPT, ahora su trabajo va a ser sustituido por la propia GPT, ¿no? Sí, sí, sí, esto es una dinámica que parece que va a ser constante en la inteligencia artificial. Aquí si hay una sustitución, de hecho luego cuando hablemos de la carta, hay un debate en la que se alerta,

oye, que la inteligencia artificial puede eliminar trabajos, vale, pero que elimine trabajos significativos en las que nos sentamos realizados, no. Hace una distinción que a lo mejor los que tenían unos ingresos extra o conseguían dinero a través del mechanical TARC tienen una opinión algo diferente, ¿no? Pero bueno, el caso es que parece que con GPT este problema de la clasificación pues se va a resolver, por lo menos, para los textos, no para el general.

Ya hemos visto a Microsoft integrando estos modelos de lenguaje y la I en general en casi toda su suite de programas, pero faltaba un copiloto que me gusta, el nombre del copilot me gusta, porque yo creo que a la gente intuitivamente entiende que es un copilot y cómo puede ayudar en sus tareas diarias pues faltaba un copilot de la seguridad, ¿no? Bueno, Microsoft también tiene sus servicios de seguridad y ahora van a integrar también esta tecnología en Microsoft Security, ¿no?

Sí, el caso es que en los debates como estamos en esta época tan dumeriana siempre se ha puesto que la inteligencia artificial la van a usar los malos, ¿no? Lo van a usar los crackers que querrán romper sistemas y chantajearnos y cosas así, ¿no? Bueno, el punto de Microsoft es que con inteligencia artificial se podrán detectar en teoría amenazas antes de las que podría predecir un humano, anticipar movimientos de posibles ataques, bueno, es lo que dice Microsoft que está vendiendo la herramienta, claramente, ¿no?

Creo que en ciberseguridad, y esta vez yo que soy un optimista con la I ya sabes que con la tecnología, parece haber ido más claro el caso de uso del ataque que la defensa, pero bueno, aquí tenemos a Microsoft diciendo el contrario. A ver, nos manda Trifero por Twitter, otro de nuestros oyentes que suele mandarnos cosas. De Information publica el miércoles un informe que incluye acusaciones de un antiguo investigador de inteligencia artificial de Google,

de que Google estaba utilizando respuestas de chat GPT para entrenar su propio chatbot. Entiendo que es Bard. Google, pues en una declaración adivache, ya ha negado que Bard haya utilizado datos de chat GPT para entrenarse a sí mismo, ¿no? Pero que esto lo diga un ex ingeniero, un ex investigador de Google, pues nos deja ahí como la sospecha, será verdad, ¿no? Bueno, yo creo que como mínimo, si tú estás haciendo Bard y vas por detrás, por lo menos tienes que hacer pruebas de comparación del nivel de resultado

si eres igual de bueno. Otra cosa es que luego cojan los resultados y se los enchufes a tu modelo para igualar. Es curioso esta historia porque Google acusó a Bing hace 15 años, si me van las fechas un poco, acusó a Bing de algo parecido. Decían que Bing estaba haciendo búsquedas en Google, copiéndolo los resultados, quedaba Google y mostrándolo Bing como resultado propio y que de alguna manera era hacer trampa, no era copiar la salida de cómo funcionaba el mejor buscador del momento, una vez que había salido por detrás.

Entonces, es curioso, aunque no estamos en condiciones de poder asegurar que es cierto, ¿no? Pero sí de que suena a reflejo claramente de quién va por detrás. Bueno, esto de copiar a chatGPT algunos les puede salir bien porque hay un proyecto que es GPT for all, que es un chatbot que puede ejecutarse en un ordenador portátil. Esto ya habíamos hablado en el episodio anterior y les sonará la gente que como se filtraron los modelos llama de Facebook,

pues la gente ha aprendido a ejecutarlos en ordenadores personales, incluso en un MacBook. Y entrenando este modelo con 500.000 pares de respuestas de GPT 3.5, pues puedes hacer que chatGPT funcione en un portátil. Sí, sí, lo de los modelos llama y alpaca y todo lo que ha pasado después, súper interesante. Y sobre todo esa posibilidad de, yo creo que anticipan ese mundo en el que vamos a tener un modelo como GPT 3.5 o GPT 4 en el móvil ejecutándose en local muy pronto, ¿no?

Lo que pasa es que, claro, esta aproximación de reentrenamos llama con los resultados de GPT 3.5, si esto se hace grande Open, ahí va a tener algo que decir. No nos hemos vuelto anti-open para nada, nos hemos vuelto anti-open para machacar cualquier competencia que puede usar nuestra tecnología. Entonces, bueno, yo creo que la pata legal tiene un recorrido muy corto. Es como la gente que tiene copias de seguridad de películas en su disco duro y copias de varios telas.

Es una copia de seguridad de chatGPT, por lo que puede pasar. Claro, yo tengo muy pocamente apocalíptica, por lo cual en lo de la carta ya es más o menos el cogido bando de los nodumerianos, digamos. Pero por si acaso, Mati, yo tengo como unos cientos de libros descargados, por si, ¿no?, en el libro electrónico. Por si acaso pasa algo súper chunguísimo, vamos a una civilización diferente, pero yo al menos tendré mis libros para leer, que es lo que me gusta.

Pero tú tienes un búnker porque yo sería Homer Simpson y tú serías Ned Flanders, que tenía un búnker, y yo no sé si tú me prestarás tu búnker llegado al caso. Yo te aseguro que no tengo ningún búnker. Sí, bueno, bueno, si en algún momento, búnker cuenta con él, Mati, y lo que siempre tengo mucho son, ya sabes, libros descargados y latas de conserva, que también tengo muchas. Porque, bueno, me estoy alargando aquí el día que no podemos alargarlo, pero tú cuentas con ambas cosas, Mati, tranquilo, tranquilo.

Ahora seguiremos hablando del fin del mundo y de ciertos actores. Bueno, tienes ya acceso a Barth, porque he visto por aquí una captura. Oh, una captura maravillosa. De repente Barth avanza a pasos a gigantados, Mati, porque bueno, Fortyum ha escrito un artículo reflejando que Barth ha suspendido un examen que GPT4 había sacado una notaza y, por lo tanto, mal para Barth, ¿no? Pero un oyente del podcast, Mati, con acceso a Barth desde, claro, cuenta Anglosahona.

Nos ha pasado una conversación con el chatbot de Google en la que le pregunta en qué posición está el Betis en la liga. Y Barth ha respondido bien, Matías. Ha respondido bien. Se encuentra en la quinta posición de la tabla con Dicueto Pronto. El próximo partido es contra Atlético Metis. Antes del partido último que hemos perdido. Y va a decir en el calderón, no, en el nuevo estadio de la lética.

No estás seguro de que ha respondido bien, porque yo he buscado en Google clasificación Betis. Sí. Y me pone aquí 45 puntos y el Barth contesta 54, que son los que tiene el Atlético de Madrid. Vale. Me parece que te lo has jugado en Barth. No, bebé, he alucinado y yo me lo he comido. Pero ha acertado la posición, ha acertado el próximo partido y ha fallado en la cantidad de puntos. Ahí se ha hecho un poco el Iobar.

Bueno, bueno, bueno, Mati, cago la mano, lo teníamos ahí. Para estas cosas, Barth, a punto, ¿cómo seguirá siendo? La web que consulta Mariano Rajoy, ¿no? Pues, ¿qué más? ¿qué más? Porque tenemos muchas noticias. Bueno, un artista que ha pasado esa posibilidad. Porque es que una noticia tan positiva que ha pasado esa percibida, Matías. Es verdad, esto también tenemos que hablar, ¿no? Sí. O sea, ese tono negativo y catastrofista que están cogiendo las noticias.

Siempre negativo, nunca positivo. Luis Vangel fue el señor que mejor leyó a la prensa española, siempre negativo. Nunca positivo, Matías. Bueno, hay un estudio de Goldman Sachs que sugiere que la IA, esto lo veníamos discutiendo por varios estudios previos, va a automatizar mucha parte del trabajo que se realiza. Entonces, afectará a 300 millones de empleos en las principales economías, ¿vale? Pero el punto del estudio no es destrucción de empleo neta.

Es decir, como se va a naturalizar la área, pues habrá menos empleo y habrá mucho más paro y será catastrófico. No es el punto, sino la desis de Goldman Sachs y de su grupo de economistas es que esto ayudaría a subir el PIB un 7% en una década, lo que vale a 7 billones de dólares más porque afecta a todas las economías. Este aumento de la productividad impulsará una fuerte creación de más empleo.

Es decir, un aumento del 1,5% de la productividad anual durante la próxima década. Entonces, son buenísimas noticias, en realidad. A tener en cuenta este estudio cuando hablemos luego de la famosa carta. Y lo enlazaría, quizás con una cosa que no está en el guión, pero que le he visto un tuit a Andrey Karpati, el hombre que dirigía la IA de Tesla y que se pasó a Oppenife, que es que él cree que no hacen falta más ingenieros

de redes neuronales, de redes profundas, de precisaje profundo, que lo que hace falta son ingenieros de promesas, que volvemos a nuestro punto. Claro, tú lo sacas porque en aquella famosa charla en la que tú sacaste el tema, Karpati te da la razón así. Esto es como el recurso del experto, ¿no? Es que ahora dice todo el mundo, mira, este experto de la Universidad Inficial dice que vamos a morir todos.

Pero, no puedes decir, los expertos de la Universidad Inficial dicen esto, porque hay otros miles que tienen opiniones diferentes y tal, ¿no? Entonces, en el caso de los prongs, Karpati es partidario. Fíjate, yo creo que puede tener un cierto sentido, es como si en la Revolución de los Ordenadores dijéramos que la profesión más importante es la de arquitectura de computadores. Porque, claro, el que cambia el mundo, el que cambia la industria, es el microprocesador.

Por lo tanto, que tienes que artiseñar procesadores. Sin embargo, lo que industrialmente sucedió es que muy poco se dedican a la arquitectura de computador, a diseñar la arquitectura de estos procesadores, porque eso está concentrado en dos o tres empresas y en un grupo pues relativamente pequeño. Pero la explosión de trabajo viene en las capas superiores, la creación de software sobre esos procesadores, ¿no?

Entonces, mi impresión con lo que ha dicho este pequeño genicillo de la IA pues me parece que tiene sentido, sirvamos un mundo en el que hay 4 o 5 modelos, no vamos a un mundo en el que hay 400 millones de modelos, sí que la demanda de trabajo es la creación de valor encima de esos modelos. Bueno, implica lo que tú dices, que el carpati ve un futuro en el que estos modelos están totalmente centralizados

y es lo que está pasando con el de OpenEye a falta de que los demás se pongan a la altura, ¿no? Y bueno, eso no sabemos si es un futuro deseable o no, pero si ya incluso los técnicos y los ingenieros que se encargan de la seguridad de las empresas van a poder aprovechar estos modelos para facilitar su trabajo, pues al final saber controlar estos modelos a través de la ingeniería de PROMS por llamarlo de alguna manera pues tiene sentido y además que la ingeniería de PROMS

está volviendo cada vez más compleja, o sea, así tú ves las birgerías que hace la gente que le pasa como PROMS, es decir, como entrada a ChagPT para conseguir el resultado pues ya entra en un nivel muy abstracto, ¿no? Pero bueno, sigamos con el guión antes de que nos coma, porque yo creo que una de las noticias de la semana y que no ha entrado como tema principal pues por la famosa carta de la que vamos a hablar luego, es que Italia ha prohibido ChagPT.

Italia, Italia. Además por un tema muy europeo que es que viola esta ley de privacidad, la famosa GDPR, así que explícame, explícame cómo salen, cómo llegamos a este punto y cómo vamos a salir de este punto porque a lo mejor nos acaba afectando a España por normativa europea, ¿no? Claro, fíjate, el argumentario en los aspectos técnicos, a mí me cuesta dilucidar si tiene razón el organismo italiano,

pero dice que, claro, hay una ausencia clara de base de la recopilización de datos personales y el tratamiento que hace OpenAI para hacer funcionar ChagPT. Al final OpenAI tiene unos data sets en los que hay diferentes tipos de información. Dentro de ellos hay algunos que son información que cae, pues, información personal que cae en los derechos de la privacidad, que está cubierto por la GDPR, GDPR, perdón.

A mí lo que me extrañaba un poco en la parte técnica es cómo es diferente era esto respecto a los buscadores, Quintex al la web y que me parecían un funcionamiento similar a lo que puede hacer OpenAI para entrenar ChagPT a no ser que OpenAI haya metido otro tipo de base de datos con información personal diferente de la indexación pura de la web. El caso es que, bueno, decía Borjá Suárez en declaraciones al CONFII

que esto va a meter cierta presión Borjá Suárez, que es abogado, al resto de organismos reguladores en cada país para que, al menos, revisen si también creen ellos que aplicaría este tipo de vaneo, de prohibición. Bueno, hay que decir que OpenAI estuvo rápida y ya deshabilitado el acceso a ChagPT siguiendo la orden del regulador italiano, que todavía no se sabe cómo van a reaccionar las agencias de otros países o la propia Comisión Europea.

Pero sí, parece que esto es una realidad, que por la ley de protección de datos y por razones que todavía no hemos desentrañado, pues han desconectado el ChagPT en Italia perdiendo una oportunidad de no perder el tren, porque ya es oscura la situación en Europa en cuanto a lo que conocemos de España en cuanto al nivel de desarrollo de inteligencia artificial como para que, encima, nos desconecte de estos modelos

de los más avanzados. De fondo hay un tema que es que Europa quiere quedar como el policía de lo digital y de lo tecnológico, cuya única labor y función es la de poner normas y ser el profes tristo de que se cumplan y de que su posición de valores tenga un acceso de mercado de un montón de países de nivel económico alto, por lo tanto, todas las empresas tecnológicas querrán cumplir bien normas

para poder acceder a este mercado. Y que, con respecto a la tecnología, parece la posición de Europa, que es eso, reguladora, provicionista, el policía del sector digital tecnológico. Mientras que los grandes desarrollos, las grandes etartas, las grandes innovaciones están en cualquier otra parte del mundo, pero no en Europa. Y que la sobreregulación y la sobreprotección europea no están llevando a un poco ese rol.

Entonces, creo que ese es el debate de fondo y que Europa dice que quiere innovar y que quiere tal, pero luego las visiones más sobreregulatorias y ahí estamos aceptando y rechazando cookies todo el puñete del día. Están ahí, ¿no? Esto también va un poco asociado a una posible multa, a las que teme en Google, Apple, etcétera, de un 4% de los ingresos globales de OpenEye, si el representante de OpenEye en Europa, en el espacio económico europeo,

no comunica lo que hace echa GPT para cumplir con esta normativa de privacidad. Se ha pronunciado, no parece preocupado, dice que Italia es uno de sus países favoritos. Están en ello, no están trabajando con los italianos, y con Europa a ver cómo resolver todo esto. ¿Qué más tenemos, Antonio? Bueno, Barredo, desde Mixio, nos pasaba un estudio interesante que decía que el aprendizaje profundo, un metaestudio ha demostrado

que son modelos grandes de lenguaje, de deep learning, pues sigue una curva de similación de conceptos en saltos discretos, cuántos, y por tanto, se podría llegar a calcular los parámetros necesarios para que una máquina aprenda cosas nuevas. Barredo, como siempre pasándolo, cosas sencillitas de entender, ¿no? Claro, claro, yo.

Vamos a Alex. Tienes que pasar cosas más sexys, más, más, más, con más, ¿no? Con más. La gente hablando de Terminator va a destruir el mundo y nosotros, es que los cuántos, claro, entonces con los números de parámetros podremos saber si cuántos de grandes tenemos que hacer el modelo para que aprenda más cosas. Bueno, está bien, está bien, es interesante, pero, claro, no puedes competir con el apocalipsis, con esto.

Bueno, como yo lo he entendido, es a ver si hay alguna forma de medir los saltos que van pegando cada nuevo lanzamiento de un nuevo modelo, ¿no? A ver si se puede medir eso en cuanto. Sí, en principio, esto podría ayudar a que estimara priori cómo de grande, es decir, cuánto número de parámetros necesitas tener en un modelo para llegar al nivel de aprendizaje al que quieras realizar y poder ser más eficiente, no pasarte,

venga, voy a hacerlo 8 long y luego descubro hasta dónde he llegado porque no lo sé a priori, ¿no? Bueno, es un avance en la investigación. Bueno, volviendo a otro de los temas que saboreamos mucho aquí en el podcast, el tema medios que utilizan ya los modelos de lenguaje para generar contenido, habíamos hablado de BuzzFeed, habíamos hablado de que ya lo estaban usando para crear sus famosos quizzes, sus cuestionarios,

para crear cosas más personalizadas para los usuarios, pero es que, por lo visto, también lo están usando para generar contenido en este caso guías de viajes. Sí. Ha sido fácil pillar que están hechas con chat GPT porque chat GPT se repite bastante, ¿no? Sí, aparte de ser muy chapas se repite bastante, ¿verdad? Porque, claro, tiene sentido que a entradas similares produzca salidas muy similares porque además parte de su patrón es, de alguna manera,

en la distribución normal concentrarse en lo que es más frecuente. Si algo es más frecuente, pues es lo que más aprendo a responder y, por lo tanto, es muy difícil conseguir esos resultados en el principio o el final, en la cola de las distribuciones, ¿no? Bueno, sin enrollarme mucho, habíamos dicho por aquí que se net mal por hacer los artículos directamente con IA, que no era chat GPT, era otra suya propia,

y que Bafis bien porque lo está usando en los tests, que eran más divertidos, más frívolos, no te vas a equivocar actualmente porque realmente es esa parte de entretenimiento que tienen ellos también, y ahora de repente Bafis sale con las guías de viajes, ¿no? Yo creo que están ahí aproximándose a ver hasta dónde pueden llevar el fenómeno. Yo creo que hay mucha gente experimentando, si yo conozco gente y medio que están probando

de momento encerrado a ver qué cosas consiguen y si con una ingeniería de prompts adecuada, con un proceso de charlar con el chat adecuado, consiguen resultados que aporten algo de valor y algo de productividad al cierto tipo de contenido. La guía de viaje, pues pueden ser un buen campo de experimentación, pero para mí los resultados son muy medianos, ¿no? Es decir, son lo que tú dices. Algo rascaremos en SEO, pero yo no veo esto tributando, y hay un patrón,

es decir, todo el mundo quiere generar cosas con chat GPT y GPT4, pero creo que nadie quiere leer cosas con chat GPT. A eso iba, a eso iba. O sea, si ya me daba pereza leer resultados de Google, porque casi siempre iban asociados a algún enlace que está pagado de alguna forma por alguna empresa, leer contenido generado por chat GPT o por algún modelo de lenguaje para generar tráfico, es que me daba pereza todavía.

O sea, yo entiendo, por ejemplo, esto es fácil pillarlo. Un par de reporteros de Futurism los que lo han pillado, pero es que todos los artículos que son 40 contienen frases parecidas como Now I know what you're thinking, Cape, no sé cuánto. Bueno, pues como el mismo gancho, porque por lo mismo, por lo que has explicado tú. Y claro, una vez que vayamos acostumbrándonos a esto, vamos a reconocerlo fácilmente yo.

Tengo que decir que se reconocer muchas veces el chat GPT, porque en español es todavía más repetitivo y se estructura siempre de una forma similar en inglés, porque tendrá menos datos de entrenamiento, pero también porque la gente no profundiza mucho en el prompt, entonces simplemente hacen preguntas sencillas sin pedirle que adquiera un tono específico. Entonces, es muy fácil pillar cuando el contenido está generado por chat GPT, por lo menos para un mejor entrenado.

Y yo creo que esto va a causarnos mucho rechazo a los que detectemos que es contenido autogenerado y que vamos a cerrar. Claro, mi punto al final es si es autogenerado, ya me lo puedo resolver yo. Para eso, para que viera a tu web. Pues para eso, uso chat GPT que lo tengo en el móvil y lo utilizo. Bueno, más noticias, Mati. Va a ir con la quinta marcha puesta, la sexta, porque Meet Journey tiene doblete en nuestra, en esta semana.

Bueno, tuvo el boom del papa, que bueno, yo creo que ha sido una de las imágenes del año, si es de papa, trapero, superchulo. Y Meet Journey ha dicho que ha tenido que parar las cuentas gratis, porque le llegó una demanda extraordinaria tras filtrarse esas imágenes y también la del tram detenido y este tipo de cosas. Sí, yo creo que la detención falsa de Dora del Tram ha sido el detonante de todo,

por lo que comentamos en el vídeo anterior. O sea, vaneas al usuario y no vaneas al del papa o a los cientos de otros que están haciendo cosas con caras de famosos. Y ahora se acaban las cuentas gratuitas. También es verdad que tendrían una presión enorme, porque esto se estaba haciendo cada vez más popular, y la cuenta gratuita te daba para crear bastantes cosas. Y me imagino que en algún momento el plan era pararlos.

Pero al mismo tiempo, al mismo tiempo que quitan las cuentas gratuitas se meten en un lío con nuestro amigo Xi Jinping, el presidente chino. Claro, es que de alguna manera yo dicen, oye, satirizar a Biden, al papa, a Trump, a cualquiera de estos, vale. Y puedes generar imágenes con ellos como base. Pero con lo del presidente chino, no. Porque dice el CEO de Timmy Charney, que esto de la satiria política en China, ellos no lo ven bien.

Y claro, es un poco, ellos no lo ven bien. Es, bueno, voy a aplicar el control y la censura china al resto del planeta para poder seguir funcionando allí. Es básicamente ese concepto y en el que las empresas tecnológicas han tenido que mojarse históricamente. Google y Facebook tuvieron, pues yo creo que la postura razonable de renunciar al mercado chino y de renunciar a unos ingresos extraordinarios por no someterse al control del gobierno.

Otros como Apple si entraron por el aro y ahí están. Pero, mi Charney parece que ha elegido también el camino ese, ¿no? Sí, esto me recuerda, hace poco Apple desactivó el AirDrop en China porque se estaba compartiendo cierto contenido por AirDrop y luego lo tuvo que hacer globalmente, ¿no? Y la justificación de Hulls, que es el famoso director, creador de Mid Journey, es que en China hacer satira política es pretty not okay, ¿no?

No está nada bien y por eso la aplica globalmente que no se puedan hacer montajes con Xi Jinping y con dirigentes chinos. En fin, es un poco lo que siempre ocurre con China. Sí, bueno, más cosita, Mati, una muy corta, que se opena ahí y ha invertido una empresa de robóticos, que claro, ¿cómo se llama el robot de Elon? Era Optimus. Sí, el último nombre es Optimus, el primero era Tesla. Tesla Bot. La robot.

Vale, pues claro, yo creo que ahí esto ya es, esto yo creo que esto es por pique puro y duro, ¿no? Me está jodiendo por otro lado, pues yo he invertido en tu competencia, ¿no? Bueno, la idea es que esto desarrolla en robóticos para traer a laborales y domésticas, justo al mismo enfoque que el Optimus de Tesla. Por ahora he visto algún vídeo por ahí, nada impresionante lo que han conseguido, pero bueno, la inversión de Open Eye en esta empresa,

yo creo que porque están intentando enfadar en lo más, lo máximo posible. Una directiva de Open Eye acaba de seguir a Grimes en Twitter, yo es que sigo mucho estos movimientos por Víctor Khaled y me parece ya esto evidente que lo que quieren es enfadar ahí donde toda la parera es posible. Pero bueno, todavía va muy atrás el tema robótica. Tengo que ver un robot que se mueva de una forma un poco más ágil

para coger cosas de una mesa para creérmelo. Vale, una muy buena noticia. Esto después de acá no vamos a poder tener éxito, Matías, porque estamos dando demasiadas buenas noticias. Bueno, el equipo de Dismime con AlphaFall estuvieron muy implicados en la investigación del mundo de las proteínas y abrieron una puerta bastante esperanzadora en este campo, pues ha ayudado a crear jeringas, una metáfora que a escala molecular

a administrar fármacos directamente a células específicas en esta investigación. Gracias al uso de AlphaFall, se abre la puerta a un tratamiento de algunos tipos de cáncer en las que se puedan matar entre comillas las células infectadas sin atacar el tejito sano. Como toda la ciencia un poco más cerca de la ciencia básica, estamos legísimos a años de la aplicación, pero de funcionar esto sería una muy buena noticia

para todo lo que es la investigación contra el cáncer y hay de niñas avises de Dismime bastante contentos. Es una pena porque yo creo que ha sido un poco desapercebido, pero bastante contentos porque esto es un avance bastante chulo. Sí, sí, sí, yo que a veces cubro de docencia. Esto de la administración súper dirigida de fármacos es muy importante, por ejemplo, para matar células cancerosas sin atacar al resto del tejido, que está sano.

Y claro, esto es una posibilidad que seguramente la híla y abre, como ya hemos visto, a descubrir nuevas proteínas, etcétera, pues asistir en este tipo de cosas. Vamos a ver avances probablemente muy rápido y muy importantes. Y ojalá, porque estas son las mejores noticias que podemos tener. Bueno, pues en el lado menos positivo, Domestika despide justificándose en que la culpa es de ChagPP, la empresa estadounidense especializada en curso de formación.

ChagPP es el nuevo coronavirus, ¿no? Tenemos que despedirnos por la situación actual. Recogea la vanguardia que desde la empresa dicen que el contexto macroeconómico, claro, está provocando recortes en el sector TEC, pero nosotros estamos directamente perjudicados por la automitización de procesos de nuevas aplicaciones de inteligencia artificial como ChagPP. Claro, Domestika tiene muchos cursos de creativo o diseño, etcétera,

pero hay muy extraña que en ese mundo ChagPP ya haya entrado tan a saco y de una manera tan fuerte, hasta el punto de decir, venga, tenemos que despedir a todo el mundo porque ya nadie hace cursos. Me parece un poco, no sé, de excusa, ¿no, Mati? No, totalmente. O sea, aquí en Málaga tenemos el ejemplo este del MEDAC que tiene anuncios por todas Málaga y la gente quiere hacer cursos, cada vez más cursos,

Lucas se me habría ocurrido que la gente quiera ahora ponerse a aprender con ChagPP. O sea, no entiendo en qué relación. Si acaso actualizar los cursos para aprender a sacarle partido a estas nuevas herramientas. Sí. Yo me crucé con un hilo en Twitter de Nieves Gamonal, que es desde dentro, un poco explicaba lo que ha pasado en los últimos años en Domestika y claro, lo que cuenta en el hilo es que vienen de un aire anterior,

de muchos despidos, de un ambiente laboral terrible, de que mientras despedí a un chaval gente y tuve a tus compañeros y dices, la empresa decía que todo bien, que eran un unicornio, que eran rentables, que todo guay, y que, bueno, tiene pinta a que es más fácil decir hoy en día voy a despedir gente y la empresa va muy mal por culpa de ChagPP, que voy a despedir gente y la empresa va muy mal por mi estrategia, mis decisiones como directiva.

Entonces, bueno, yo creo que ahora mismo esto está siendo como un chivo expiatorio para muchas cosas y el caso Domestika es paradigmático. Primero el coronavirus, luego Putin y ahora ChagPP. Igual se convierte en tendencia y tenemos que comentarlo todas las semanas. Bueno, antes de entrar en Puerta Grande o Enfermería, ya sabemos cómo van a ser los anuncios en BinChat, están muy escondidos, ¿no? Te dan una respuesta al BinChat,

a ver si lo puedo enseñar en el vídeo de YouTube. Por ejemplo, en este ejemplo le preguntan cuál es el coche de onda más barato y le da una respuesta, el Civic Sport, que cuesta tal y tal, y al final, pone ad, ¿no? Acorda en tu trucar, que es la fuente que utiliza BinChat, y pone ad, en un ad muy pequeñito. Para yo esto le veo varios problemas y es que monetizar de esta forma va a ser muy complicado para BinChat, ¿no?

En comparación con pues cómo se monetiza en un buscador, ¿no? Bueno, ahí, fíjate, yo creo que a mí no me resulta muy natural, es decir, es un chat podido y me está respondiendo que la mejor respuesta que me puede dar es un anuncio, ¿no? Porque creo que trasladan demasiado directamente el modelo publicitario del buscador, es decir, compras una Keyword y antes de los resultados orgánicos sales tú,

básicamente el concepto. Entonces cuando se busque por esa Keyword, alguien busca coche de onda, en lugar de salir el resultado orgánico que pondría el buscador, primero sale tu anuncio. Claro, en un chat pod, claro, aquí ha metido en el primer párrafo de respuesta los anuncios, no sé si luego, por lo menos en el espacio que se ve en la captura, no se ve nada más y me parece que es una sobresaturación publicitaria,

en el sentido de que prácticamente has convertido toda la respuesta del chat pod en publicidad. No sé, me resulta un poco... Y luego si se mide en clicks, yo no sé cuánta gente haga clicks en los enlaces de las fuentes de binchas, igual este sí es un buen ejemplo porque si te quieres comprar ese coche a lo mejor si haces click, pero a nivel de tasa de clicks va a ser bajito. De nuevo, tú rechazaste mi idea del modelo de lenguaje

entrenado por Coca-Cola, pero yo todavía no lo he dado por muerta en mi foro interno. Yo todavía creo que un modelo de lenguaje que te diga todo el rato lo bueno que es beber Coca-Cola tiene su recorrido. No me extraña que empezáramos a ver esto porque entrenar, bueno, entrenar no, sino estar todo el tiempo procesando esto es caro y la velocidad que ha tenido Bing para integrar anuncios demuestra que esto les está costando mucho dinerito.

Sí, claro, es que ahora mismo tienes acceso a... Bueno, yo creo que no es GPT4 puro, Mati, yo en los resultados de la conversación con Bing la veo bastante más tonta que la que tengo con chat GPT de pago. Ahora mismo me da la impresión de que no puede ser el mismo modelo. Al mejor un GPT4 capado o anterior, no sé, yo hoy tengo sensación, pero es verdad que es muy caro y que Microsoft está ahí. Bueno, a ver si vemos un Bing chat de pago.

No sé si tendría sentido porque competiría con la propia chat GPT. Pero bueno, algo se tiene que inventar. Ya veremos por dónde sale la cosa. Vamos rápido, Matías, con puerta grande o enfermería. Hoy te traigo uno en el que, claro, obviamente tienes que decir que a favor, que puerta grande, porque es un tutorial, atención, sobre cómo conversar con muchos PDF a la vez. Es decir, tú que eres un gran partidario

de la conversación con los PDF, Mati, tienes esta vez la oportunidad, no solo con un PDF pequeño, no solo con un PDF gordaco grande, sino con varios PDF al mismo tiempo. Esto es gracias a un canal, hay una persona que crea un canal en YouTube que se llama Chat with Data. Es decir, dedicado y enfocado en todos aquellos Matías que sois apasionados de las conversaciones con información, con un conjunto de datos.

Si ya se queja la gente de que no se lea tanta ficción, porque ahora no se lea ni los PDF, que directamente le preguntemos a HGPT que dicen los PDF. Yo he entendido esto con el ejemplo que estoy poniendo ahora en YouTube, que es que le mete un montón de informes financieros y le hace preguntas específicas, por ejemplo, de X años o de los últimos tres años. Entonces, el chat GPT3 interpreta que tú lo que quieres ver es los últimos tres informes

y a partir de ahí se los lee, o bueno, se los pasa como prom, mejor dicho, lo interprete y te da la respuesta. Bueno, sí, obviamente, si le dimos el puerta grande al de leer PDFs, pues el leer múltiples PDFs es una puerta todavía más grande, o múltiples puertas grandes. Vale, bueno, yo tengo otro proyecto muy interesante de más, un proyecto español, Matías. Atención, no se puede quedar atrás, que es Lucía, además.

Esta gente pone muy bien los nombres Matías, no como nosotros, porque es Luzía. Atención, ¿eh? Entonces, por lo tanto, buscadlo con Z, en el dominio soylucíaconzeta.com. Es un chat GPT integrado en tu WhatsApp. Entonces, tú lo añades a Lucía como contacto en WhatsApp y de repente tienes ahí una conversación con ella, le puedes preguntar cosas, pedir cosas. Yo lo estoy usando dos días, Matías. Solo lo ha creado la gente de Tiquetea

que me pasó el enlace. Y está guay porque le puedes reenviar audio y te lo transcribe, si la gente que es anti-audio tiene aquí un apoyo dentro de la aplicación. Le puedes pedir cosas por audio, lo cual a mí me satisface bastante, ¿no? Búscame esto, lo otro, responde metálico, cualquier cosa, si lo dices de vos y te lo hace bien. Es verdad que está un poco controlada, además, me da la impresión, porque yo le he pedido,

para impresionar a mi hija, le pedí Lucía hace un poema sobre la caca. Mi hija está ahí ya en los últimos momentos de su infancia y entonces todavía puedo intentar impresionarla con este tipo de cosas, Matías. Y Lucía aquí me falló, me falló. Entonces, bueno, tuve que crear un poema sobre otros tipos de cosas. Bueno, él mandó un montón de preguntas a la gente de Tiquetea, que creo que se ha arrepentido

ya de mandarme esto, después de todo lo que les he dado. Y, bueno, dicen que está hecho con, de momento, tira de lápide de ChaGPT, de 3.5, no de la 4, que no están poniendo mucho control adicional y que no está conectado a internet, pero que meterán búsqueda a internet a futuro, lo cual es un proyecto esperanzador. Yo creo que todavía es demasiado, en caso de los ChaGPT dentro de WhatsApp, que ahora mismo yo creo que va bien

para algunos usos, pero que en el futuro tendrán que añadir más valor. Y este tipo de cosas, yo creo que pueden popularizar el uso de la inteligencia artificial entre el conjunto de la población, no la parte más guico, más abrazadora de novedades. Y nada, para mí son bastante puertas grandes con un proyecto que tiene buena pinta. No, es exactamente eso te iba a decir. De hecho, que esté en WhatsApp por un lado, guay, porque puede llegar a mucha gente

y por otro, cuidado, a ver si llega mucha gente a ver quién paga esto, si se viraliza mucho. No sé cuál será el modelo de negocio, pero cuidado, que esto puede tener mucho éxito. Bueno, aquí, de hecho, una pregunta de las que todavía no me han respondido es si ellos lo ven como alguien práctico que te resuelve cosas, como un asistente, o como lo ven como algo más social, más cercano y más personal

en la que desarrollas una relación más de otro tipo, más afectivo. Porque de momento, con GPT-35 tiene una personalidad muy plana. Yo creo que con PROMS tengan cuidado, que tenga cierto toquecito, pero no mucho. Con GPT-4, en teoría, la API te permite tener más personalidades y podrían tirarlo más a un compañero, amigo, amiga en este caso. Bueno, vamos a ver por dónde creen ellos que tienen sentido evolucionar a estos personajes.

Ya, ¿sabes? Dijo que quería meter personas con inteligencia. Tenemos que profundizar en esto algún día, porque lo de hablar con un chatbot, aunque yo me siento súper fuera de esto, si ya la gente con los streamers de Twitch les mandan miles de mensajes al día y, a lo mejor, contestan uno de cada 10.000. Y están como muy contentos poder hablar con un chat que siempre te contesta, que siempre está disponible

y que pueda hablar del tema que tú quieras y puedes abrir el corazón. Tenemos que profundizar sobre esto, porque en mentes más volubles y adolescentes, a ver qué pasa. ¿Qué ahora hay que estudiar? Sí, y otra cosa que hay que estudiar, nuestro último elemento del puerto de gano de enfermería, Mati, necesito que le avalúes tú, Mati, porque yo aquí me quedo, porque ya sé que ha estado parte del tema.

Otto Szymliski nos envía con este GPT-4 a su cerebro. En este increíble vídeo de YouTube, Fireship, que es el youtuber, con lo que está un dispositivo llamado Crown, Crown es como un casco, que se pone en la cabeza la gente, a GPT-4 con la compromisión básica de Javascript. Esto le permitió comunicarse con GPT-4 utilizando solo sus pensamientos. El Crown es similar a Neuralink, lo puedes llevar en la cabeza, pero sin plantarte chips.

Yo, al principio, quería que tenías que raparte, porque daba la coincidencia de que Fireship es bastante calvo, ¿no? Yo pensaba que esto era como el Neuralink para los calvos, pero no, no. Luego le he mirado un poco, Mati, y nunca tengas pelazo, puedes usar Crown, porque a partir de las ondas cerebrales consigues manejar cosas, es un poco el concepto. Sí, esto está muy chulo, esto lo hablamos en Elon, precisamente porque

Grimes lo está probando de nuevo como alternativa Neuralink, que es la opción de Elon Musk, pues esto ya es un poco relación Shakira Piqué, lo de Grimes y Elon Musk, están tirando los tractos de formas indirectas de todas las formas posibles. Bueno, el vídeo este está muy chulo, lo vamos a dejar en la descripción, porque aunque es limitado lo que puede hacer este casco, por ejemplo te dicen, piensa que estás

mordiendo un limón, y entonces detecta pues a través de las ondas cerebrales, que estás pensando eso, y eso puede activar otra acción, ¿no? Entonces, a partir de aquí es cuando la gente pues está creando cosas encima, ¿no? En este caso, si piensas que estás mordiendo un limón, o estás pinchando el dorso de la mano, pues haces una llamada HGPT, y ya puedes hablarle, y que te interpreta la voz, te interpreta lo que has dicho,

entonces ya te contestas directamente en tus auriculares. Entonces, esta es la adaptación que han hecho del Crown, de esta empresa que no me acuerdo cómo se llamaba, pues también era algo de Neuronal, Neurocity, pues de esta manera están uno de los sueños, ¿no? de la inteligencia artificial es aumentar nuestro cerebro, ¿no? Eso es uno de los sueños también de Neuralink, de los más.

Y igual, esta es una forma rudimentaria de hacerlo, pero que está chula, y que nos presenta un futuro de casi de ciencia ficción. Sí, yo creo que la mayor función que le veo esto es el parece que te estoy haciendo caso, Mati, ¿no? Yo estoy aquí desentando, pero como estoy pensando en otra cosa, puedo estar pidiéndole otro problema sobre las cacas o mil cosas que se nos ocurran, ¿no? Entonces, aumenta la multitarea.

¿Tú lo ves puerta grande esto del Crown conectado GPT o cómo lo veis? En su estado actual es un juguete, pero veremos a dónde llega, ¿no? Entonces, lo dejo ahí en medio, entre la puerta grande y la puerta de enfermería. Puerta chiquita. Bueno, pues vamos a nuestro tema principal de la semana, no pasa nada, llamamos 50 minutos de podcast, pues esto ya empieza a parecerse a los podcast de historia, ¿no? Eres una vez, el playstofeno.

Bueno, el discurso y la carta sobre paremos la inteligencia artificial ahora que estamos a tiempo, Matías. Yo te voy a dejar dar el contexto histórico, porque es gran parte de lo que has escrito en el guión, es el contexto histórico, o si quieres leemos primero la carta, no sé qué tiene más sentido rápido.

Voy muy rápido. El punto es que este discurso no nace con la carta, ¿vale? No es que realmente se hayan levantado de la noche a la mañana y se dan cuenta de que la inteligencia artificial tiene sus peligros, sino que realmente el discurso o el conjunto de ideas que da lugar a este discurso, pues viene de bastante largo.

En los medios ya habían, digamos, de alguna manera pues en medio fuerte, como New York Times, como Box Media, Estados Unidos sobre todo, ya habían aparecido bastantes voces. Aquí había una cierta confluencia de voces científicotécnicas, dentro de la disciplina, con voces de las humanidades, que últimamente siempre están un poco más recelosas de la tecnología, viendo más sus efectos negativos. Bueno, en el que nos hemos traído al Reclaim,

que es una figura interesante, Gary Marcus que está súper activo, gente incluso como Meredith Bruxart, Meta. Mucha gente pues señalando algo que en la inteligencia artificial se había señalado como el problema de la alineación o alineamiento. No sé cómo traducirlo bien, pero bueno, llamémoslo al problema de la alineación, que no es a quién puso su logística de titulares en el Mundial, sino que trata

básicamente de que consigamos que la inteligencia artificial o cualquier tecnología que creemos, esté bien alineada o bien como instrucciones correctas para los fines que tenemos como los seres humanos. Entonces, digamos que aquí hay una figura que es Robert Weiner, que es el que denuncia este problema, y que es uno de los que inicia ese camino de, oye, este es un problema puramente tecnológico y un problema ético

y moral, ¿no? Su, te cito la frase, si para lograr nuestros propósitos usamos un medio mecánico en cuyo funcionamiento no podemos interferir de manera efectiva será mejor que estemos muy seguros de que el propósito puesto en la máquina es el propósito que realmente deseamos. Ese es el problema de la alineación.

Y que además muchos teóricos de la inteligencia artificial, muchos teóricos y muchos estudiosos, dicen pues con el deep learning esto es más grave. ¿Por qué? Porque fíjate, como no sabemos muy bien cómo funciona el deep learning por dentro, por lo tanto el problema de la alineación es total y absolutamente evidente. No podemos estar seguros de que esa inteligencia artificial sea pues justo lo que queremos que sea. Por ejemplo, esto a Russell, que además

todos los estudiantes de la informática lo lo han vivido y lo han sufrido porque es uno de los autores de Russell at Norvig, que es uno de los libros que hay que estudiar en inteligencia artificial como el libro de consulta de referencia escribió un libro que era human compatible en inteligencia artificial y el problema del control básicamente su punto era este. Pero incluso Turing, que es bueno, es increíble lo visionario

brillante y genio que era este este amigo ya en conferencias en los años 50 pues anunciaba que las máquinas no conocen ni en la muerte conversar entre sí para mejorar sus facultades en algún momento por lo tanto deberíamos esperar que las máquinas tomen el control hasta Turing se ponía un poco apocalíptico en unas referencias que si pensamos en obras de ficción hay mil películas pero a mí siempre me acuerdo de Mary Shelley

y Frank Stein su doctor Frank Stein o el moderno prometeo que lo tituló ella y la historia de Frank Stein al final revela ese punto como cuando quiere crear algo demasiado grande el ser humano le falta previsión, no mide bien el impacto de lo que puede en este caso la vida artificial y sus consecuencias y por lo tanto este de doctor Frank Stein es un poco el open eye de nuestro tiempo llevamos a la analogía y luego por último hay una figura

que también conviene reseñar en todo este mundo que es Nick Bostrom que luego nos aparecerá yo me he leído el súper inteligente de Nick Bostrom que es un libro que merecería la pena que te lo resumieran se enrolla muchísimo es de ese de ese tipo de racionalistas que luego nos aparecerá un personaje pariente de Nick Bostrom que empieza, bueno puede suceder esto pero si suceder esto, ésta sería la consecuencia evidente

entonces yo razóno que habría que pasar esto entonces ¿cuáles serían todas las posibilidades? entonces pasará lo otro entonces crean como un mundo en la que su abstracción racionalista ellos pretenden que pase por la realidad y hacer evidente una especie de cosa que afina ser una paja mental su gran tesi en súper inteligente es si una inteligencia artificial en algún momento es algo más inteligente que lo humano

estamos fritos ¿por qué? porque esa inteligencia artificial será capaz de programar otra inteligencia artificial para las enseñas y mejorarse porque ya es más lista que nosotros y por lo tanto la súper inteligencia es decir que haya algo artificial del orden de manitud de 20 veces más inteligente que el ser humano pues será inevitable ese es el tipo de racionamiento que hace Nick Bostrom y hacía un escenario

de la fábrica de clips en la que decía para entender el problema del alineamiento y como la súper inteligencia nos jodería viva la civilización era una IA la ponemos a dirigir una fábrica de clips de esto que sujeta los papeles ¿vale? como la IA es muy eficiente y además se ha vuelto súper inteligente mucho más que nosotros mucho más que la inteligencia humana como su objetivo es maximizar la producción de clips

la IA no tiene en cuenta la vida humana, el asociamiento del planeta ella es lo que quiere es producir y producir más clips entonces comienza a consumir todos los recursos disponibles para que se quede de impedirlo porque es más listo que nosotros entonces al final como necesitará todos los recursos aniquilará la fábrica de clips aniquilará a la humanidad porque aunque no tenga intención de hacerme el año

pero como la programamos para eso para hacer clips por lo tanto la población mundial desaparecerá bueno pues si le hayis súper inteligente de Bostrom veréis historias como es me arrepiento de no haber leído más que yo en catastrofista apocalíptica en mi infancia y en mi adolescencia bueno este pasa por ensayo es un ensayo muy referenciado y está referenciado en la carta famosa que manda el instituto del futuro de la vida

tiene nombre como de sexta que llega al barrio con gente vestida de blanco diciendo quiere que te hable de Dios unos minutos si tiene nombre de eso hay un montón de firmantes y también el que copó los titulares fue Elon Musk y también está el Gary Marcus que me hace gracia porque se peleó con Alex Barredo por Twitter porque Alex puso que muchos de los firmantes entre ellos Elon tienen como muchas energías de querer ser protagonista siempre

porque hay varios emprendedores etc. bueno ya empiezas con ese prejuicio por la carta pero bueno si acabas de presentar un contexto en el que realmente hay gente muy lista preocupada por la IA pues hay que tomársela en serio pero menos a priori sí bueno la carta la carta empieza con un golpe débil contra nosotros Mati porque la primera cita es un paper importante el paper de sobre los peligros de los loros estocásticos

que quien haya escuchado el capítulo cero de este podcast sabe que es muy importante y a sus creadoras nuestras madrinas Mati nuestras nuestras mentoras ya no nos conocen pero bueno nos han inspirado Libende Gebru, MacMillan y Schmischel son las cuatro autoras de este paper y además las cuatro no voy a hablar por otro pero dos realmente muy rebotadas con la carta y por usar su estudio en la misma pero bueno vamos a la carta

hay que resumen hay que resumirla porque es muy larga los sistemas de inteligencia artificial contemporáneos ya no compiten con los humanos en tareas generales debemos preguntarnos debemos automatizar todos los trabajos incluidos los más gratificantes debemos desarrollar mentes no humanas que con el tiempo no superen el número inteligencia, obsolescencia y reemplazo debemos arriesgarnos a perder el control

de nuestra civilización estas decisiones no deben delegarse los sistemas de IA potentes solo deben desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables por lo tanto pedimos a todos los laboratorios de inteligencia artificial que pongan inmediatamente en pausa durante al menos 6 veces el entrenamiento de sistemas de IA más potentes que GPT4 bueno, los laboratorios

de IA y los expertos independientes deben aprovechar esta pausa para desarrollar y aplicar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y el desarrollo de la IA avanzada que sean rigurosamente auditados y supervisados por expertos externos independientes estos deberían incluir como mínimo autoridades, reguladoras nuevas y capaces dedicadas específicamente a la IA bueno, que los sistemas tengan marca de agua

para ayudar a distinguir lo real de lo sintético rastrear fugas un sólido ecosistema de autorías certificación esto lo acabo de decir con responsabilidad por daños causados por la IA bueno, que nos indemnice lo veo bien y siguen y siguen y siguen a ver, para empezar bueno, si quieres podemos ir en orden con los takes que te hemos apuntado pero yo digo que es 6 meses de que te sigilo eso es mi primera mi primera reacción

hoy tenemos que estar seguros de que nunca acaso harán daño eso es un brindis al sol siempre, todas las tecnologías tienen internacionales negativas es decir, algo de perjuicio traen eso lo ha traído la imprenta lo ha traído el tren lo ha traído hasta la termomix es decir, todo ha tenido sus pros y sus contras esto es, o vas a un tiempo para hacer algunos protocolos o vas a que estemos seguros a las dos cosas no puedes ir

y luego, había una cosa curiosa en todo esto que a mi me llama que es los empleos que son gratificantes que yo creo que decir los nuestros los empleos gratificantes pero los no gratificantes que se jodan pero los gratificantes que son una especie de empleos que para parecer requieren mejor protección por los firmantes eso si es que manténelo bueno, ha habido muchas reacciones, Mati entonces, yo me traído además

dos de las madrinas de nuestra posca de Emily Bender y Timny Jebrew que básicamente yo resumido os habéis flipado, amigos firmantes esos no son los premios reales un poco su tesis es que cuando empiezan a hablar así de que la IA vendrá con mente humana y será el final de la civilización estamos desatendiendo los problemas actuales de las IAS que están en producción y que la gente está usando y que sería lo que habría que revisar

que es ese punto claro, el punto también ellas tienen un ahí hay batallas ideológicas fuertes por detrás porque ellas se situan en otros parámetros ideológicos políticos entonces están en contra de este del futuro de la vida por razones ideológicas porque los consideran long termism que es como eso la gente que se ocupa del futuro lejano y a lo mejor menos del presente bueno, esto básicamente yo no voy a profundizar mucho

pero la gente que se pone pero nombre en twitter en el usuario está contra el long termism y los que no se lo ponen están a favor creo que es más o menos el patrón, ¿vale? bueno, ese es el punto de por ejemplo estas investigadoras que rechazan y están bastante en contra de la carta luego han salido otros como por ejemplo Garimarku que es muy activo dando un poco la chapa con todo lo malo de la inteligencia artificial

que dicen, bueno, se pueden hacer las dos cosas se pueden estar en contra de los problemas a largo plazo y a corto plazo pero Matillo aquí viene un problema si tú no puedes decir oye, a lo mejor acaba la civilización porque las inteligencias artificiales al nivel humano nos destruyen la humanidad y a la vez vamos a preocuparnos si este chat discrimina los extremeños no puede ser, tío acaba de soltar que el problema es la civilización de la humanidad

en ese momento cuando ya haces eso no puedes decir porque no funciona la sociedad así no funciona la comunicación en sí vamos a preocuparnos un poco sobre el riesgo que estaba el difusión siempre pinta los bomberos hombre y nunca mujeres pues ya ese es un problema trivial coño, que estamos hablando del futuro de la humanidad, Garimarku bueno, el más también reaccionó lo cierto a favor de él no hay que decir

que esto él lo lleva diciendo desde mucho antes de que saliera HGPT y de que vieramos todos estos avances que parecen tan apresurados que no es la sensación que da después de este barbecho que ha habido en la IA y él siempre ha sido catastrofista eso es una palabra que repetió varias veces pero es que él siempre lo ha sido sobre la IA así fue como se enamoró de Grimes por los dos tienen esa misma visión

y obviamente él firma la carta de esta y además quiere impulsar que haya un organismo que supervise la IA y al igual que la Federación Unidos que es la que a él le limita hacer cosas con cohetes surgió un poco para poner fin a que la gente se muriera por problemas de fabricación y de mantenimiento de los aviones esa misma analogía la hace para, oye, hace falta una agencia que supervise la IA para evitar que la gente muera a causa

de la IA Garimarku tiene una postura similar a la analogía, usa otra que es la de las medicinas entonces hay un bueno hay unos procesos y unos organismos y una legislación que obligan a que se hallan unos ensedios clínicos con unos protocolos adecuados con unas normas, con una supervisión externa y que sólo puede salir al consumo humano un medicamento que los ha superado con éxito claro que esto, ojo, hace que los medicamentos

sean mucho más lentos, tarde mucho más en salir hace que sean muchísimo más caros porque es un proceso además de lento, es súper costoso y por lo tanto, el entecen mucho y bueno dudo una cosa, que es distinto un medicamento para no sé, la artritis o un medicamento para una enfermedad que puede acabar siendo mortal, un chatbot es decir, aquí obviamente puede haber parte del flipamento que los abajo firmantes

luego comentaremos, pueden tener luego San Alman ha dicho una cosa curiosa, Mati que es bueno, dijo algo así como que hay una cosa del debate con la que he estado de acuerdo que OpenAI debería crear un gran conjunto de datos de alineación, de nuevo por el problema que estamos comentando y de evoluciones de alineación y publicarlos Dice puntos extras y podemos encontrar un prototipo de proceso democrático sobre a qué nos alineamos

porque eso es realmente, queremos que la inteligencia esté alineada a los intereses humanos, ¿cuáles serían? ¿Qué principio deberían cumplirlas los sistemas? San Alman y Uruguay algo reconoce del asunto Sí, pero he hecho con poco con lo que dijo de que cada uno podría decidir los valores de su modelo de lenguaje y de entrevista que comentábamos hace varios episodios Sí, fíjate, Mati, yo creo que hay un punto de

digamos que en las sociedades liberales lo que es bueno y virtuoso es elección de cada uno, tú puedes estar a favor de los toros, puedes estar en contra puede ser creyente y cree que cumplir los mandamientos cristianos o musulmanes o no, puedes considerar que es mejor la promiscuidad o puede ser más tradicional y ser partidario de la monogamia, es decir, lo que es bueno y virtuoso es abierto y es libre, pero hay unos

límites, hay unos límites que sobre todo tienen que ver con el perjuicio del daño a otros. Claro, yo creo que lo razonable en un sistema liberal es que los sistemas de inteligencia artificial funcionen así, yo puedo encontrar virtuoso una inteligencia artificial que sea cachonda y que sea picantona, y otro puede preferir una inteligencia artificial que sea muy comedida o más reservada por decirlo, pero habría unos límites

no podemos tener una inteligencia artificial que llamara a la rebelión nacional-socialista no, nos deberíamos, no? Bueno, pues yo creo que ahí es donde Alman quiere navegar y claro los de los bajos firmantes en ese control tiene un punto de aquí somos un poco la élite de la IA los que llevamos muchos años en el cotarro y de alguna manera deberíamos nosotros ayudar a establecer este control y se debería ser un control más centralizado

en esta élite intelectual que esté apagada a los estados, sí que los estados controlen mucho más esto, todas maneras OpenAi Microsoft yo creo que no van a parar Matías porque os van a intentar evitar parar ante todo porque es que ellos tienen una ventaja de, no sé si de un par de años pero sigue al menos de un año con respecto al resto de la industria y si paramos esa ventaja se desvanece. Pero es que mucha gente piensa que

algunos de los firmantes de esta carta es lo que pretenden, pero que yo sepa sólo Elon está ahí por detrás trabajando en su propia compañía en su propia competencia para OpenAi entonces no sé si esta idea de conspiración pues tiene sentido. Bueno, hay otra visión, hay visiones críticas la de, os habéis flipado la tecnología buena y China es mala ¿Cuál es el conjunto argumento que yo he detectado aquí Mati?

Pues, hay esos pechos habituales de la análisis de la tecnología, del pato de la sociedad, de Jarvis a nivel más internacional, una Enrique Dance en España que han traído un poco el argumentario clásico esto es el pánico moral habitual con un gran cambio tecnológico por lo tanto, y si hubiéramos parado la imprenta de Gutenberg y si hubiéramos parado Internet cuando apareció porque no teníamos la absoluta seguridad de que Internet

pudiera crear problemas, pues es un poco su punto también Tyler Cohen ha escrito sobre el tema en el que básicamente yo soy una parte con estos autores que solo estar de acuerdo en este punto que es ninguno podemos predecir bien el futuro y aunque seas profesor de inteligencia de la dificilidad ni que sea esto a Russell y aunque seas, no lo vas a predecir nadie predijo los efectos positivos y negativos de Internet

a 20 años cuando empezó, entonces esto del riesgo existencial de la inteligencia artificial general bueno, es un poco es un poco este futurismo este adivinar el futuro que que no ha sido acuerdo y luego hay un punto de gente que dice claro, esto si lo haces lo cumplen los buenos en teoría teniendo como los buenos los países occidentales democráticos, pero un Rusia o una China no va a parar porque es lo más aprete los puñitos

bueno, ojo que lo de futurologos es un trabajo hay autores de ciencia ficción y hay periodistas de ciencia y tal que lo consideran su trabajo que es imaginar como va a ser el futuro y a partir de ahí pues las empresas se hacen a una idea y eligen el camino a seguir que lo de futurologos si tú quieres trabajar de ello, Antonio yo te veo a ti que están muy informados como futurologos si, yo ahí, vamos lo único que predico es que la edad de oro del meme

ya lo he dicho la inteligencia artificial no va a traer eso y oye, renunciar al tanto LOL hay que ponerlo en la balanza puede acabar con la civilización pero y los memes empate bueno, hablando de memes llegamos a un gran personaje Matías, que a mí me tiene in love total que es Eliezer Yudkowsky Eliezer Yudkowsky no sé por dónde empezar con Eliezer pero, bueno es el mayor dumeriano, decir, el mayor profeta del apocalipsis de la IA

el tío que lleva décadas con este tema y ahora ha llegado su momento por cierto, lo de dumeriano, la traducción no sé si la has inventado tú, pero te refieres a doom, como el doomsday como el fin de los días si, claro, viene bien es que como leo mucho a anglosajón por esta temática allí el dumerismo está ya en la jerga habitual, entonces como no tengo una palabra así a mano, me la invento el dumeriano, dumerismo

bueno, no lo sé, alguien vendrá con una palabra mejor pero para entendernos viene de justo de lo que tú dices Yudkowsky es un tío que lleva prediciendo los grandes problemas que nos enfrentaremos la humanidad y las posibilidades de apocalipsis durante décadas, está llevando vendiendo esta moto ahora tiene un momento fantástico y, sorprendendemente ha saltado de los canales de youtube un poco marginales

y las listas de correo de supernerds del futurismo la primera plana gracias a la revista Time que le ha dado un artículo en la que él propone que esta carta se queda corta esa es el problema de la carta eso de un amoratorio, no, no aquí hay que cortar por lo sano y que básicamente él es aboga por hacer un seguimiento de todas las GPUs que se vendan controlarla como misiles nucleares y si los servicios de inteligencia

un país ajeno al acuerdo de Beto de prohibir de la inteligencia artificial construir un clúster de GPUs no hay que temer un conflicto entre naciones porque si estarías infringiendo una norma así que es imposible construir inteligencia artificial y hay que estar dispuesto a destruir y bombardear centros de datos rebeldes con ataques aéreos es decir Yukovsky piensa, bueno si Rusia compre mucha GPU iniciemos la guerra mundial

y de repente Time dice claro y de repente un montón de medios hay un experto que dice esto es fantástico yo creo que para Yukovsky este momento dumeriano es como como cortilandia para mí cuando eran pequeños, es un momento mágico momento de fantasía recordemos que Sam Alman también va con su molchila por si llega la apocalipsis es preocupante que la persona que está causando todo esto, el de Torante también se asumó

el dumeriano a ver donde estaba el tío este el Yukovsky cuando los cryptobros acapararon todo el mercado de la GPU ayer donde había que hacer un seguimiento nos habríamos ahorrado muchos sufrimientos la gente que hemos tenido que pagar carol, el hardware unos cuantos, yo consigo unos pocos bomberdeos lo peor de Yukovsky que se ha hecho el Twitter Blue y suelta chapa de esto de 3000 caracteres en Twitter Blue

que eso es lo peor del tío luego en lo general me parece divertido hombre, a mi me gusta más el original que era una bomber que era, yo creo que... pero este como la versión actual ya que una bomber lo tenemos encerrado pues no está mal, luego del tío lo explicó en Twitter que a lo mejor no lo estáis entendiendo mi artículo del time y lo estáis tergiversando y dice claro claro, si tu dices que debería estar por como

la IA puede destruir a toda la población mundial debe estar dispuesto a preventir a destruir preventivamente cualquier centro de datos y incluso si es una potencia nuclear incluso si hay repesales nucleares por la ataques que abriga hacerlo bueno él dice que los países nucleares aliados deberían estar dispuestos a correr ciertos riesgos de intercambio nuclear es lo que se necesita para reducir el riesgo de los grandes entrenamientos de inteligencia artificial

claro él lo explica diciendo a lo mejor no me habéis entendido bien, si, si para acabar con la inteligencia artificial hagamos una guerra nuclear es un crack, ¿no? lleva desde los años 90 hay una lista de correos que se llama extropía con el rollo de la IA nos puede matar a todos sobre si subir la mente un ordenador es posible o no son este tipo de debates que a mi me parecen muy chulos y sobre todo escribió

recién Matías, Harry Potter y los métodos del racionalismo que es como se llama esto cuando hace una obra basada en otra obra un fanfic un fanfic, si que? si, es la historia original de Harry Potter intentando explicar la magia a través del método científico a este tío no lo puedes tramar tampoco muy en serio, no Matías bueno la pública del time tiene que ser claro es importante bueno, no se yo después de haber hecho medios

como saben los medios tiene que tener y su importancia lo pondré en cuenta hay que hacerlo un seguimiento lo voy a seguir en Twitter, voy a poner las notificaciones hay que seguir a este tío toda la semana si, si, si bueno, luego hay más teorías Matías hay por ahí una gente que dice no, OpenEye ya está cerca de la inteligencia del tío general pero para no crear alarma la tiene guardada atención, esa es alguna de las takes

que se han soltado por ahí luego ha habido por supuesto, por ejemplo, James LeCun de Facebook super crítico de la de la carta Andrew Ang nunca sé cómo se pronunció su apellido Andrew Andrew Ang que dice que es una idea terrible que además otro de los grandes investigadores de la IA porque es lo que está viendo un montón de servicios super útiles y super buenos y por lo tanto es estúpido lo de la carta también me gusta mucho lo de Noah Smith

que, oye, gente, esto es un chatbot esto no es inteligencia artificial general no flipéis tanto así que bueno, kick calm no es para tanto para todos los gustos pero sobre todo, no es verdad que la comunidad de la IA esté pidiendo una moratoria algunos personajes con una idea muy concreta están diciendo que viene terminito eso es distinto a que la comunidad en general de toda la IA esté de acuerdo en ese edificio

yo no sé qué pensar, yo obviamente no creo que vaya a haber ningún tipo de moratoria no creo que vaya a haber ningún tipo de pausa y tampoco creo que se venga en las poscalipsis porque GPT4 sepa crear código si creo que esto va a hacer que mucha gente rica se vuelva mucho más rica y que haya una brecha muy importante pero bueno, si eso luego sirve para que cobremos la renta básica universal y podamos grabar más podcasts

pues mira eso que nos llevamos así que no sé muy bien cómo ver el futuro ya, Matías yo comprendo mucho el momento y que salgan de este tipo y dejar a la palestra porque creo que el dumerismo nos lleva contaminando o nos lleva afectando como suceda la última década y ahí yo creo que una mezcla entre el cambio climático que siempre es una sombra muy negativa sobre el futuro y que generacionalmente hace ver el futuro con menos optimismo

con una cierta opesimismo tech como de la primavera árabe y la internet empoderadora y liberadora se pasó una visión bastante diferente viendo mucho lo negativo y viendo mucho más alienante la experiencia online venimos de contarnos en su ejercición mil historias de terror con esto y bueno, de repente hay un vértigo porque la IA en tres años ha dado un salto adelante brutal si lo juntamos todo yo veo normal que haya cierta

aprensión cierta temor y cierta visión negativa y además, anticipo también una cosa ya que me invitas a ser futurista Mati creo que si nos acercamos a la internet certificada general esto va a ser lo que tenemos ahora encima de la mesa el yukoski por 10 porque si se consigue o sea, se acerca yo creo que no, con el deep learning y todo el mundo de la red normal no veo factible que se vaya a alcanzar, pero bueno pongamos en la hipótesis de que nos acercamos

estaríamos en un momento histórico comparable a cuando entendimos que la Tierra no era el centro del universo o un momento histórico comparable a cuando entendimos que no era la creación privilegiada de un dios onipotente sino que no fuimos de una serie de casualidades y combinaciones azarosas de la evolución es algo que te cambia por completo tu sitio en el mundo tu sitio como especie y tu entendimiento de la importancia que realmente tienes

entonces si nos acercamos a eso yo creo que vamos a estar en un miedo y una agitación que es lo que tenemos ahora, pero multiplicado por 10 o por 100 bueno mira la gente que ya venía advirtiendo de una pandemia global que luego veis teníamos razón quién sabe a lo mejor no se, algo de peligro hay yo me quedo como amante de las teorías de la conspiración me quedo con la teoría de la conspiración de que GPT4 realmente ya es agi

y que nos lo están ocultando y claro, le han dicho equivocate a veces para que y que bueno esto ya no tiene vuelta atrás además como de buena tiene que ser la auditoría de nuestros gobiernos para que nadie en estos 6 meses de imparatoria desarrolle absolutamente nada por encima de GPT4 muy idealistas muy tópicos bueno Matías nos hemos ido de hora de una manera loca pero me cuesta mucho dejar fuera a un hombre

que también ha marcado historia Matías a un hombre que atención en nuestra sección basados o haciendo ha pasado un nivel superior Matías ese hombre se llama Rafael Luque y es investigador de la universidad de Córdoba un auténtico crack nos lo ha pasado José Luis Moreno Garvallo por Twitter y Luque es un tío que no paraba de publicar estudios no paraba de crear Matías cada vez más rápido en un año firmó 110

en el primer trimestre de 2020 ya llevaba a 58 y además el químico reconocía que utilizaba cha GPT para ojo pulir sus textos claro estos meses han sido productivos porque hay artículos para los que han necesitado 2 o 3 días y ahora lo hago en un día le echamos un momento y claro ha sido expedientado subpendido de empleos durante 13 años por saltarse una norma de firmar estudios con investigador de otro centro

esto ha de pasar de hacer un paper en 3 días a un día me recuerda lo que decía de esa eminencia que decía a mí sólo me mejora el copilot un 5% ¿no? pues es lo mismo claro es que el gran punto Matías es que Rafael Luque creo que puede ser nuestro gran referente de la sección porque es a la vez basado ha dicho me tienes manía porque soy un científico prolífico y me adora muchísima gente por eso me persiguen

pero es que claro a la vez hace la ciencia Matías claramente es basado ya de la ciencia en nuestro héroe en nuestro primer basado ya de la ciencia y su reacción no tiene precio un científico muy prolífico y me adora muchísima gente esto es muy lolaflores y ahora más nosotros dos ya tiene dos más seguidores ganados para su causa Rafael Luque el lastima que ya no puede hacer la ciencia durante 13 años pero seguro que en este tiempo

algo hará en segundo plano y cuando pasa en 13 años lo publicará todo algo tramará porque claro imagina que pasa en 13 años y llega Rafael Luque 3000 papers de la mesa la humanidad avanza como 15 años gracias a este parón Antonio hemos pasado 25 minutos a ver si podemos acortarlo en postproducción porque si no es que nos obliga la actualidad hacer episodios más seguidos es una cosa que estamos planteando por cierto

nos vamos a ir y os dejamos una semana de barbecho, una semana de a la espera a ver que va saliendo una semana demoratoria que disfrutéis de estos días de Semana Santa chau chau chau chau chau

Episodios recientes

Programas relacionados