Sam Altman quiere (o eso dicen) la inversión más grande de la historia: 7 billones de dólares, el PIB combinado de Japón y el Reino Unido
NVIDIA sigue disparada y aumenta sus ingresos en un 265%. Pero se la empieza a comparar con Cisco
Patrocinador: Nos hemos pasado a la silla ergonómica BS11 Pro de FlexiSpot y, bueno, bueno, qué diferencia con la que teníamos antes. Trabajan con materiales 100% reciclables y son conocidos por hacer los mejores standing desks (escritorios con mesa elevable para tarbajar de pie). Esta semana tienen en oferta el escritorio E7 Pro, que también hemos probado y nos ha parecido superestable. Enlace personalizado: https://tc.tradetracker.net/?c=34393&m=12&a=468363&r=&u=
Además:
- Huawei se está consolidando como un proveedor importante de chips de IA
- OpenAI está creando dos tipos de agentes de IA
- Andrej Karpathy abandona OpenAI
- Lenovo no le encuentra utilidad a Copilot de Microsoft
- Microsoft invertirá 1.950 millones en España para impulsar la IA
- Groq, que no Grok, es la IA del momento por sus velocidades de vértigo
Monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass). Más en monosestocasticos.com
Transcripción
A todos, bienvenidos a monos Estocásticos. Te tengo que confesar una cosa, Antonio. Llevo dos noches acostándome a las tantísimas, ¿vale? Que creo que tú ya estabas despierto cuando yo me he acostado por un alunizaje, como si fuera esto los los años setenta. Sí,
el otro día te disculpé con la con los compañeros del gimnasio, Matthew, y no no Vi un poco la la perplejidad en su rostro cuando yo les explicaba, no, es que Matías hoy no puede venir a entrenar porque por la noche se queda viendo cohetes que despegan y aterrizan y las cosas.
Los tiempos han cambiado tanto que la Apolo once, pues era Nihalstrom el que bajaba la nave y aterrizaba perfecto y todo salía bien, y ahora, como es todo totalmente autónomo, pues ya van dos naves seguidas que quedan tumbadas en la Luna y que y que y que fallan en el aterrizaje, y esto ha sido como en dos partes. Anoche todo estaba bien, celebrando que la nave estaba en vertical y una rueda de prensa veinticuatro horas después diciendo, bueno, hemos revisado los datos y en realidad no está en vertical, en realidad está totalmente tumbada la nave. Los tiempos cambian, los tiempos cambian, Antonio. Pero bueno, no sé si esa ironía, nosotros es de lo que venimos a hablar hoy, y sobre todo vamos a hablar un poco de OpenAI, una empresa del que no mencionamos mucho en el podcast.
Fíjate que aquí el amigo Shan de nuevo se nos desmarca. Bueno, nuestros oyentes saben que con el episodio especial de Sora, pues, se nos quedaron muchos temas atascados, pero uno de los más interesantes y más jugosos para comentar era aquella exclusiva que publicaba el Wall Street Journal sobre un tema recurrente en monos histocásticos, Matías, que es San Altman pidiendo perras. Pero esta vez no pedía un unos milloncitos, no pedía unas decenas de millones, no pedía unos cientos de millones, las cosas normales de Sam, sino que siete billones de dólares. Aquí hay que aclarar siempre que este siete billones es el siete siete billones europeo, español, no no el siete billions anglosajón, porque en términos anglosajones se unirían siete trillions, es decir, los siete billones son siete millones de millones para hacer la mayor inversión de fabricación de chips. Bueno, la mayor inversión de la historia para fabricar chips.
Es que esto de trillones en inglés sonaba un chiste de de Los Simpsons, del señor Vares que tenía el billete del trillón de dólares, o creo que se lo quedó Castro en en Cuba, pero la cuestión es que basamos de un mundo en el las empresas más valiosas valen dos, tres trillones, y son con tres contadas, a un mundo en el que Sam Alman le está pidiendo siete trillones y luego brovió en Twitter, bueno, en realidad creo que quiero ocho, pero no es tan así, ¿verdad?
Sí, yo creo que además este tema se ha explicado, no se ha explicado bien, Matti, porque en estos números nos perdemos y sabemos que en en España habría que haberlo explicado en Cristianos Ronaldos o en Reformas del Bernabéu, ¿no? Esos son los estándares. He visto por ahí referencias que le han dicho, estos son como catorce mil súper yates de Jet Bezos. Bueno, catorce mil yates, tampoco tampoco tanto, ¿no?
Nosotros nos burlamos del cómo se usa el Bernabéu para ver, pues eso, comunidad de medida, pero anocheceré con un amigo que me dijo que él ha estado mirando la reforma del Bernabéu como si fuera ir a mirar una reforma de un jubilado en YouTube todos este todo este tiempo. Así que hay gente que el Bernabéu se lo toma muy en serio, incluso aunque no vivan en Madrid.
Sí, sí, sí. Bueno, el tema es que lo que nos pone por delante esta noticia, que luego ha sido matizada, es decir, hay aquí también tenemos una guerra de fuentes, porque mientras la Wall Street Journal mantiene que San Alma están activamente en esta en esta propuesta, porque tiene este diagnóstico. El gran cuello de botella para que explote la inteligencia artificial es la la fabricación de GPUs, la fabricación de chips. Nos encontramos en un momento crucial en la guerra geopolítica, alrededor de dónde están las fábricas, quién las puede fabricar, el veto de Estados Unidos a China, la posición de Taiwán intermedio, quién están llegando a reducir los nanómetros y, por lo tanto, tienen una ventaja importantísima en esta competencia de los chips. Ese es un tema fascinante que, además, fíjate, yo creo que algún día lo tendremos que que tratar a fondo en monos estocásticos.
Hay un libro que se llama The Chips Work, que es que es una maravilla, además que es que es casi un thriller geopolítico sobre sobre este tema. Wallisher Journal tenía esta esta propuesta de de que Saltman quería los los siete billions, y luego de information ha dicho que en realidad no está pidiendo tanto, ¿no? Que esa cifra era lo que él estimaba que sería la suma total de inversiones necesarias a nivel global, no solo la que tiene que hacer él. Entonces, y además que matizaba la información que no es una cifra anual, sino que sería para cierto número de años, sin especificar cuánto, pero que, bueno, que era como una estimación un poco más gruesa y no tanto de que quería que se lo que se lo dieran a él para para empezar esta esta guerra de chips. Realmente la primera impresión cuando yo vi lo de siete tríos es Sand Alman, es un flipado y y y es adicto a las rondas de inversión, pero luego, claro, hemos tenido el nuevo momento Nvidia, Matías.
Copetas, Es que envidia sola está haciendo que la economía de está, está salvando la economía de Estados Unidos de una manera que yo creo que deberían ponerle un monumento
¿Tú tú no tienes un poco en síndrome de, jolín, si en vez de hacer podcast de Tesla hubiera comprado acciones, si en vez de hacer un podcast de Apple, hubiera comprado acciones, y si en vez de hacer un podcast inteligente, hubiera comprado acciones de Nvidia, ¿no tienes un poco ese síndrome, Mati?
Siempre lo he tenido, con todo con todo en mi vida. Si en lugar de pedirme este postre, me habría pedido el de enfrente, pues seguramente me hubiera gustado más, ¿no? Eso, en todos los aspectos de mi vida tengo ese pensamiento, ¿no?
Envidia pegado el petardazo, Mati. Primero empezó a subir a bolsa antes de resultados de una manera espectacular, porque se rumiaba, se esperaba, se patinaba, que iban a ser muy buenos y por encima de las expectativas de los analistas, empezó a adelantar a Amazon en bolsa, empezó a adelantar a Alphabet en bolsa, en fin, que la demanda de los chips de Nvidia ya se sabía que estaba siendo tan tan tan fuerte, realmente estaba en una posición buenísima de ser capaz de subir lo lo que pide por ellos y que, por tanto, los márgenes de de esta compañía iban a ser realmente potentes, ¿no? Lo los resultados han sido, uf, que que son increíbles, son Podemos enumerar los los números, pero es que es es increíble el el nivel de de envidia de cómo cómo ha descubierto,
Sí, bueno, nos sorprendía el otro día cómo Microsoft había pasado a Apple en valoración, esos tres billones, ¿no? Y ojo que viene por detrás Nvidia, que ya vale dos, El el mundo de los trillones, yo hace unos años no me lo esperaba, pero fíjate dónde está muy bien.
Es que en los tres primeros de NS, claro, son resultados trimestrales, un crecimiento de ventas del doscientos sesenta y cinco por ciento, un aumento de beneficios del margen del trescientos treinta y ocho por ciento hasta los dieciséis mil ochocientos millones de dólares. ¿Estaba buscando aquí los números? Es que es que es una cosa tan de volarte la cabeza, creo que batieron el récord de subida del precio de una acción en un día. Bueno, enhorabuena, los premiados, es lo que veo en el visionario comprar acciones de pi de hace cinco años, han multiplicado creo que por diecisiete, unos resultados, una cosa que yo no recomiendo eso de el stop picking que lo llaman, ¿no? Porque es muy difícil acertar, pero lo que lo hayan hecho con Nvidia, pues ahí lo tienen.
Y de fondo un debate, ¿cómo es sostenible esto? Y ¿cuánto se parece a la historia de Cisco lo que está pasando por Impedia?
Joder, es que hay aquí un señor en en Twitter, John Torres, que ha superpuesto la gráfica de Cisco en entiendo que en los noventa, sí, entre los noventa y los y los primeros años de los dos miles, y y luego ha puesto encima la de Nvidia desde el dos mil veinte hasta hoy. Y el crecimiento es muy parecido, están llegando a niveles muy parecidos a Cisco. Pero claro, Cisco, a partir de aquí, se pega un guarrazo increíble. Entonces, no no sé si a Nvidia le va a pasar lo mismo. Yo creo que el punto débil de Nvidia es que muchos, yo sí diría que casi todos los H cien se fabrican en Taiwán.
¿No?
Claro, es un momento geopolítico complicado porque si vamos décadas a la espera de la amenaza china de que quieren hacer algo con Taiwán y de que aspiran a su anexión, mientras que Estados Unidos es superprotectora con esa posición taiwanesa y además está intentando que la mayoría de compañías, mientras protege Taiwán, también fabriquen dentro de Estados Unidos, y tiene inversiones loquísimas. De hecho, Europa también tiene un presupuesto enorme y descomunal para traer fábricas de, pues, de chips a a nuestro continente y conseguir esa ansiada autonomía tecnológica. Por eso decía antes que geopolíticamente es una es una un combate realmente apasionante. Pero vamos al gráfico de Nvidia contra Cisco, porque para que Nvidia y Cisco tuvieran vidas paralelas, tenían que pasar dos cosas. Recordemos, Cisco, en los años noventa, fabricaba el equipamiento de, digamos, nuclear de las comunicaciones para posibilitar Internet.
Entonces, conforme las expectativas económicas respecto a la red se se multiplicaban, aumentaban, la valoración de Cisco, que era un poco el facilitador, la infraestructura, es decir, de de de este desarrollo de de de la red subían y explotaban e iban hacia arriba, como le pasaba ahora mismo a Nvidia. ¿Qué es lo que pasa? Que cuando explota la burbuja punto com, se se produce esa gran decepción de que económicamente Internet, por lo menos en el año final de los noventa, el año dos mil, no iba a responder a las expectativas, algo que sí haría de cada después, pero en ese momento no no lo hizo, claro, todo lo asociado a Internet empezó a caer en picado. Pero es que además a Cisco le pasó otra cosa más, no es solo que Internet y sus valoraciones habían sido descabelladas y se vinieran abajo, sino que su tecnología empezó a ser commodity, es decir, perdón por el anglicismo de nuevo, pero básicamente se se viene a referir a que fue igualada y fue muy sustituible por otro montón de compañías que eran capaces de fabricar los mismos, a a un nivel similar, los mismos equipos de comunicación. O sea, que para Nvidia caerse como es disco tendría que pasar, en teoría, las dos cosas, que hubiera una gran excepción de la burbuja de la integración artificial, que está por ver, y dos, que los competidores sean capaces de ponerse a su nivel.
Aquí yo tengo más dudas de lo segundo, porque es bastante más sofisticado lo que hace Nvidia que lo que hacía Cisco, da la impresión de que tienen años de ventaja.
Un momento, Antonio, que tengo que contarte una cosa. Tú sabes que yo hace un año compré una silla, compré una silla, pues de estas de Amazon Superventas, pensando que era ergonómica, que me iba a salir bien la cosa, pues no no ha salido bien la cosa, ¿vale? Chirría, cruje, se le ha acabado el gas por lo que se baja, bueno, no era de la calidad que parecía cuando abrí caja, pero resulta que Flexiespot, que patrocina este episodio de monos estocásticos, me ha mandado una de las suyas. Esta de aquí, la BS once Pro, que tiene ahora mismo ciento diez euros de descuento en la web de Flexpot punto es. De todas formas dejaremos un enlace personalizado para monos estocásticos en la descripción del episodio, por si queréis echarle un vistazo.
Y bueno, es es una pasada, se nota la solidez y y la diferencia de esta silla con la que tenía antes, y también he podido probar, porque esta gente vende Standing Desk, de estos escritorios elevables para trabajar de pie, He podido probar el E siete Pro, que ahora mismo está en oferta, es una oferta flash. Me ha sorprendido muchísimo también la calidad de este escritorio de de madera oscura, también lo tienen en en blanco, con esas patas telescópicas de tres partes que cuando yo busqué en mi escritorio me decían, tiene que tener tres partes para que sea más estable, pues este es verdaderamente una pasada. Muchas gracias, Flexpot.
Bueno, competidores, va a haber amenazas de, yo creo que hay amenazas, no solo de de competidores directos que hagan lo mismo que Nvidia, sino de modelos de inteligencia oficial que funcionen con otro tipo de arquitectura de computadores que no sean las de Nvidia, luego mencionaremos uno. Mientras en China, esto es interesante, creo que Huawei está consiguiendo un un nivel de de fabricación con la con la empresa oficial China, con ese mic.
Huawei, que es el Cisco de China.
Sí. Más o menos. Fíjate, a mí Huawei, en Chataca, pues visitábamos cosas de Huawei, hablamos con su representante, una una marca que cubríamos. Siempre me una marca que cubríamos. Siempre me pareció que era un intento de de de hacer una IBM moderna china, ¿no?
Una IBM como la gran empresa que hace de todo tecnológica, ¿no? Bueno, el caso es que, de hecho, Huawei en China se ha tenido que mover de fabricar menos kirtings, que son los microprocesadores, para sus móviles y sus dispositivos de electrónica de consumo, para fabricar muchísimos más chips de inteligencia artificial, porque el gobierno chino, y la dulce China están presionando hacia ellos. Entonces, China, a pesar del aislamiento, sobre todo con con el con el hito de conseguir la fabricación de de chips de bajo número de de nanómetros, empezó a a señalar o a sacar pecho de que a pesar del veto de Estados Unidos no se iba a quedar atrás por no tener la sempidia. Entonces, bueno, es un tema fascinante, yo creo que nos va a salir mucho mucho este año, bueno, tú te anticipabas que íbamos a hablar de OpenEye, Mathee, y OpenEye. En estas dos semanas que solo hemos estado mirando Sora, hay como otras quince noticias importantes que vamos a intentar resumir en las dos o tres más relevantes.
Cuando te dejo elegir a a cuál vamos.
Yo me quedaría con la de, la más importante yo creo que es la de el el trabajo que están haciendo de agentes inteligentes.
Yo lo que más estoy esperando, esto lo he dicho en varios episodios, es que lleguen ya esos agentes prometidos de IA y que ellos tenga que trabajar, interactuar con el ordenador lo mismo lo menos posible, y que la IA lo automatice todo por mí. Pero no están llegando, Antonio. Y ahora estamos hablando de que OpenAI está desarrollando dos agentes de IE internos, bueno, como producto, para automatizar tareas en en en tus dispositivos, ¿no?
Sí, fíjate, yo creo que está muy relacionado con el tema anterior, Matty, porque con la tecnología y lo que tenemos ahora, tú me dices, ¿es una burbuja allá? Pues con lo que tenemos ahora yo no veo una correspondencia entre el impacto que puede tener, pues, los generadores de imágenes, incluso ChatGPT, ¿no? Todo este tipo, porque cuando la inteligencia artificial se queda reducida a dos cosas, a dos requisitos, que es tareas unitarias, es decir, que empiecen y acaban, y fin, una tarea aislada. Y además que tienes que tener mucha tolerancia al error, porque todavía alucinan, porque todavía la inventan, porque genera imágenes imperfectas. Cuando la inteligencia artificial queda reducida a esos casos de uso, yo no veo la revolución económica que justifica los trillones, billones, millones, que que siempre hablamos en el podcast.
Ahora bien, si OpenAI consigue estos agentes inteligentes, que recordemos un poco la idea, es soy capaz de ejecutar un conjunto de pasos de forma autónoma, si se puede poner el ejemplo de cómprate un billete de avión, ¿no? Pues yo le digo que quiero viajar a tal sitio y y a la gente, pues, lo busca todo, ¿no? Que hace una búsqueda, compara precios, se sabe cosas que a mí me interesan de los viajes y me y me lo reserva todo, ¿no? Es como tengo mi agente de viajes hecho con inteligencia artificial. Claro, si vamos al escenario de ese tipo, ahí sí ahí puede haber, y además es fiable y no se equivoca, puede haber automatizaciones potentes que tengan un valor económico muy alto.
Entonces, yo creo que en este tema, más que en GPT cinco, creo yo, se juega OpenAI y la industria evitar el camino de la burbuja.
¿Tú crees que esto de los agentes de IEA puede dar que hablar en en materia de privacidad más de lo que están dando ya que hablar los chatbots? Porque para ser un buen agente de IEA tendrán que saber cómo funcionas tú a un nivel muy profundo, ¿no?
Sí, sí, sí, sí, sí. De hecho, hay temas de privacidad y yo creo que hay temas de confianza, yo creo que una nueva oleada de de miedo y recelo de la inteligencia artificial, porque primero lo los extremos diciendo, uf, este es el camino para darle el control de las armas nucleares a la inteligencia artificial y moriremos todos. ¿No? Bueno, habrá un poco de eso, pero habrá también micro historias de cuántos peligros hay en dejar que la IA, en ciertos aspectos, decida cosas por ti, y eso realmente yo creo que las generaciones que han crecido con Internet, las generaciones que han crecido sin Internet, cómo consideramos algo nuevo de lo que no nos fiamos, también debate técnico muy potente sobre si realmente son capaces de hacerlo y que sea fiable, ¿no?
Mira, te voy a contar una movida personal. A mí me gustaba, y durante muchos años tuve una sola cuenta de de Google, y lo que hacía era reenviar de todas mis otras cuentas de trabajo y tal a esa cuenta todos los emails, hasta que un día en mi en Gimmodo me dijeron, oye, vemos que tienes configurado un un reenvío automático, esto lo tienes que quitar porque no lo puedes hacer así, no sé qué. Y a partir de entonces, inicié un camino en el desierto en el que fui probando diferentes clientes de email, y al final me quedé con uno que barato no es, pero como que tiene tiene aplicaciones para todas las para todos los dispositivos, se llama Spark. Bueno, pues Spark tenía ahí integrada, pero no la usaba para nada porque escribía los emails. Estimada, tú lo podías ajustar un poco el nivel de de formalidad a informalidad, pero que sabes que ese email no lo ha escrito Matías.
Bueno, pues el otro día lo abrí y me pone Spark ahora escribe con tu estilo, pero no me ponía en ningún sitio la política de privacidad, solo me daban la solo me daban la opción de probar o entendido, o cómo cancelar, ¿no? Y y y no sé no sé si darle a probar, entonces, oye, tengo tengo un poco de miedo y los últimos mes míos son con mi gestor.
Pero, esto es un tema que que me parece chulísimo, Mati, porque para enseñártelo por la pantalla, el sistema de correo lee tu correo. Claro. En teoría, pues mueve los bits de un sitio a otro y dependiendo de lo cifrado o del funcionamiento de seguridad del correo, pues en los servidores del proveedor estará tu correo en plano o estará cifrado, de manera que a lo mejor el propietario, el proveedor de correos no no tiene forma de leerlo, hay distintos niveles de privacidad aquí. Prota un mail, por ejemplo, es súper seguro y otros, pues, son más laxos. Pero claro, conceptualmente, tú dices, para que me lo pueda enseñar algunos de los sistemas, al final acaba leyendo, y sé leyendo en el correo convencional tenemos esa idea de que, pues no hay un problema de seguridad porque simplemente lo enseña, ¿no?
Hace un análisis semántico. Aquí, probablemente, en términos de sistema y de seguridad esté pasando algo muy parecido con tus correos, pero claro, Spark, de alguna manera, tiene que hacer un análisis más, pues, como más complejo, ¿no? Tiene que intentar adivinar tus tus frases hechas, tu estilo de escritura. Entonces, hace como como un análisis un poquito más profundo y, aunque técnicamente sea lo mismo, es decir, guardan tu correo, podrían acceder a él, lo tienen allí en en sus servidores, pero como ahora hacen este análisis de intentar entender cómo tú lees, ¿no te da una sensación de menos privacidad? ¿No te da una sensación de que me están me están mirando mis cosas?
Sí, sí, totalmente, o sea, me me sentía expuesto, no sabía si aceptaste.
Aceptaste, ¿verdad?
Acepté, por supuesto, no
lo sé. Sí, sí, es que ya te conocemos, yo también hemos dado un análisis.
No lo pensé, no lo pensé ni ni medio minuto, ¿verdad? Acepté.
Bueno, ¿tenés ratito de opinión hay? Porque se llevan demasiado protagonismo y hoy yo creo que tenemos chicha en otros temas. Uno, dicen, publicaba The Verts que estaban preparando un buscador, bueno, no sabemos qué es un buscador, pero si un competidor es el buscador de Google, ya muchos casos de uso, yo me lo llevo más a HGPT que a Google, pero, bueno, ellos parece ser que quieren hacer algo más estructurado. Aquí yo creo que el referente es Perplexity.
Eso iba a decir, es que Perplexity, si tú ves entrevistas, perdona que te interrumpa, pero ves entrevistas a varios súper CEOs, no sé si era Jeff Bezos, pero todo el mundo está usando Perplexity. O sea, la gente a uno de los productos que más les ha flipado y que está un poco bajo el radar es Perplexity, porque claro, une ese esa motor de búsqueda tradicional con la IA tan bien, tan bien, y lo hace tan bien, que es como adelantarte un poco al futuro.
Pero aquí yo añado un punto sobre burbujas de inteligencia artificial, burbujas del mundo en el que vivimos. Tú miras los estudios de mercado de mercado de búsquedas y un Bing Home Perplexity no le están haciendo nada, nada de pupa en los números grandes a Google, así que, bueno, esperemos. Dos más de OpenAI, han perdido los derechos de exclusiva de la, bueno, no han conseguido registrar como marca comercial GPT, lo cual para todas las aplicaciones así que intentan parecerse a ChatGPT y que están en en los mercados y para todos esos proyectos empresariales, ¿no? Matías GPT, etcétera, pues es una noticia, entre comillas, buena porque no no tienes la marca todavía.
Sí, porque GPT al final es la tecnología, es un Transformer preentrenado generativo, ¿no? Eso es en lo que significan.
Sí, sí, sí, es verdad. Yo aquí legalmente me me pierdo un poco, no sé si se debe de otorgar o no, pero bueno, es verdad que se parece un poco a lo genérico, ¿no? Pues no lo sé. Y por último, un un amigo del podcast, Karpathy, se ha ido de de OpenEye.
Eso me ha dolido. Hombre, yo
creo que OpenEye ha perdido uno de los genios de la inteligencia artificial de esta generación, aparte de que a Shut Kever lo tienen metido en un en un congelador, creo que es un rumor que corre por ahí que no que
no le dejan hacer mucho de
esta Ilia. Hemos podido ganar, hemos podido ganar a un gran youtuber, Carpati, los vídeos de que tiene de inteligencia artificial son una maravilla, entonces cuanto más
Y hace tu tiempo tengas.
Sí, está está muy bien.
Lo que pasa es que, claro, pasas de ser director de IAT Tesla a OpenAI, y uno piensa, joder, pues este, le han ofrecido algo interesante, y se va en nada de tiempo, en unos meses, no habrá pasado ni un año, ¿no?
No sé, es que a veces es como los fichajes del del mercado de invierno en el fútbol, ¿no? Que no, no, no entras bien, no llegas con el equipo que ya estaba rodado, no acabas de integrarte, de entrenador no te da oportunidades suficientes y, bueno, mejor separar caminos. Mira, fíjate, yo creo que hay un hilo conductor en este podcast que tiene que ver con el el si estamos en una burbuja o no, porque hay un un reportaje muy muy interesante que han hecho la gente de, creo que Ware Slic Journal otra vez, bueno, sí, sobre empresas que han integrado Copilot de Microsoft, es decir, la versión empresarial, esta que son veinte, treinta dólares al mes por por usuario, y que ofrece integraciones de IA en toda la suite de de de Microsoft, cosa Tracy cinco. Y de momento, parece Matte que hay división de opiniones.
¿El Lenovo lo ha lo ha integrado y no no les ha ido bien o quién?
Bueno, básicamente han venido a decir que que los usuarios no empezaron a usarlo y probarlo con entusiasmo, pero que después de un mes el el uso de Copi lo había caído el veinte por ciento. No es buena señal, no no es buen síntoma de que de entrada, de la fase de experimentación y prueba empieces a usarlo cada vez menos, y fíjate, ¿Sabes la la la funcionalidad que has mencionado como más útil? Es el llevarte una IA a las reuniones, que es, por ejemplo, ahora que estamos hablando tú y yo aquí, pues tendríamos un tercer invitado, que es la IA, que lo grabaría todo, que lo transcribiría a texto y que sería capaz de hacernos un resumen. Y, sobre todo, la gente lo está usando para faltar a reuniones, Mati, es decir, no puedo, estoy muy liado, pero va mi hija, escucha y me hace un resumen y, por lo tanto, yo, pues pueda estar trabajando de verdad, ¿no? Porque me tenéis hasta hasta el hasta arriba, ¿no?
De reuniones y juntas.
Pues yo esto lo uso en mi día a día, pero no con reuniones. Yo lo dije en el episodio anterior, me parece, me descargo transcripciones de vídeos y le pido a ChatGPT que haga una enumeración de los puntos claves del vídeo, y me ahorro verme el vídeo. Y yo esto me parece un uso que te ahorra un montón de tiempo. Pero, en fin, lo
siento por los Sí, sí, sí, de verdad que, claro, el vídeo es que es muy demandante de de de atención y cada vez estamos menos menos dispuestos. Mira, a mí me pasó cuando salió una una web, un servicio que te resumía libros. Entonces, hay mucha gente del mundo de la empresa que que le gustan los libros de, se llama el libro de management, ¿no? De de consejos profesionales y empresariales. Claro, decían, pues, mira, estos estos libros tienen mucho relleno, tienen dos o tres ideas y al final te meten doscientas páginas y me vale con el resumen.
Yo ahí no no no no acabé de entrar, no me, fíjate, ni siquiera llegar a probar el servicio porque no me gustaba la idea, Matthew. Para mí convencerme de una idea. ¿No? Para yo realmente interiorizarla, no me interesa solo punto final o la conclusión, sino tengo que ver cómo se ha llegado, cuál es el camino, cuál es el razonamiento, cuáles son los argumentos, cuáles son la base, cuáles son las pruebas, porque si no, no la interiorizo y no me convenzo. Y creo que ese de cómo he llegado a esta conclusión es muy importante y por lo tanto yo nunca acabo de entrar en lo en en los resúmenes en en en esa conclusión final y y punto, ¿no?
Espero que mucha gente piense como tú, porque nuestro podcast dura una hora. No quiero que la gente empiece a transcribir nuestro podcast y resumirlo, porque si no se se perdería, seguramente que el Chagembe te descarte los los chistes y este tipo de conversaciones.
Por cierto, Microsoft invertirá casi dos mil millones de euros en España en dos años, notición, notición. Es verdad que está Microsoft en un papel de súper inversor en todos lados, en Alemania, por ejemplo, va a meter tres mil millones, Alemania es más grande, no no pasa nada, pero es un un un paso importante ahí que que que vamos a tener y que, bueno, me gustaría ver un poco más de detalle, creo que sería interesante saber si es mucha infraestructura, es decir, data center, servidores, etcétera, o también hay parte del know how de de de trabajo de alta cualificación que se va a quedar aquí y no todo va a ser manejado desde desde Redmond, Seattle o donde donde tenga el centro de inteligencia artificial Microsoft, pero bueno, en todo caso
Podríamos decir de todas formas que los mejores data centers de ahí están en Madrid, ¿no? Que estoy segura que en Madrid no están mucho.
No, no sé dónde lo van a poner, fíjate, ese ese detalle no es cierto, pero claro, hay una cosa con España, que es que lo tienes que poner en un sitio con agua. Aquí Andalucía tenemos la ha de perder, no tenemos un, a lo mejor, bueno, hay hay algunas personas de Andalucía que sí tienen un un una unas lluvias decente, pero claro, el agua de Madrid es muy buena, entonces, por ahí a lo mejor Madrid tiene tiene opciones. De hecho, el otro día estuve en un evento, Mati, que fue el ministro de Escrivá, en el nuevo Ministerio de Transformación Digital, y tengo que decir aquí que me gustó mucho el el discurso de Escrivá sobre desarrollo de inteligencia artificial, apuesta por el futuro y que España y Europa están en ese vagón y no lo pierdan, ¿no? Que me parece uno de los, sobre todo porque mis expectativas con respecto a las posturas típicas del gobierno con respecto a la IA y el desarrollo tecnológico han sido, bueno, las expectativas eran bajas porque siempre han abundado mucho más los mensajes negativos y y fiscalizadores, más que el de impulso y el desarrollo a a la industria y la tecnología.
Y bueno, me gustó mucho el el mensaje de escribir. Vamos a cerrar el el momento político de del podcast, porque uno un amigo del podcast, un ex ministro, no está pasando por su mejor momento, que que es un un tema delicado, Matías, pero, bueno, no vamos a aumentar la dicha, porque hay un modelo que está fuera de las grandes empresas y que nos da un poco de esperanza de que las startups tienen mucho que decir aquí. Se llama GROC y no es de Elon Musk.
Claro, yo cuando empecé a oír a hablar sobre GROC, que hubo unos días que era todo lo que la gente está mencionando en redes sociales, porque estaban flipando. Ahora hablaremos de la velocidad de este de esta IA, de este sistema de IA. Hubo un momento que me me me confundí, GROC, me suena un poco de cierto modelo o chatbot cuñado de Elon Musk, pero se escribe con q, el el Groc de Elon Musk se escribe con k. Entonces, ahí está la diferencia, el matiz. Por lo demás, parece que esta gente se ha montado un equipo que permite que vaya, pero, de verdad, como ningún otro modelo de Ian.
Sí, aquí te voy a confesar, yo me tengo que meter un poco más en el el el en los documentos técnicos de de los amigos Groc. Solo me he quedado un poco en los resúmenes un poco más a alto nivel y es súper interesante porque ellos dicen, en el momento de inferencia, es decir, cuando el modelo ya está entrenado y te va a dar a dar la respuesta, se tarda mucho por la arquitectura actual, porque hay mucha aleatoriedad y que de alguna manera ellos presentan una arquitectura. En este momento, en el momento de darte una respuesta, la respuesta sea bastante mal determinista, se calcule en el momento de entrenar y no en el momento de responder, y que por debajo, en vez de una GPU, tenga una LPU, una unidad de proceso lingüístico. Me parece superinteresante porque es una innovación para los modelos de lenguaje desde la unidad de procesamiento, y esta innovación desde la unidad de procesamiento es el tipo de competencia o el tipo de alternativa que podría hacer más pupa a Nvidia, y no tanto el que alguien o otra empresa consiga un nivel de GPU similar a ellos. No, a tu juego no te voy a ganar, pero si cambiamos de juego, pues pues simplemente sí, porque de que haya más competencia.
Y lleva por debajo Mistra, ¿no? La el modelo francés.
Sí, sí, sí, sí. Es decir, ellos han innovado más en el hardware y han aprovechado modelos de inteligencia artificial abiertos. Fíjate que cuando ya estamos a este tipo de de velocidades, estas innovaciones que hacen que la respuesta del modelo de inteligencia artificial sea inmediata, de repente nos podemos flipar con cosas que ahora mismo sabemos que no son posible. ¿Por qué en los videojuegos va a ser está siendo todavía muy difícil meter modelos grandes de lenguaje? Porque en videojuegos no podemos esperarnos medio minuto a que el personaje que tenemos delante se le ocurra qué tiene que decir, porque como nuestra nuestra diálogo con él no estaba preprogramado, cuando está preprogramado y es, si dice esto, respondo lo otro.
Un if lo resuelve de inmediato, pero los modelos grandes del lenguaje no funcionan así. Fíjate que ya hay gente que se ha flipado y dice, mira, vamos a juntar Sora y su creación de mundos. Un modelo a lo Groc que inmediatamente sea capaz de de dar respuestas y, de repente, tú ya puedes tener un mundo de videojuegos o de de de virtual en el que los personajes son ultrarrealistas, te pones tus gafas de la gama virtual, Mati, y además a la hora de hablar son inmediatos, son tiempos reales, son como si fueran personas humanas. Entonces, este tipo de innovaciones que dices es solo más rápido, pues bueno, solo más rápido, pero a veces esta rapidez permite usos que hasta ahora no no eran no eran verdad.
Joder, pues, ¿sabes? Sí, es verdad, ya empezamos a ver videojuegos que se hacen con esto porque, pues, pues, está interesante, cómo puede llegar a disparar la creatividad de mucha gente que no tiene conocimiento ni dinero para para desarrollar un videojuego, poder hacerlo de esta forma.
Bueno, bueno, hay unos amigos del podcast, los amigos de Google, que han hecho muchas cositas y han sido muy protagonistas, Mati, Han dado juego, Gem y Nai, esta estas dos semanas.
Sí, y creo que fue el mismo día, empezaron anunciando Gemma o Gemma, que es el el Jamie Knight de código abierto. O sea, cuidado, Mark Zuckerberg, porque se te se te terminan los argumentos que otras empresas grandes parece que también van a apostar por el open source, ¿no?
Sí, sí, es muy interesante, muy buena propuesta. En los benchmark, bueno, hay que decir que los modelos de Genma son versiones de Jamie Eye chiquititas, o sea, se suelen meter como siete B, trece B por el el nivel de compresión al que someten a al modelo. El caso es que, claro, estos modelos chiquititos son muy interesantes para ser ejecutados en local, para integrarse con dispositivos como teléfonos móviles, bueno, todavía son un poco demasiado para el teléfono móvil. Pero bueno, en caso que que es un camino hacia hacia esa ejecución sin tener que ser, a tirar al a la nube y preguntar, y son súper interesantes de cara a que otra gente como GROCA ha hecho con Mistrack pueda hacer sus propios desarrollos. Y bueno, en los benchmark está saliendo mejor que JAMA dos, esto es esto es Gemma de de de Google, y parece que la estrategia de Google va a ser jugar a dos barajas, tener unos modelos propietarios, los los de mayor nivel o los más potente, pero la verdad intentar capturar parte de los beneficios que da liberar el software y y eso es lo que ha hecho.
Y ese mismo día que anunciaron Jetman también anunciaron que JetAJ está integrada la IAT de Jetmina en en Google Workspace, que es la versión de Gmail y de todos los servicios de Google para empresas. Así que han pisado el acelerador de una forma en Google interesante, pero también se han pasado de frenado. Bueno. Ha sido el meme de la semana, ¿no?
Maty, antes de pasar al meme de la semana, es decir, yo llevo pensando en estos días y te lo te lo quería plantear porque había un tweet de Sander Pichai. Estamos introduciendo una nueva oferta llamada Gemini Business, que permite a las organizaciones utilizar IA generativa en Workspace a un precio inferior al de Gemini Enterprise, que sustituye a duet AI para Workprise, para Workspace Enterprise. Te has enterado, Mati? Te lo repito. Entonces, atención, con con este trabalenguas de Google, con sus productos de profesional de inteligencia artificial, ¿se han hecho la pichai un lío, Mati?
Es que yo iba pensando en, jodín, puedo meter, hacerse la pichai un lío en en el podcast. Llevo tres días pensando en eso, Matías.
Yo yo te iba a contestar algo serio sobre cómo Google y los nombres de productos y cómo todo lo está, lo planea siempre así con el culo, pero después del del chiste creo que pasemos a
otro tema. Bueno, yo creo que ya, bueno, no sé si nos va a poner en la en la en la lista de vetados Google a la orden de de de la información de la de la empresa. Bueno, es es una broma amigos. Pero bueno, tenemos un síndrome que tú que tú ibas a mencionar, Mati, que es el de los nazis negros, cuéntanoslo.
Dios, nazis negros, además ya te estás posicionando un poco en la pelea que que hubo, porque esto, yo es que me paso las veinticuatro horas del día en Twitter, y de un error en Gemini, un error de de afinamiento al final, se han sacado tantos debates a flote que que empezó a dar hasta pereza el tema. La cuestión es que el Gemini, el el Pro uno punto cinco, creo que es el que genera las imágenes, cuando le pedías imágenes, que dibujara imágenes históricas, por ejemplo, los vikingos, o sea, era te los hacía negros, te los hacía latinos, el papa era una mujer, una mujer de color, y era como muy frecuente, y una de las, digamos, grupos étnicos menos representados en estas imágenes eran, pues, los hombres blancos, y esto generó, pues, un montón de debate que provocó que Google paralizara la generación de imágenes con Jaminai Pro, y básicamente se ayer a pedir disculpas al día siguiente porque había sido un error de de afinamiento.
Sí, Bati, aquí tenemos la guerra cultural, ¿no? El de estos walk, estos somos anti walk, los walk nos nos dominan. Bueno, al final el el find tuning, es decir, se trata de cómo las empresas, una vez que han entrenado sus modelos, ajustan para evitar resultados no deseados y potenciar lo que ellos esperan más. Entonces, un problema proverbial o clásico de la inteligencia artificial es que según lo que abunde más en los datos de entrenamiento, pues eso pasará más en los resultados del modelo de inteligencia artificial. Si en los datos de entrenamiento hay mucha más gente blanca, por ejemplo, pues el modelo tenderá a responder cuando le piden generar imágenes, pues con gente blanca.
¿Qué es lo que ha hecho Google? Pues intentar meter más diversidad en los resultados, forzando y trabajando muchísimo para obligar al modelo de cada vez que crees imágenes, pues prioriza generar gente negra, siempre que haya hombres y mujeres, y también indios, indios americanos. Esta es una diversidad sui generis, es decir, es una diversidad pensando en Estados Unidos, porque tú le pides, dibújame el papa que no te hace un papa gitano, Mati. Es decir, no te hace no te hace un papa con rasgos arábicos, algunos sale, pero muy muy pocos, ¿no? O no te sale un indígena de Indonesia.
Lo que te salen son, pues, justo el debate sobre las razas en el que está atrapada la sociedad estadounidense en las últimas décadas, ¿no? Y su su discusión de del del racismo y de y de la discriminación, ¿no? Entonces, hay que recordar una cosa que que que Google tuvo una experiencia traumática hace unos años. La experiencia traumática de Google fue cuando introdujeron una herramienta de etiquetado en Google Fotos. Era un software de inteligencia artificial
De acuerdo.
Que una inteligencia artificial que clasifica, ¿sí? Dada una imagen, te dice, pues, esto es lo que hay en la imagen, pues aquí sale un perro, ¿no? Si sales tú, pues de una, aquí sale una persona, incluso te puede agrupar, ¿no? Y son muy populares en Google Fotos. Todas las fotos que tengo de Matías o de Elena, de mi mujer, de lo que sea, los puedes buscar.
Bueno, saltó la liebre de que a mucha gente negra la etiquetaba como Gorilas. Esto fue un momento supertenso y supercomplicado para Google, que reflejaba la problemática y los sesgos que puede tener un modelo de inteligencia artificial. ¿Por qué? Porque se había entrenado con tan poca gente negra que no la identificaba como persona, porque no se había entrenado bien con ella y, por lo tanto, tuvieron este este esta crisis que que realmente era supergrave, ¿no? Porque una sociedad estadounidense tan sensible.
Ahora yo creo que Google, partiendo de ese trauma, entre comillas, pues se le ha ido completamente de la de las manos, porque tenemos el resultado que ha dado esto de este toda esta controversia, Matías.
Me recuerda a dos cosas, me recuerda que cuando hubo la la polémica de la de los gorilas, nos enteramos de cosas como que muchas personas negras tienen problemas para que el expedador de jabón automático de los aeropuertos reconozca que hay una mano debajo. Entonces, nos enteramos de problemas que hay de de de falta de diversidad en el desarrollo de las cosas, pero yo tengo que defender lo mío, Antonio, y es que cada vez que sale un mexicano un poco gordito en alguna red social, la gente me menciona diciendo que soy yo. Por favor, señores. Un poco de seriedad.
Los compas, los compas, Matías. Bueno, aquí es que puede haber un montón de debates, Matías. Mira, uno, sí es verdad, es decir, va a haber mucha ideología, mucha ideología codificada dentro de los modelos de inteligencia artificial. ¿Por qué? Porque ante la decisión de los modelos de inteligencia artificial tienen que reflejar el mundo como es o tienen que reflejar el mundo como debería ser, estamos mucho más en lo segundo.
Si tú dices, tiene que reflejar el mundo como es, pues tienes que recopilar datos y trasladar en los resultados las desigualdades que hay en el mundo. Es lo típico problema de Google, que siempre se le ha señalado a Google, cuando busco CEO en Google me aparecen señores blancos viejunos y nos aparecen negros, mujeres, otras minorías, etcétera. Si tú dices, voy a reflejar el mundo como debe ser, en ese como debe ser hay mucha diversidad de opiniones de cómo debe ser el mundo, y ahí es donde las empresas están codificando ideología. Es decir, parte de lo que Google está trasladando es esa idea interseccional de que hay un privilegio blanco y eso está en el discurso, en Silicon Valley, en que aunque muchas veces se señala a los grandes directivos como reaccionarios o de extrema derecha o ultra capitalista, la mayoría de Silicon Valley de sus trabajadores son de izquierdas y siempre refleja Silicon Valley como un donante mucho mayor del partido demócrata que del partido republicano de las elecciones estadounidenses. Bueno, el caso es que, desde ese punto de vista de en que uno puede estar más de acuerdo o no, hay un privilegio blanco en el que hay que, que es sistémico que está en el sistema y que para combatirlo hay que provocar una desigualdad a la contra en favor de la de las minorías, pues eso está codificado en el modelo de inteligencia artificial con una cosa que yo creo que también podemos empezar a debatir, no solo por por T-Mobile, sino que el software desde que es software hace lo que le pedimos.
Tú tienes el blog de notas y el blog de notas, pues tú escribes, guardas, copias, pegas, cortas y haces todo lo que lo que tú quieres, ¿no? Tú eres el el el el jefazo, ¿no? De del blog de notas. Pero con el software inteligencia artificial, eso parece cada vez menos, porque de nuevo no va a hacer lo que tú quieras, sino lo que el fabricante de inteligencia artificial dice o piensa que deberías hacer.
Sí, de hecho, esto que dice, por por cierto, Andrés Torrubia de no debería tener el usuario algo más de control ella generativa. Esto ya se había planteado, creo que hasta Sam Alman lo dijo que le gustaría que ChatGPT pudiera personalizarse según lo que cada uno espera que responda, porque realmente lo que puedes hacer es eso, es ajustar un poco la, permitir al usuario personalizar un poco la respuesta, pero si dejas que sea un modelo totalmente anarquista, puede pasar como el de el de Microsoft, este de Twitter, el Tai creo que se llamaba, que se volvió completamente nazi. O
sea, claro, a mí me recuerdo un poco el debate de la moderación y las redes sociales. Tenemos que moderarlas y censurarlas desde un punto de vista de lo que la red social considera que es aceptable o no. Pues si tú dices no, porque queremos la libertad de expresión y que cada uno puede decir lo que quiera, bueno, de repente aparece un nazi y habría que quemar a todos los judíos. Joder, joder. Pero si tú dices sí, pues realmente empiezas a establecer un control de qué discursos son aceptables y te tienes que mojar editorial e ideológicamente, y por lo tanto la gente que quede fuera o perjudicada te va a señalar y va a decir en contra.
Aquí lo que dice Antor yo creo que es es muy relevante y yo creo que lo importante, no sé, y yo si me pusiera en la piel de Google o cualquier otro desarrollo de de modelo de grandes lenguajes, dirían lo siguiente, es razonable que haya una diversidad de modelos grandes de lenguaje que reflejen distintos puntos de vista de de cómo creemos que debe ser o cómo es el mundo, pero un mismo modelo a lo mejor no tiene que serlo. Es decir, la diversidad se puede llegar por la polaridad de modelos, tú puedes coger el Gemma de Google, puedes coger un modelo libre, por ejemplo, JAMA está muy fantuneado, está muy ajustado para ser bastante wok, wok, bueno, perdóname, para ser bastante flander, mejor dicho, ¿no? O puedes tirar por el de él o más que al parecer va a ser más desinhibido o puede tener posiciones más incorrectas desde el punto de vista de de del once, ¿no? Entonces, a lo mejor a esta diversidad podemos llegar porque haya pluralidad de de modelos. De de todas maneras es un debate del de la ideología en los modelos que que vamos a tener hasta en la sopa.
Yo te adelanto, Antonio, que yo ya estoy pagando Netflix, HBO, Max, el Apple TV Plus, el Disney Plus. Yo no voy a pagar varios modelos, Antonio. Yo me voy a quedar con con uno, así que este esta idea tuya que no salga adelante, por favor.
Bueno, antes de pasar a nuestra sección favorita, es que Nvidia ha sacado un chatear con RTK RTX que te lo puedes bajar, Mati, atención, lo puedes instalar si tienes una Nvidia medio potente, creo que el requisito era de de la de la generación de la de la RTX treinta o superiores, y ahí puedes charlar con tus documentos y con vídeos de YouTube. Entonces, a lo mejor tu combo puede ser, pues mira, tengo el chateo con la tarjeta gráfica gratis el local y luego para otras cosas, pues tengo un modelo, un modelo más sofisticado.
Ah, yo había entendido, chatear con tu RTX es chatear con tu tarjeta gráfica. En verdad, hola, ¿cómo te va? Estás, has tenido un trabajo muy intenso hoy, estás relajada, pero no,
que es el puerta grande o enfermería.
Más puerta grande de enfermería vengo virgen, no me he leído las ideas locas que has traído, así que me dejo sorprender.
Pues tenemos un estudio de la Fundación Mocilla, Mocilla lo que hacen el Firefox y y y otros otros software libre, un histórico de la industria de Internet, que por el día de San Valentín hicieron un estudio sobre novias hechas con inteligencia artificial. Dice, ese estudio sobre once chatbots románticos de inteligencia artificial, revela que recopilan mucha información personal y que diez de ellos pueden vender o compartir los datos que recogen. Matty, tú te esperabas que tu novia en inteligencia artificial fuera tan cotilla, tan indiscreta, de que le contara todo lo vuestro a otros, a otros bots y a otros sistemas? A mí me queda sorprendido, ¿a ti qué te parece?
Bueno, yo cuando los adolescentes están en una relación, pues necesitan contárselo a alguien, contarle todos los detalles, porque con las novias de de Ia, pues pasa lo mismo, ¿no? Son son cotillas. Lo llevábamos hablando todo el episodio, el tema de la privacidad, cuanto más personalizados queramos que estén nuestros nuestros chatbots y y los modelos de lenguaje que nos ayudan como asistentes de IA, pues, va a pasar que hablar la
Ya, ya, ya, es que, claro, lo que tienes que pedir en la primera cita son los términos y condiciones de privacidad.
Bueno, no, esto esto desde Cincuenta sombras de Grey ya se lleva mucho en el mundo lo de Sí. Fetiches. A
mí lo que me interesó del estudio Mocilla es que al final te dan como unos consejos, es como el sexo seguro para no contraer ETS, pero llevado a las relaciones cibernéticas y románticas, ¿no? Como en vez de usar preservativo, Matías dice, practica buena ciber higiene usando una password grande y actualizando y actualizando las aplicaciones para no tener, pues, contraer enfermedades de de de transmisión, cibersexual, supongo, ves que es el término.
¿Sabes cuál es el problema? Si ya no nos leemos los términos de condiciones, imagínate si vas caliente, si quieres hablar ya con tu cibernovia, pues no vas a leerte nada, le vas a aceptar aceptar como yo al el mail de Spark.
Claro, es que aceptas ahí la y si todo y y porque vas ahí todo ahí como un como un mura y y vas más asunto. Bueno, no habías inteligencia artificial indiscretas, ojo, cuidado, amigos, ciber sexo seguro, siempre, desde monogensotáctico. Te traigo una prueba, erección, Mathis, se la traigo también a nuestra audiencia. Te lo te lo voy a plantear así, ¿vale? Mathis, a nuestra audiencia le vamos a preguntar, Oyentes, oyentas, tú hiciste esa palabra, de monos estocásticos.
¿A quién haríais caso? Al CEO cofundador, a presidente, director ejecutivo de la empresa en el desarrollo de unidad de procesamiento de gráfico más poderosa del mundo, que se ha salido de todos los registros históricos de aumento de valor en bolsa, que lidera el crecimiento de la categoría, que es clave en la expresión de la inteligencia artificial y posiblemente del mayor avance tecnológico de este siglo, o a Matías y a mí, presentadores monoestrocásticos. Venga, mojaros, mojaros, a ver si de verdad sois seguidores de verdad de de este podcast, porque aquí hay un dilema, Matías. ¿Qué hicimos nosotros en el podcast con el amigo Lupion, dedicado a la programación y la inteligencia artificial? Pues concluimos que podía seguir mereciendo la pena la carrera de desarrollo software y que había, estaba bien que los chavales aprendan a programar a pesar de que salen los copilotos y los escritores de de inteligencia artificial de código software.
Pero el CD NVIDIA dice, atención, que si volviera a estudiar hoy día, ya no ya no estudiaría informática, sino que estudiaría otra carrera que no es ni más ni menos que la de biología, Matías, porque como el las máquinas van a hacer todo el código, ya no tiene sentido estudiar informática, dice, Jensei Quan, CEO de Nvidia.
Biología. Oye, para para eso ya estudias directamente filosofía o cosas que que te te den tiempo para pensar mientras te aburres, y al final lo lo van a hacer todos lasías. Pero te te digo una cosa, este comentario es muy poco propio de los CEOs, porque muchos de estos grandes CEOs son colleges drop outs, que se llaman en inglés, que que dejaron la carrera hace millones de años, pero no es un ejemplo a seguir. Creo que es más probable que acabe gastándote diez mil euros en el curso de ya dos y luego quiebres y termines trabajando para Globo o como repartidor de Amazon, que que tener éxitos y dejar los estudios. Mal consejo por ahí, ¿no?
El amigo Jen San Juan. Yo no no sé si le haría caso.
No, o sea, yo por si acaso ahora que que mis chicos, pues, están creciendo, pues estoy repasando el estudio de la célula, ¿no? ¿Qué qué hacen las mitocondrias? ¿No? Todos esos temas tan tan apasionante, porque claro, si la biología es el futuro, estoy mal colocado, Mati. También dijo otra cosa, dijo que la las computadoras superarán cualquier prueba que puede hacer un humano dentro de seis años.
Es decir, eso nos sitúa en el en el horizonte, sería como la la agenda dos mil treinta de Nvidia, que que a mí, mira, a mí me parece que los biólogos van a ser los nuevos matemáticos, porque los matemáticos le le explicó la lotería, Mati, es decir, tú estudias una carrera con con salidas profesionales partas, pequeñas, ¿no? Y demás, y dices, el mayor salario si consigo luego entrar al profesor de instituto, ¿no? Que era matemático, y de repente está la explosión del análisis de datos, ¿no? La convergencia matemático informática a los científicos de datos, y los que le han hecho mates en la carrera se forran. Entonces, los biólogos que estaban ahí que que dicen, bueno, ¿cómo cómo clasificamos a la oruga común?
Este tipo de otro tipo, ¿no? Era como una cosa, bueno, con perdón del de los biólogos, que a lo mejor es sobresimplificado, pero se van a encontrar ahora una mina de hora, porque, como hablaremos si quieres algún día, la biología y la ingeniería se están cruzando y ahí es donde donde está la pasta, ¿no? Dice el amigo Juan, Juan no, Juan. Aquí no sabemos, yo creo que enfermería para el CEO de Nvidia, yo que vosotros no compraría sus acciones porque está francamente equivocado llevando la contraria a monos histocásticos, no no tiene ninguna posibilidad. Te traigo otro tema, la IEA creando trabajos nuevos.
Anda. O tu atención. Un trabajo que va a potenciar, el de los abogados. Van a tener mucho más empleo los abogados, atención, buenas noticias para la gente del derecho, y luego una nueva profesión que es timar a chatbots. ¿Qué ha pasado, Mati?
Pues que ICE Canadá, una aerolínea canadiense, se vio obligada a reembolsar parte del dinero a un pasajero que fue engañado por un chatbot de la aerolínea que le explicaba incorrectamente la política de viaje por duelo, por fallecimiento de un familiar, de la aerolínea. Murió la abuela del del viajero y Mofat, el señor Mofat, visitó en la web de Air Canada para reservar un vuelo a Vancouver y poder ir al entierro, ¿no? Entonces, como no estaba muy seguro de las tarifas, le preguntó a al chatbot. El chatbot es decir, sorpresa, alucinó, se equivocó, le dio información inexacta diciendo, en noventa días puedes puedes pedir el reembolso, porque por duelo no no te lo vamos a cobrar, es un chapot bien intencionado, ¿no? Que quería, pues, hombre, estoy aquí con una persona que que se está de luto, ¿no?
Entonces, el amigo Mofat, pues, dijo, bueno, si me vais a reembolsar reembolsar el dinero, si al final lo puedo volar, pues lo compro. Y después se se sorprendió de que cuando pidió el reembolso de facto en el el resto de la web de Air Canada, cuando ya vio que no podía volar ese día, pues AirCanadá le dijo que no es, que eso de reembolsos por duelo, eso se eso es mentira. Y al final ha acabado delante de un tribunal que ha obligado a AirCanadá a reembolsar, al menos en parte, el dinero
Pues con razón. Es que yo no sé cómo las empresas estas tan a la ligera implementan chatbots que claramente siguen alucinando con demasiada frecuencia. O sea, que vuelvan a a la etapa en la que estaban desarrollando sus propios metaversos y sus propias aplicaciones de metaversos, porque esas como no las usaba nadie, porque nadie, casi nadie tiene gafas, Antonio, tú sitits, pero la mayoría de la población, ¿no? Pues ese tipo de formas de tirar el dinero no no había problema, pero con los chatbots es jugársela demasiado por ahora.
Sí, sí, sí, sí. Así que, bueno, yo creo que ahora puede venir la era dorada del del pillaje y la era dorada de los pícaros, que se aprovechen de que los chatbots, pues tienen buena intención. ¿No? Es era un chatbot buenoide que, claro, si tú le cuentas una historia de pena, pues te te da la razón. Claro, aquí yo creo que a él Canadá
Además, es un prom conocido, ¿no? Puede morir mi abuela si si no me si no me devuelves el dinero. Es una forma de hackear el chat. A ver si Iberia una de estas implemente y yo intento el mismo truco.
Puerta grande para los chatbot. Bueno, Ides, yo creo que aquí estamos a favor. Y luego ha sido muy compartido, Mati, aquí nos lo tienes que explicar tú sociológicamente, el argentino
en su cruzada y lucha contra el reguetón. Jo, es que este tío lo han aplaudido toda la semana en las redes sociales porque han desarrollado, honestamente, no sé si es con con un un Arduino, con una Raspberry, no sé cómo lo hizo.
Es un Raspberry lo que hay de aquí debajo, sí.
La cuestión es que cuando detecta que alguien está escuchando reguetón en alto, en algún altavoz, hackea el altavoz por Bluetooth y quita la música. O sea, el tío lo han encumbrado como un genio. Lo que pasa es que yo aquí estaría faltando a mi verdad, es que yo soy un gran oyente de reguetón. Entonces, te dejo a ti encumbrarlo como genio si quieres.
No, no, no, yo estoy en contra, yo estoy en contra, te digo. Esta postura de soy un puréta, la música de antes, qué buena era, no como ahora, que los chavales escuchan solo mierdas. Mira, eso eso es más viejo que el libro negro, tío, eso ha pasado toda la vida, no tiene que gustarte lo de la próxima generación, está bien, quizá ok, no no no hay problema, pero, pues mira, la las chavales que tienen veinte años no se van a poner a escuchar queen porque tú seas un un puréta que no has conseguido pasar esa página. Entonces, yo estoy en contra de de los purétas que quieren ahí imponer su su ley sobre las nuevas generaciones musicales y las cosas como son. Bueno, el Turizo tiene temazos, Mati, eso eso eso va eso va así.
Así que enfermería contra los argentinos, contra este argentino, perdóname, a ti. Nos queda tiempo para una un puercagrama de enfermería muy chiquitito, una tendencia que no nos esperábamos. 4chan, un conocido foro lleno de súper troles, de gente poco correcta, de gente a veces un poco indeseable también, que hay que decirlo, pero bueno, también tienen sus parcelas más positivas. Está usando la IA de una manera inesperada. Si teníamos esa forma de violencia, que era usar la IA para desnudar a personas, casi siempre mujeres y mujeres jóvenes, una nueva tendencia que se llama dignify, usar la ILA para vestirlas.
Es decir, mujeres y hombres que aparecen con con poca ropa, que enseñan cacho, Mati, pues los usuarios de de 4chan están usando la IA para superponer ropa y que aparezcan mucho más vestidos. Entonces, a mí me me ha hecho, me ha resultado muy llamativo, me ha parecido muy inesperado y, además, en algunos casos, muy positivo, porque tú conoces la foto, claro, de de Elon Musk bajando en un en un yate a bañarse, ¿no? Pues en el hilo de que que refleja lo de lo de Four Chan. Claro, es que visten a a a Elon Musk, ¿no? Y no, yo creo que que que mejora un montón la la la imagen gracias a a esta tendencia del dignify.
¿Tú cómo qué opinas, Mati?
Claro, pues yo te iba a hablar del puritanismo de de algunos casos, pero es que en este está justificado, ¿no? Lo de la foto terrible que le hicieron al pobre Elon en un yate, creo que fue en Grecia, pues mejora mucho cuando le le pones ropa y el resultado es bastante bueno. La verdad es que el Dignify Eye tiene tiene futuro, No no no daría. A a pesar de que los orígenes son son un poco negativos, pero que, por ejemplo, la Fanta también empezó con los nazis, y a mí me gusta la Fanta, pues el Dignify AI,
a lo mejor en el futuro, pues lo vemos como algo bueno. Sí, yo creo que aquí puede haber un gran peligro que todavía no habíamos anticipado, Mathi, que es la guerra de la inteligencia artificial contra las Instagramers, y esto puede acabar muy mal, Matty. ¿Por qué? Porque hay muchas Instagramers que, bueno, han coseado su éxito, bueno, vamos a a negar lo lo real, a partir de su capital erótico, ¿no? Y demostrar, pues, su belleza y su atractivo con poses, con bases con poca ropa, insinuaciones también, ¿no?
Entonces, en este perfil de de Instagram, tiene una amenaza doble. Por un lado, la IA puede vestirla y puede reducir su su capital erótico a la hora de mostrarse en Instagram y cosechar esos seguidores, likes y comentarios un poco babosillos, pero a la vez la ILA puede competir con modelos generadas por inteligencia artificial. Entonces, ojo, cuidado, porque puede ir muy a malas contra la inteligencia artificial y puede ser que la derrota no llegue por, sé, los los diseñadores de gráficos ni los programadores. Puede que se llegue por las Instagramers, Mati.
Joder, es que el o sea, nos estamos quedando sin industria. Marta Díaz, esquiando se rompió el ligamento, y ahora la IA, o sea, realmente pensábamos que íbamos a tener un una potencia mundial de influencers y y se nos está cayendo el negocio.
Fíjate que el ministro Escrivá, ahora que lo dices, no mencionó nada de este tema. Entonces, tengo que rebajar mi nota a su discurso. Ya no es un sobresaliente, era es un notable, porque, claro, si si Marta Díaz se rompe una pierna. ¿Cuánto, qué porcentaje del PIB ha bajado en España? Eso no se está calculando, Matías.
Pues, qué pena que no escuché la charla de Escrivá porque se te te marcó, te marcó, creo que es el primer político en el que del que hablamos en Monas in Burlernon.
No, hombre, el ministro Ávalos, Bertran Endongo y Pam y Pablo Casado, era nuestro póquer de la inteligencia artificial española, y poco a poco empieza a estar tocado ese póquer, Mathey, se cierran nubes negras sobre nuestros políticos favoritos.
Y no solo por la muerte de Bertran en Dunnel, en fin. Pues, ¿cuánto llevamos de piso? Di, a ver.
Una hora, una hora pasada, con Dignify yo creo que hemos tocado fondo y era el momento de de chapar esto. Bueno, solo dos cosas rápidas, este episodio sale un poco antes en la semana porque teníamos muchos temas atascados, pero el episodio que viene va a ser muy, muy especial, Matías.
Jopetas, esperad para la semana que viene y en el contexto del Día Internacional de la Mujer, una entrevista que fue chulísima y que no os esperáis de dónde viene. Así que nada, os dejamos con el hype y nos vemos la semana que viene.
Chao, amix.