La Luna es una cruel fotógrafa

00:00 /57:12

Patrocinador: Holded tiene todo lo que necesitas para gestionar tu empresa donde y cuando quieras. Holded simplifica la gestión de tu negocio, automatizando tareas y agilizando todos tus procesos: facturas, presupuestos, impuestos, cobros, nóminas, etc. todo en un click. — Más de 80.000 empresas ya confían en Holded.es tienes 14 días de prueba gratuita y un 50% de descuento.

AVISO: Este episodio es mucho mejor que lo veáis en vídeo, porque usaremos muchas imágenes y vídeos como referencia https://www.youtube.com/@mixxio?sub_confirmation=1

Decía Buda que "tres cosas no pueden ser ocultadas por mucho tiempo: el sol, la luna, y la verdad.", una semilla de sabiduría que se aplica mucho al episodio de hoy.

Hablamos del debate de las mejoras fotográficas que los móviles recientes de Samsung aplican a las fotografías nocturnas de la Luna. Un debate que ya dio que hablar con los dos modelos anteriores: Galaxy S21 y S22, pero que creo que merece la pena ser explicado a fondo.

Kernel es el podcast semanal donde Álex Barredo debate con buenos invitados sobre las plataformas y compañías tecnológicas que afectan a nuestra vida diaria. 

Enlaces:

Transcripción

Bueno, bienvenidos a un nuevo episodio de Kernel, podcast semanal de Mixion, el que nos adentramos en un tema un poco más tecnológico. Este episodio, primero, vuelve al podcast José Esmerino, ¿qué tal estás? Muy bien. Tenía yo muchas ganas de traerte porque lo comentamos este tema que lo habéis visto en el título del episodio en el podcast de Ángel Jiménez y un poco por encima.

Y, al final, creo que hay mucha amiga y hay un montón de temas, tanto tecnológicos como incluso filosóficos, ¿no? Al respecto. Y digo, vamos a dedicar un episodio de Kernel y me voy a traer, al final, a José, el pobre hombre, que es el que más sabe. Bueno, no, no, es verdad, es verdad.

Y si lo digo, si lo dice alguien en un podcast, José, es cierto. ¿Tú es ochoas? Lo que tengo son opiniones fuertes. Eso es. Entonces, vamos a hacer un resumen súper rápido de lo que ha ocurrido y, además, avisaros. Este podcast o este episodio va a ser muy visual. Vamos a intentar describir las cosas que estamos mostrando en la cámara, pero me temo que la mejor experiencia va a ser vernos en el canal de YouTube de Mixio, ¿vale? Simplemente os lo aviso.

Yo creo que el 99% se va a entender, simplemente escuchándonos. Pero ¿quién sabe? ¿Quién sabe? El caso. Vamos a comenzar un poco con el contexto como os decía el otro día, como os decía hace unos momentos. Los Galaxy S23 introducían un modo que Samsung lo ha llamado Naectography, además que cuando Samsung con el S23 fue el patrocinador de Mixio, lo estuvimos comentando bastante.

Era uno de los puntos fuertes, no solo de la campaña en podcast, sino de la campaña general del producto del dispositivo, una cámara sobre todo la del S23 Ultra, por cierto, José, excelente, ¿no? Sí, yo hasta que salió todo el tema este, todo lo que había visto en reviews y análisis demás, me había gustado bastante, tenía ganas de probarla, lo más que no tengo oportunidad, pero casi todo lo que yo he criticado de las cámaras de Samsung durante los años, como

que poco a poco se me ha ido quitando encima. Eso es, y el meollo de todo es que en los Galaxy S23 las interpretaciones que hace cuando tomas una captura con la cámara apuntando al cielo por la noche, son demasiado inventadas, es decir, que es lo que vamos a dilucidar en el resto del episodio.

¿Dónde está la frontera de lo que se puede mejorar y de lo que empiezan ya las las invenciones? Samsung respondió y puso un, después que esto ya lleva cociéndose varios días en Internet, cada uno ha sacado sus propias conclusiones, pero Samsung, que ya hizo un comunicado en 2021, cuando el S21 empezó con estos modos y estos tunes tan importantes y lo de la Luna, etcétera, pero explicándolo más a fondo los detalles técnicos detrás de todo

el proceso, ¿no? Entonces, y es la idea de todo este episodio, te lo pasé, estuviste leyendo el artículo y me dijiste todo esto en mentira. Sí, eso te iba a decir. Otra cosa es que creo que cuando hemos empezado al podcast no has terminado de explicar de qué iba el tema de la Luna. Por favor, explícamelo tú. No, simplemente, más que nada, porque quería explicarlo tú, pero bueno, si quieres lo explico yo.

Nada, simplemente eso, que la gente se ha dado cuenta, un usuario en Reddit se dio cuenta de que las fotos, bueno, una de las puntos de marketing del S23 es que puedes hacer con el superfum que tiene fotos a la Luna y salen superdetalladas, ¿no? Sí. Entonces, un usuario de Reddit dijo, esto es sospechoso, y hice una prueba, imprimió en papel, no, en su ordenador, cogí una foto de la Luna, la bajó de resolución, exacto. Esta foto que estáis viendo aquí, ¿vale? Una foto superdetallada de la Luna, la bajó de resolución a 200x200 y encima le metió

un desenfoque gausiano en Photoshop. Eso es. Y esta es la fotografía resultante, por decirlo así, ¿vale? Y entonces, cogió el... Eso es. A esto. Y claro, obviamente, y después le fíais tú que estaba en el monitor y le sacó una foto con su móvil. Le sacó una foto con el S23, con no sé cuántos aumentos, no recuerdo cuánto hizo, y posteó la foto que el S23 sacó de esa Luna, que no sé si la tienes ahí.

Que creo que es esta, que aquí podéis ver directamente, pues, oye, ¿sabes? Hay muchas de cosas que no estaban. Bueno, claro, lo podemos pasar por el balance del banco, eso aún que la, pero todo ese detalle que no estaba. Entonces, también creo que esta prueba tiene un poco de fallo, no fallo, sino... Claro. Hay una cosa que es que hace unos años recuerdo que salió una demo de que el desenfoque gausiano

se puede deshacer. En una forma muy fácil, bueno, a nivel matemático, es una de los relativamente fáciles algoritmos. De hecho, se ha capturado a muchos criminales porque emborronaban sus partes y sus caras en tipos de vídeos que no quiero mencionar con este tipo de filtros y, digamos, que le das la vuelta a la ecuación que hace el desenfoque gausiano, por explicarlo de una forma extremadamente sencilla y ligeramente equivocada y te lo vuelve a capturar.

Sí, sí, sí. Entonces, claro, yo... lo primero que pensé es, uy, esto se le van a comer por esto. Le van a decir, no, es que eso se puede deshacer, y es como ya, pero aún así, la foto de dos de 170 por 170, muchos detalles tampoco mantienen, ¿sabes? Sí, sí, absolutamente. Entonces, para mí la prueba al final, aunque tiene sus cositas, es una prueba válida. Vale, entonces, la clave es que la foto sale con mucho más detalle que la original o que

la que la persona esta hizo. Sí, yo creo que absolutamente, pero es que fijaos, hasta una cosa que quiero dar como contexto a los soñentes, dentro del foro del Reddit del S23 Ultra, claro, estaban arribísimas, siempre estamos los fanboys de Apple, etcétera, pero los fanboys de Samsung también existen, ¿no? Y es que estábamos comparándoles el S23 con el Hubble, o sea, ya hay niveles absurdos, es un poco más sit-poster o algo así, ¿no?

Y dice, bueno, una fotografía de lo que saco desde la superficie con mi móvil y lo que toma el Hubble a 400 kilómetros de altitud que estará, ¿no? Pero es muy gracia, porque es muy parecida a los que hacen pruebas de rollo el iPhone contra la Alexa 65 de 25.000 dólares, ¿no? Y hacen comparativas de vídeo, es como... Es que, qué decir, el meme estaba ya creciendo muchísimo, ¿no? El meme, porque al final, ¿sabes qué es lo que pasa?

Está muy bien poder sacar estas fotos, porque con los smartphones tradicionalmente apuntamos al cielo, nosotros estamos viendo una luna más o menos detallada por los procesos biológicos de nuestro cerebro y luego nuestro móvil, que estamos acostumbrados a que saque unas fotos de la leche siempre y cuando apuntamos a la luna, te saca una especie como un punto blanco. Como si se hubiera roto la cámara.

Es que, además, siempre que a mí ha pasado, ¿no? Sí. Y todos vemos alguna noche sales a la calle o lo que sea, estás en la ciudad y se ve la luna y una luna espectacular y dices, o sea, quiero hacer una foto y le haces una foto y es una foto terrible, porque sale un punto blanco, es muy difícil hacer fotos a la luna, incluso con una cámara de verdad. Eso es, eso es. Y una de las grandes ventajas o de las grandes, por decirlo así, mejoras de los últimos

años en la fotografía, en lo que se ha empezado a denominar la astrofotografía, que es un concepto un poco más general, es lo de la exposición, es decir, saber cuando estamos enfocando, intentar mantenernos para quitarnos lo que se nos mueven las manos un poquito, lo mejoras tanto, porque aquí hablamos mucho del procesador, pero ha habido muchos avances en las lentes, en las ópticas, en los estabilizadores mecánicos, que al final son muy importantes,

¿no? Por cierto, antes de seguir hablando de lo de la luna, José, déjame que cuente el patrocinador, que al final, pues, oye, seas fotógrafo profesional, seas podcaster, o seas ingeniero de los que calibran las cámaras, pues, interesa muchísimo el patrocinador, que es Holder, la herramienta digital, una herramienta en la luna, no en la luna, pero sí en la luna, que tiene todo lo que los autónomos, los empresarios necesitan para

gestionar los negocios donde queramos y cuando queramos. Es bastante increíble, Holder.es, no solo porque hace algunos elementos muy repetitivos de una forma sencilla, es decir, cosas que te necesitas varios minutos, ahora los puedes hacer con un clic, como el envío de facturas, el envío de presupuestos, etcétera, sino que va mucho más allá. Si tienes una empresa, te automatiza todas las nóminas.

Tienes CRM, tienes toda la gestión de inventario, toda la gestión incluso bancaria, es decir, se conecta con tus bancos, y ve cuando te están pagando y ve que factura te han pagado y automáticamente ya queda clasificada, no tienes que estar tú detrás haciendo todo eso. Entonces, es una herramienta que os va a ahorrar muchísimo tiempo y tenéis 14 días para aprobarla de forma gratuita en Holder.es y si os animáis los tres primeros meses al 50% de descuento

que no está nada, nada mal, ya sabéis, Holder.es os dejo el enlace en las notas del episodio y volviendo al tema de las fotografías lunares. Tengo una foto que enseñarte, que me ha parecido bastante importante contar, pero en el subreddit de esta era de Samsung, hace dos años, pudimos ver un caso similar, de nuevo con el S21, que os lo estoy enseñando aquí en pantalla, en el que empezábamos a notar básicamente lo mismo, y es por lo que decidí al final

no comentarlo mucho en el mixio. Pues esto no es nuevo, tampoco me parece muy diferente, nada. Y era un usuario que sacó una fotografía excelente con su S21 de la luna, esta es la misma fotografía acercada con el ordenador. Y entonces dice sospecho, sospecho. Y le pinto unos ojitos y una cara a esa luna, en la que básicamente son líneas grises planas, es decir con pint, por decirlo así, unas fotos planas.

Y qué es lo que le sacó automáticamente, creo que aquí lo podemos ver mejor, es que cuando sacó una fotografía de nuevo a su monitor de esa luna en la que le había pintado las rayitas, que lo podemos ver aquí completamente plano, el móvil las inventaba, inventaba lo que son los detalles que se supone que tendría que tener.

Le rellenaba cráteres. Eso es, que no es que se los inventara per se o no se muy bien, hasta qué punto, pero es cierto que es información inventada, esa información no está en la foto. Está en la luna, esa información. No, no, es verdad, o sea esa información está en la luna real, por lo tanto el algoritmo decidió ignorar la carita flip y relleno lo que tenía que rellenar, que era esa información de detalle de los cráteres y de la textura que tiene la luna.

Es ahí donde, para mí esto es como el ejemplo perfecto para que la gente entienda lo que está haciendo, que el móvil, el móvil no está pegando una foto de la luna sobre la luna, pero tampoco está usando 20 fotografías que ha hecho, sabes, para rellenar el detalle y faltante, no sé que no, el algoritmo igual que con el arte de inteligencia artificial y demás, el algoritmo sabe, bueno, pues la luna tiene que tener estos detalles y esos detalles son, tienen estas formas, estas líneas,

estos relieves, estos tal, estos cual, entonces, pinta esos detalles sobre la foto de la luna. Es un poco difícil de entender el concepto que es que lo primero que piensas es bueno, entonces es como una foto de la luna que está sobreimpuesta, es como no, está pintando él lo que él entiende como una luna, como si a ti te dicen, pinta una mano, dibujo una mano y tú, como has visto tantas manos en tu vida, sabes cómo es una, la pintarás

mejor o peor, depende de tu nivel, pero sabes cómo es una mano, pues aquí es lo mismo, lo han entrenado con tantas fotos a la luna, que sabe cómo pintar a mano ese detalle. Y aquí esto es un tema que se, creo que se llama las optimizaciones de escena, es decir, los fabricantes de teléfonos saben que al final el 99% de nuestras fotos son de nuestro gato, de nuestro perro, de mis hijos, de un paisaje, de una flor, de la familia, sabes

lo que me refiero? Y dicen, vamos a intentar que el teléfono detecte qué elementos hay dentro del encuadre y en el caso de esto, de aplicar X o Y algoritmos. Y me he sacado una lista de los modelos o de las escenas que tienen la mayoría de los fabricantes, en este caso, yo creo que es una lista específica de Samsung que tiene alimento, retratos, el modo retrato específico, flores, escenas interiores, animales, paisajes, árboles, cielo, playa,

bla bla, y luego tiene cosas como mucho más específicas, gatos, bebés, perros, cascadas tienen aquí en la lista. Entonces, dependiendo de lo que detecte, decide dar unas variables o u otras variables a todo el procesado. Por volver un poco al tema inicial, como decías tú, dice a este chico se lo van a comer y decidió ir un poco más allá en esta segunda imagen, hizo un proceso muy similar, lo que comentábamos que hizo el otro usuario de Reddit

hace dos años, poniendo una fotografía de la luna también digital en la que había recortado un trozo, un cuadradito y lo había sacado fuera. Con lo cual, el cuadradito que está dentro de la luna es de un único color, un color sólido, un color plano y fuera de la luna hay un trozo cuadrado, también plano y vamos a ver qué es lo que hace con ello el móvil, ¿no? Y en este caso, en la luna aplica en la parte que el móvil reconoce

que es la luna o que entiende que es la luna, aplica esas texturas que dices tú, ¿vale? Y en la parte que no es de la luna, que es ese cuadrado flotante, que el móvil diría pues será una cometa o lo que sea volando, ¿no? Un off-knee. Pues no le aplica nada, esto no es la luna, ¿no? Le aplico las reglas que tengo diseñadas para la luna, ¿verdad? Y eso lo puedes hacer hasta que terminas de romper el reconocimiento de imagen, es decir,

llegará un momento en el que pintes tantas cosas sobre la luna que el móvil dirá, bueno, esto ya no es la luna, aquí ya no le pongo la textura. Pero es curioso, ¿cómo habría que buscar, estaría bien como prueba, a ver, ¿cuánto puedes dibujar sobre la luna hasta que deja de entender que eso es la luna? Sí, hay mucha gente que ha estado haciendo ya desde hace varios años esto y es muy gracioso porque la gente hacía fotos de pelotas de

ping-pong, por ejemplo, le ponían en un fondo negro, ponían una pelota de fondo de ping-pong, a ver si lo encuentro en un momento y lo mostraba. Pero mientras, quiero enseñarte y al menos explicar en la audiencia un concepto que yo creo que no todos entendieron, al menos digamos que son los que argumentan que esto es un JPG, que Samsung o Huawei sustituye siempre, dice esto es la luna, pun, la recorto, la pongo del mismo tamaño, fondo transparente, exportar,

¿no? Y es que esto es un concepto completamente de conocimiento del medio, no todos vemos la luna de la misma forma, no es que cambie completamente, pero, por ejemplo, en este caso, una persona desde España ve una luna completamente diferente a una luna en Argentina. Piensa que el móvil también puede rotarla, el JPG de la luna. Sí, sí, sí, pero no siempre vemos la misma semiesfera, sino que a veces la vemos desde

un lateral o otras veces por el propio bamboleo de las órbitas, que yo creo que me parece lo más interesante. Creo que en este enlace te puedo enseñar el tema también de 2021, es que este es un tema un poco raro, ¿no? Porque que haya dado tanto vuelo ahora, ¿no? Porque no es de Apple.

¿Sabes lo que quiero decir? Que siempre que pasa una cosa de estas es algo que en realidad varias personas han dado cuenta a lo largo de cuatro años, pero como no es Apple, nadie habla de ello hasta que la bola se hace suficientemente grande. Y como este ejemplo te puedo dar unos cuantos, bueno, hay otros cuantos, no me acuerdo de todos, pero como que yo me voy videando cuenta de estas cosas, ¿sabes? Que cuando es Apple, si a esto lo hubiese sido Apple, el mundo habría explotado, ¿sabes?

Sí, no, absolutamente, absolutamente. Pero ya no porque lo haya hecho Samsung, sino porque cuando lo hace otra marca, a la que sea, ya sea esto, otra cosa, hasta que la bola no se hace suficientemente grande, nadie le hace caso. Y aún así hay mucha gente que dice no, esto no es preocupante, esto no pasa nada.

Esto es noaduntería. Al final, las ventajas y los prósilos contras de ser la marca que más se escrutinizan, ¿no? Es como, pues siempre, el Real Madrid y el Barcelona, lo que hagan te llenan una portada y si lo hace el Sevilla o el Pumas de México, pues a la gente no le importa, ¿no? Te quiero enseñar esta foto, esta animación, este vídeo en el que podemos ver, los oyentes pueden ver las diferentes formas en las que vemos la Luna.

Hay una cara que, digamos, hay un 80, 70% de la Luna que nunca se ve desde la Tierra en ningún momento. Pero, del otro porcentaje, hay veces que sí lo vemos, ¿no? ¿Qué porcentaje he dicho? ¿Has dicho 80%? No, no, 80% no. El 80% de la mitad trasera, por decirlo así, ¿vale? Es decir, el 40%, ¿vale? Pero yo creo que esto ilustra muy bien lo que es el proceso y porque lo que, literalmente, no puede ser un único JPG, ¿vale? No más allá de que lo pueda rotar, es decir, bueno, pues sí, estoy en Argentina

con el GPS, la gira y la estarna. La vuelta a la botella está. Además de que han analizado el APK de la cámara y si estuviesen los JPGs ahí, se habrían visto, ¿no? Claro. La carpeta A barra B, barra secreto, barra no abrir. Barra de veres matemáticas, ¿no? Exacto.

Que están los JPGs de la Luna. Mira, con el S21 lo intentaron engañar con un trozo de ajo. Aquí lo vemos, ¿vale? Para ver si intentaban entender qué era lo de la Luna, lo de las pelotas de golf que te comentaba. Si el reconocimiento ya entonces era suficientemente avanzado como para entender que esto no es la Luna, es decir, no le aplica esos filtros como si le aplicaba a la carita que comentábamos antes, e incluso con unos métodos un poco más avanzados, con iluminaciones

para intentar simular el brillo. Pero yo creo que si pintas es crepuscular. Si pintas es escalas de grises, o yo los cráteres más o menos aproximados, yo creo que sí que se tiene. Porque obviamente lo que está pasando aquí es que la pelota es lisa, no tiene textura, no tiene diferentes zonas de colores, ¿sabes? Esta pelota sí tiene un poco más de textura, pero es cierto que no...

Yo creo que si coges una bola de estas de ping-pong y le pintas más o menos los grises de oscuridad y de tal, parece que se sabe la Luna, llegará un momento en el que la coja. Absolutamente. Porque si coges la foto, por ejemplo, la original de la prueba que hemos visto de 170 por 170, está completamente desenfocada, el único que se ve son diferentes tonos de gris y de más clarito, ¿sabes? Entonces yo creo que si lo pintas a mano, se podría.

Eso es. Y comparaban el S21 Ultra con una Sony A7R, pero sé que no sé cuánto. ¿Qué está ocurriendo? Significa esto que, claro, el sensor, la información óptica cruda que llega al sensor del Galaxy S21 y S22 y S23, iPhone 12 13, lo que sea, no es ésta. Es posible que esto es lo que esté viendo el usuario y esa es un poco la pregunta del millón, ¿no? Es que para mí lo de la Luna es el modo fácil de esto.

Sí. Es muy fácil escusarlo porque a nadie le importa la Luna tanto como para eso. No, no, es verdad. Tantas fotos de la Luna sacamos, porque son tres. Pero es una figuracia usar esto como marketing, es decir, ¿sabes? Poner anuncios de, mira las fotos pues de la Luna, porque cuántas fotos en tu vida vas a hacer la Luna. Sí. A ese nivel, ¿sabes? O sea, es decir, una cosa es que veas un paisaje, ¿sabes? En Nueva York y la Luna entre los edificios y superchula cuando estás mirando con tus ojos.

Claro. Pero cuando vas a hacer la foto, esa foto siempre se va a ver con la Luna siendo un punto blanco, ¿sabes? Una foto a este nivel siempre va a ser eso. Fondo negro con la Luna gigante delante y esa con que hagas una foto ya tienes la foto porque no va a haber otra variación de esa foto, a menos que te vayas a Argentina y la Luna está al revés, ¿sabes? Entonces basar todo el marketing de tu, bueno, todo no, pero gran parte del marketing de

tu móvil en estas fotos, no sé, no tiene mucho sentido. Y luego más idea de eso da igual si lo que está haciendo el móvil es reina de información o no. Porque no es que yo que sé, si la Luna regularmente la aparecís en nuevos cráteres y resulta que el móvil no está cambiando el detalle que mete cada vez que hay un cráter nuevo, pues aún podrías decir, oye, pues esto ya está feo.

Pero como a mí siempre es igual, pues te da igual que reina de información porque la foto que puedes hacer dentro de 50 años va a ser igual que la de ahora, ¿sabes? Exactamente. Esa es uno de las conclusiones que tenía yo apuntadas desde hace unos días, uno de mis pensamientos resumen que era, si mañana la Luna desaparece, ¿no? Llega un mago y la elimina y aparece otro elemento celeste del mismo volumen, del mismo tamaño con los cráteres diferentes, habría parte

del software, de los Galaxy, de los iPhone, de los Huawei, etcétera, que intentaría mejorar parte y que lo pondría en lo de la parte que hace el zoom óptico, por ejemplo, el zoom digital. Eso, la parte que hace la de convolución, el intentar añadir nitidez, algo borroso, el estabilizador de imagen, un montón de cosas funcionarían igual.

Pero si la Luna, en vez de tener cráteres de forma circular, esa nueva Luna 2.0, tuviera cráteres triangulares, me lo invento, la foto estaría completamente diferente, ¿no? Y eso es, yo creo que el... Y si encima aún saltase, como, o sea, aún detectase que eso es la Luna y le añadí ese detalle que ya no está, ahí es donde entramos en él, cruzamos la línea de, vale, esto ya creo que no está bien.

Pues digo que es que lo de la Luna es el modo fácil, porque no va a variar. Sí. Pero si esto lo estuvies haciendo con las caras de las personas. Eso es. Sabes, y realmente te hice parecer muy diferente, como, por ejemplo, lo que hace Remini, la aplicación está de ahí a que mejore las fotos de personas, lo has visto seguro, sema Remini, y está muy bien, porque puedes coger una foto antigua de los años 80 o los 90 con las cámaras que no se veía muy bien, le haces una foto

y por allá te mejoras la cara y en las pruebas que yo he hecho, la mayoría de veces se parece a la persona, pero tienes que entender que no es la persona realmente, es una aproximación. Y es que sabes qué pasa, que incluso con estos casos, nuestra memoria no es exacta y muchas veces, y esto es una, hay que comprenderlo y hay que entenderlo, nuestro cerebro no tanto recuerda lo que vio, sino recuerda lo que recuerda que vio, vale, es exacto.

Porque al final tú no estás guardando imágenes en tu cabeza, tú estás guardando, esto lo podemos llevar al tema del arte por allá y es que los algoritmos de ella no han guardado la información de las imágenes como fórmulas matemáticas de lo que ellos creen que es un cuadro o una foto o lo que sea, entonces cuando tú no estás pidiendo que genere una imagen, él está interpretando los datos que él ha guardado.

Tal cual, tal cual, en esta foto que estamos viendo aquí de Remini podemos ver que a lo mejor esa niña o este niño bebé capturado el año Catapun, pues no tenía esos ojos tan azules como tienen la foto, a lo mejor eran unos ojos marrones, no lo sabemos, el algoritmo ha decidido que son de ese tono y si tú se lo señas a la que era su madre o a esa persona y la conoces, pues dices ahí se ha equivocado, qué raro ha quedado, pero

si me lo señas a mí digo, ostia, me compro la aplicación ya. Claro, pero por ejemplo, aquí en este caso tú estás usando Remini y sabes lo que está haciendo o como usuario en la mayor parte de veces sabes lo que está haciendo y sabes que en algunas fotos te las hay bien, otras veces mal, pero sabes lo que hay, pero si el móvil o la aplicación o lo que sea lo está haciendo sin decirte en ningún momento

oye esto esto es lo que es, ahí es donde entramos en lo que en mi opinión te está engañando y una cosa es una aplicación de retoque de fotográfico y otra cosa es la cámara de fotos que lo que tiene es que hacer una foto representando la realidad, sabes dónde quiero llegar con esto, sabes que cuando tú haces la foto lo que esperas es que te represente la realidad tal y cual tú la estás viendo y si lo que está haciendo

es meter un detalle que no está ahí porque el sensor no da para tanto aunque el detalle sea 90% lo que en realidad está ahí, hay un debate ético de si es correcto porque en algunos casos se va a indimentar cosas que realmente no están ahí. Exacto y que al final incluso imagínate tú eres el hermano de ese niño que hemos visto hace tiempo y ese niño pues se murió y tú a base de ver esa foto durante décadas y

décadas y décadas pues vas a decir vas a recordar esta interpretación en vez de la interpretación digamos que hace tu cerebro cuando está viendo la foto borrosa y rellenando un poco que es lo que no se ve aquí detrás pues puedes averiguar más o menos que hay una valla de por ejemplo no y ya tú te tienes que acordar ahí esa es la valla de la casa de mi tía y recuerdo que era amarilla sabes es un proceso complicado para gente un poco

más lista que nosotros yo creo José no es esto es un tema súper interdisciplinario no tendríamos que traer un debate una especie de chiringuito chiringuito de jugones pero de fotografía computacional con filósofos con borrachos a medida que a medida que entramos en la en la era de la de la ella ya no sólo tema de arte sino el tema de todo la discusión pasa de ser técnica ser ética creo que hay muchísimo de eso entonces ahora estamos empezando

con con algo tan ni mío realmente como lo de samsung con la luna pero pero si entramos en temas como chat jpt el arte con ella a 25 otros sabes cosas que van a ver después ahí entra un montón tema ético y volviendo al galaxia s 21 que estamos comentando lo más que el s 23 porque es que al final es de lo que más material se escribió hace tiempo lo comparaban decían esto es lo que capturó con un s 21 según salvo de la tienda

y esto es lo que capturó con un 12 pro que era entonces el modelo entonces el usuario medio que ha comprado el móvil y que está viendo una luna que se parece muchísimo más a esto dice ok luego claro hay que pensar cuántas fotos de la luna sacó cuántos modos retrato a lo intenta hacer una foto a su perro a su hijo le sale borrosa y donde queda el s 21 claro es que está yo creo que parece si me dices que es agua sucia y con una gominola

una judía y gastada el cocido de alguien me lo creo no entonces sí que es cierto que hay una mejora pero mientras que no se inventen que yo creo que el resumen de todo tú crees que ese artículo de input no le he visto está hablando de qué clase de mejoras por y ya está haciendo de la luna el artículo es bastante interesante a ver todos los vídeos todas las imágenes todo todo todo porque este es uno de los episodios de kernel que más

nos hemos preparado josé y yo para hablar de esto y aún no hemos sacado la respuesta de samsung todas las cosas que comentemos van a estar en las notas del episodio vale para que no os perdáis nada vamos a ir un poco ya a lo que es la respuesta de samsung si me vas a permitir josé te pregunto el artículo ese de input que estábamos viendo antes es un artículo de ahora o de cuando el s 21 no de 2021 del s 21 vale porque si ves el texto

ahí lo que está diciendo es lo tienes a mi mano si lo tengo aquí en qué parte quieres que vaya baja un poquito a la acusación no justo abajo justo abajo ahí abajo del todo y lo que está diciendo es a pues y samsung nos dice que lo único que está haciendo esto es añadir nitidez y los colores y es como eso es mentira exacto es demostrablemente mentira pero es que el artículo que salió otro día que te dije es mentira es que vuelve

a decir lo mismo a mí lo que me molesta de todo esto no es lo que están haciendo es que lo sigan negando sabes es que sigan diciendo no porque más el no sé si lo iba a enseñar después si esto lo que quieras enseñó bueno este es el artículo que ha salido el 15 de marzo donde samsung vuelve a explicar por tercera cuarta vez lo que los galaxis están haciendo con las fotos de la luna problema número uno es el 75 por ciento del artículo no tiene

relación con con con realmente el problema o de lo que se está hablando están explicando aquí todo explica cómo han hecho el entrenamiento del sistema de ella vale para enseñarle cómo es la luna y qué es una luna y que no es una luna etcétera etcétera y y luego te enseña mira estas situaciones son difíciles por ejemplo situaciones donde no se ve la luna y es como claro efectivamente si no se ve la luna pues es difícil entregar el sistema correcto y estamos

de acuerdo si luego habla sobre la exposición y que efectivamente para hacer fotos a luna y que bajar mucho la exposición correcto vale hasta y todo bien vale y luego la única parte donde está diciendo que hacemos bueno luego dice ahí esta parte dice que efectivamente si detecta la luna usa la sin optimizer para para mejorar la foto de la luna ya está o sea dice usamos o no lo usamos a o b vale ok y entonces dice después de hacer el procesamiento multifotorama la cámara del

galaxi utiliza el sin optimizer basado en ia de learning base bla bla bla para y aquí es donde dice para eliminar el ruido que queda y mejorar los detalles eso es la explicación de todo el tocho de artículo que han puesto la explicación es eliminar el ruido que queda y en hands the image details even further mejorar los detalles eso es todo lo que explican de lo que hace y abajo del todo dice seguimos usando esto para para reducir cualquier confusión bla bla bla

entonces de todo el artículo con lo único que tienes que dar es con esa frase y lo único que están diciendo es si hacemos algo que hacemos nos lo vamos a decir pero hacemos algo si pero es mentira porque no están quitando el ruido y mejorando los detalles están añadiendo detalle que no está en la foto no no si la prueba del algodón es esa carita sonriente se cuadradito que hemos visto hace unos minutos quiere decir al final si donde no hay está es donde no hay luna estás

pintando donde no debería de haber nada ahí es claramente y a mí esto es lo que me molesta todo esto no es el hecho de que están haciendo lo que están haciendo es la mentira es la mentira y el eso y el embarrarse y el seguir embarrándose y seguir negando que están haciendo algo que están haciendo pese a que te están explicando arriba cómo lo han hecho abajo te dicen no pero pero nada simplemente mejoramos un poquito los detalles con esto y es como no pero no es verdad ya entonces

pues bueno pues pues a ver no es grave mientras lo esté haciendo con la luna pero el problema es con qué lo van a seguir haciendo y hasta qué punto van a llegar claro y donde marcamos la línea entre lo que es aceptable lo que no es aceptable si sabes porque esto no es obviamente no es un 0 1 o sea no es una cuestión binaria de estos aceptables no es aceptables es que va a haber mucha agrés empezamos con no pues la textura de la piel te añadimos un poquito de textura porque

si se ha hecho la foto en baja luz pues hemos eliminado el ruido se ha ido la textura de la piel te la reañadimos vale empezaremos con cositas así y dentro de tres años pues las manos no salen bien porque la guía no sabe dibujar manos y en la foto no se ve bien de las manos si estoy enseñando ahora parte de creo que es del del de uno de los ceta flip del marketing que también comentaba lo que era el modo nitografi que no es muy diferente de las especificaciones o de las

especializaciones de las escenas para el modo retrato capturar una flor el modo macro no relativamente similar para para estos temas nocturnos y de astrofotografía etcétera de nuevo por ejemplo los modos de captura de larga exposición que nos permiten ver he visto algunas elementos que te dejan ver hasta casi una con relativo detalle una galaxia muy tenue yo he hecho eso con el iphone 12 con el 13 y ahí yo creo que simplemente eso es que es un elemento muy sencillo a nivel

matemático no si a ver yo es que vuelvo a lo mismo una cosa es los modos estos que yo considero artísticos porque no estás representando la realidad estás haciendo una versión mejorada de la realidad pues haciendo nada de exposición para enseñar el el trazado de luz un coche que pasa como un problema en ese ejemplo de la ciudad o los modos retrato o cosas así donde tú sabes que lo que estás haciendo no es representativo 100 por ciento de la realidad si para mí el único

problema es cuando todo esto se cuela en el modo fotográfico básico que en el que tú simplemente quieres hacer una foto de lo que hay delante de la cámara no con mayor o menor gusto dependiendo de tu nivel fotográfico de la lente etcétera pero pero eso pero luego estábamos hablando del tema de la optimización de escenas que hace samsung y de todos los modos que tiene pero y esto habría que verlo porque no sé qué hace en cada modo pero una cosa es detectar comida y entonces decir bueno

pues le añado más tonos cálidos porque la comida es más apetecible si los tonos de color son un poco más cálidos o le meto un poquito más de desenfoque de fondo para enfatizar el modo macro de sabes de la comida o si es una foto de perros pues meterle un poco más de detalle finos a meterle de no pero el filtro de sentido artificial hacerlo más fino para que los pelos se vean bien sabes esas cositas que tú harías en photoshop o en el tru o el programa que tú dices eso es lo que yo

consideraría una optimización de escena que es que los valores del del revelado de la cámara el procesado estén hechos particularmente para este tipo de escena y otra cosa es lo de la luna que es para mí es como una cosa completamente diferente ya lo del modo bebé ahora que lo comentabas me ha recordado que no es tanto algo específico para las caras de los bebés sino que recuerdo que lo explicaban no sé si era ap el ojo y o alguno en una presentación que decía es que se mueve mucho

entonces bajamos la el tiempo de exposición para que las fotos quede mejor me parece muy curioso y coño tiene sentido pero si es el tipo de cosas tienen sentido en mi opinión deberían hacerlo bueno lo hacer automáticamente si tienes el optimizador de escenas pero yo recuerdo que antiguamente era un modo concreto de la cámara el modo deportes que se llamaba que era para para escenas de deportes como viento rápido pues el actuador más rápido para congelar la acción de

hecho eso es uno de las cosas que la gente critica de las de las cámaras de samsung que siguen sin arreglar y es que en comparación con los píxelos con los iphone el actuador de samsung es muchísimo más lento entonces cuando haces fotos a perros niños pequeños que no paran de moverse es casi siempre salen borrosas entonces en mi opinión deberían implementar más recursos a eso que a la textura del alburo se eso es y por último estaba enseñando aquí en vídeo una comparativa que

también está bastante bien en internet de la cámara del s 22 comparada con la del s 23 que está a la derecha vale y tampoco apreciamos diferencias raras que lo cual no es muy diferente lo que está ocurriendo a nivel dentro del dispositivo es decir de lo que le entra a lo que muestra en la pantalla ya desde el s 21 vale decir eso yo creo que es una de las cosas que creo que debería ser el mensaje principal de este programa no es algo del s 23 sino que es algo que va en el tiempo y que

también por otro lado está muy alejado de lo que hacía huawei en el p20 en el p3 eso es que era una foto que implementó que ponía sí sí sí es igual de mostrar porque no me acuerdo del del drama si en ese caso sí que era una fotografía bueno no tan sencillo como un jpg pero sí es cierto que intentaba añadir un poco rellenar de a grosso modo esos esos detalles de nuevo ahí sí me parece muy feo y otros elementos de pues lo hemos visto no sé con qué fabricantes que hacían fotos capturadas

para no sé qué y eran hechas por el equipo con la de se lo hacían todos hasta 2016 2017 yo recuerdo todos lo hacían excepto a apel y no lo digo por la final pero es que realmente podías verlos a decir tú tú te ibas a la a la página web de cada uno de los móviles y en las apel veías que claramente la textura de la foto y etcétera se había hecho con el iphone con iluminación profesional y lo que quieras y la escena super preparada sí claramente pero la foto la había hecho

un iphone y te ibas a samsung y vas a huawei y vas a google no lo sé pero casi el resto de marcas y las fotos que veías eran claramente fotos hechas con una cámara profesional eso es y por defender o por comentar un poco más de los modos de astrofotografía van mucho más allá de lo que es la propia luna en este caso por ejemplo aquí tenemos a ver si consigo que cargue esta parte del vídeo detección de las constelaciones no es en plan tanto como que te las muestre más o menos sino que

oye te vaya diciendo cuál es porque eso es interesante es muy muy interesante ahora creo que ya he conseguido que cargue más o menos el vídeo vale pero veis y aquí en esto es realidad aumentada literalmente decir aquí no estás engañando nadie sabes que no están las letras de la de la estrella de la estrella no pero oye es es interesante todo lo que se pueden hacer estas son las imágenes que te decía de las galaxias capturadas por exposiciones largas yo esto

lo he llegado a hacer ya hace muchos años ponía al mob me iba con el coche por la noche ponía el móvil boca abajo un rato para no tener que sostenerlo con el trípode es decir apuntando directamente hacia el espacio y salían cosas no tan chulas como ésta porque obviamente los móviles de entonces no eran estas cámaras y estos objetivos pero pero la verdad es que son cosas increíbles aquí ya podemos meternos en que si el marketing que si no sé qué que si está foto

saber los detalles que se nos equipe bueno pero está bien estas cosas yo siempre diré que son cosas muy nicho la gente normal no las va a pensar pero pero bueno pues es mala que se pueden hacer yo recuerdo con el creo que con el 12 con el 13 también aprovechando que estaba en el monte hice algunas las tiré en rau porque no había modo de astrofotografía en el iphone ni lo sigue sin haberlo pero tirabas

en rau y el sensor capturaba esa ese detalle luego lo procesabas tu mano y oye muy bien si eso es al final es un poco saber lo que eso para que no nos pase como como al científico francés tú te acuerdas no me acuerdo de hace no sé si hace un año de esto un científico francés creo que tengo aquí el tuit exacto literalmente no lo ha borrado yo creo que por por por mantener vivo el meme de internet de un científico de un director del de uno de los directores de

realmente se equivocó no era un trolleo no no no del césar francés había dos fotos una que era decía que era el planeta nuribi o algo así y esa sí era el trolleo vale y aquí es este señor que sí que se lo que se lo comió nunca mejor dicho me acuerdo porque decía bueno una imagen capturada además no de un planeta sino de la estrella próxima centauri no y la gente le decía que había descubierto la estrella próxima chorizo y yo me acuerdo del meme ostia tío es que esto fue porque

claro estábamos todos compartiendo y flipando esos días las imágenes que iban llegando del del james web y de repente esto fue una como cómo le llegó a este señor la foto del chorizo le llegó por el dropy dijo a pues no es en un planeta estábamos el metro alguien le hizo una foto de un chorizo y dijo que acabo de descubrir un planeta nuevo así que me parece muy gracioso todo esto para que para que tengamos un poco de conciencia de por dónde van con que estos casos

un poco más exagerados pero pero bueno esto esto es curioso porque esto al final es un poco el meme pero ahora con con el mit jorney y todas estas sobre todo la nueva versión de jorney y la de cosas que nos vamos a comer todos mentiras y trolleos y en general fotos falsas va a ser brutal ya te digo todo esto a mí todo el tema de este de la iphone me parece que va ligadísimo a todo el tema de la arte ya y la y en general sí son dos partes de la misma moneda en cierto sentido pues nos

vamos a ir con este tweed que era uno de los que quería rescatar también de 2021 de un galaxy s 21 ultra y yo creo que aquí si son tomadas las cuatro fotografías entiendo al mismo momento aquí yo creo que cualquiera es decir es una foto espectacular la voy a poner un poco más en grande esto es en nueva york un elemento ves pertino está anocheciendo pero aún se ve un montón de brillo solar la luna ya está en el cielo brillando y con los diferentes zooms no sólo se le dé con

más detalle sino que el fondo es completamente negro y yo creo que aquí esto ya si es invent no pero en ese momento el cielo es negro porque tienes que bajar la exposición para poder ver el talle aquí esto es lo que estábamos hablando no cuando tú quieres hacer una foto la luna la luna está reflejando la luz del sol y esa luz del sol es muy brillante tus ojos son capaces de auto exponer pero para la vista pero una cámara no no tiene tanto rango dinámico tus ojos tienen

bastante rango dinámico la cámara no todo es para que tú veas en una foto el detalle de la luna tienes que bajar la exposición un montón lo cual hace que todo alrededor de la luna se vea negro si y la luna se vea con detalle por eso cuando tú haces una foto por ejemplo con este punto de vista o un punto de vista un poco más cerrado donde se verían edificios y la luna se va a ver siempre con un punto blanco porque no tienes el rango dinámico necesario tendrías que hacer varias fotos

en distintos exposiciones y luego componerlas para poder ver el detalle de la luna y además verlos edificios entendiendo todo lo que dices y estando de acuerdo yo creo que aquí para ser un poco más certero a lo que el usuario está viendo en este momento una vez que haces esa magia entre comillas de hago esto y lo capturo con esa reducción de los rangos etcétera pero luego le intento aplicar los colores originales para que al menos me salga este azul que estoy viendo yo es a ver

se podría hacer sí se podría hacer de hecho el primer que tengo con eso no lo que pasa con eso es que la foto puede quedar bastante artificial no se has visto en twitter son muy comunes no me acuerdo del nombre del usuario yo sé que choco twits por ejemplo mucha es un fotógrafo que ha hecho fotos de ciudades donde se ve la luna de fondo y sobre todo muy grande y demás y algún otro usuario hay cuyo nombre no me acuerdo que también las hace y me hace mucha gracia porque

hay que poner una que se ve yo que sé una fecha de una edificio madrid y la luna de tras súper grande exacto lo primero que dicen es photoshop photoshop menudo photoshop menuda foto menudo montaje te ha quedado sí porque es que ver eso es tan raro choca porque y queda tan real que la mayoría gente lo primero que piensas esa foto es falsa entonces si tu móvil automáticamente hace algo así tendría que ser muy ligero para que tú como autor de la foto no pienses oye esto ya esto

pasarse si sabes esto no es real me ha acordado de una vez que compartía yo una imagen del que creo que estás diciendo tú que es este fotógrafo muy conocido si no sé si solo y entiendo que esto es un gran angular no un zoom un simplemente un zoom simplemente no es un zoom de pues igual de 600 o de mil o sea una burrada un cañón básicamente si ya 100 400 eso es vale y claro tú esto lo ves y además que ha publicado muchísimas fotos en este caso tú lo ves también en este

caso de estos molinos tú estás dando una vuelta por aquí y tus ojos no están viendo esto correcto claro queda espectacular si si es brutal no se está inventando nada no no se está inventando la nube está ahí cambia cambia la perspectiva lo que tú haces con un zoom es acercar es como si hiciese una ventanita pequeña en tu visión y esa ventanita pequeña es lo que se queda ampliado entonces la el fondo parece que está mucho más cerca de todo lo que tienes delante y

queda esa vista aplastada que de fondo aplastado que es bastante impactante de ver pero claro tus ojos los ojos humanos son más o menos equivalentes a un 50 milímetros así entonces esto es relativamente real pero estas mira este por ejemplo esto es un ejemplo más de algo que mucha gente pensaría que es falso porque ver esa luna tan grande ver la luna contando detalle mientras que lo demás se sigue viendo bien aquí es donde ya dices estás reventando un poco salenía de la realidad es

real es una foto real lo que pasa está retocada claramente pero aquí entramos más en una foto más artística que no es 100 por ciento representante representativa de que tú es exacto exacto yo al final claro cuando publicaba este fotógrafo y otros fotógrafos desde donde la capturan y digo yo pero si esto no está muy lejos de mi casa y yo miro y no veo las montañas así entonces me puse a mirar y era eso y yo recuerdo y todo esto lo encontré rápidamente porque puse un tweet a ver si

lo puedo mostrar sin que rompa internet que era bueno lo acabo de perder os lo prometo que lo tenía decía en las fotografías de madrid que parece terán porque terán tiene es una ciudad que está muy alta y tiene un rango montañoso mucho más escarpado que lo que hay al fondo de madrid que está a 80 a 90 kilómetros y en esas fotografías es que parece que está en la propia plaza de castilla en las montañas como algún ejemplo parecido yo con tokyo que se ve el fuji de fondo y se ve

que parece que está al lado pero no está el lado exacto en fin este tipo de elementos que bueno son distintos no a lo que comentábamos de de samsung etcétera pero sí que creo que son muy buenos ejemplos para ir comentando todo esto es parte del debate realmente porque la diferencia es que una cosa es la está haciendo el software y otra cosa es la está haciendo el hardware que es decir una lente de zoom amplía y te genera una perspectiva que no es real no es real en el sentido

que no es lo que tú ves con tus ojos pero sí que es lo que está delante de la cámara y entonces vuelve a ser parte del debate de bueno esto es real no es real que es real si te pones minucioso no todos vemos los colores igual no eso es una de las cosas que mucha gente descubre cuando es adolescente como sabe otra gente que el verde es verde tengo 14 años y es muy profundo esto que estoy pensando acabó el matrix me flipo en fin ha quedado yo creo que un episodio bastante

interesante de kernel nos vamos recomendando el s23 porque sigue siendo una cámara vamos a ver si el modelo prototipo que me dejó tim kuk es el definitivo que se presentan el modo nocturno vamos a pensar mucho en próxima chorizo y en todas estas cosas que la verdad que esperamos que se haya aclarado un poco las ideas y los conceptos a muchas personas que también nos lo pedían muchos oyentes tiene que hablar de esto y creo que deberíamos de haber hablado de esto sobre todo

porque porque samsung es un gran anunciante de mixio ya han sido muchas campañas y no podemos dejar esto pasar y que luego hay que no hablas de esto porque te dieron buenas perras por contar lo bueno que era el s23 y yo si otro cuento además por cierto una cosa sobre ésta yo recuerdo una vez a samsung que cuando nombraron nuevo director ejecutivo al nieto del fundador cuando había salido de la cárcel la noticia en mixio la puse samsung a favor de la rehabilitación de los

criminales muy bien samsung muy una empresa muy progresista y no sé que el s23 no nos lo envían no para probar no no si yo lo puse y luego lo ha probado que decir que y luego han seguido e invirtiendo que al final las cosas no están es decir esos castillos de los periódicos de los controlas petroleras y por eso las más de los coches eléctricos al final en el día a día sobre todo para gente como nosotros pues pasan desaparecidas que más de las cosas todo el tema

es una tontería en esto es en dos semanas la gente se ha olvidado y ya está ya lo has visto que la gente se ha olvidado de lo del s21 yo creo que el año que viene con el s24 nos dirá o ya es visto lo de la luna pero que eso que es que pese a que a mí me parecen en parte mal no es no es gran problema no es otra cosa es que esto siga avanzando y empiecen a hacerlo en cosas donde no debería hacerlo entonces ahí ya me va a parecer problemático pero bueno no peores cosas se han

hecho la verdad que estaba enseñando un vídeo de la estabilización del móvil y están grabando como si estaban que estuviesen grabando desde el móvil con un coche y pasaba otro coche por tanto y entonces se reflejaba que estaban grabando con una cámara profesional yo creo que fue no creo que fue no que sino si no fue no que a zuhua wey ahora mismo no recuerdo muy bien pero eran las épocas últimas de nokia en los smartphones y eso sí que obviamente pues no pues eso pero hay ahí

no así que nada como decías tú me ha gustado mucho que no es un tema binario es un tema más complicado de lo que parece y simplemente tenemos que tener esa perspicacia para intentar ver hasta dónde aceptamos y porque los resultados son los que los que son de las redes con mucho porque yo he salido más aprendido de este episodio así que espero que los oyentes también y nos vemos en el siguiente episodio de kernel bueno estaremos grabando más episodios del podcast diario más

episodios de cupertino comentaré el iphone 15 este que me lo han prestado ahí también hablaremos de elon vale a ver si elon también me deja o saca su propio smartphone imagínate eso decía no él lo comentó sí sí sí el rumor eterno pero dijo él no lo dijo él un día algo de que no me oblige algo así hubo un tweet un tweet en su momento de comprar twitter que empezó a twitterar a todas horas sí hubo un tweet sobre algo de eso cuando cuando era lo de cuando lo del 30 por ciento

el más que como que el día siguiente tuvo una reunión con tim kuk en el en el campus y ya no ha vuelto a decir nada no quiero ni saber lo que se habla en esa bueno sí que lo quiere saber lo que se habla es a ver también pero yo creo que al final explicaron mucho del plan mira si la gente lo compra desde tu web no hay 30 por ciento ni nada si lo compran desde la pesto te lo quedan pero yo me acuerdo de eso la gente en las respuestas elon saca tu propio se sacando los renders los

renders de iphones o sea de móviles hechos de tesla que parecen como un ciber track en miniatura horrible es todos feísimos completamente impráticos y la gente flipándose wow esto sería increíble sí sí sí hay dios mío en fin que me he reído mucho que ha aprendido mucho que espero que vosotros también este tema de la computación la fotografía computacional es increíblemente interesante hay gente que estudia mucho y que sabe mucho para poder conseguirnos que con unos

sensores del tamaño de una lenteja literalmente seamos capaces de tener este tipo de recuerdos y vídeos en 4k 60 frames por segundo esos chavales creo que no lo apreciamos mucho este el nivel de futuro que tenemos en nuestras manos por mil cochinos euros o por 500 euros me refiero tú coge lo que hay un nano iphone 14 un s 23 se lo llevas a james cameron cuando está grabando terminator 2 y le da una pop legia en directo ahí sabes eso es lo que me refiero que mil euros y más es que no

había ni con todo el dinero del mundo en el 95 podrías grabar con la calidad que grabas hoy con un móvil hombre sí que una cámara de cine entonces tenía bastante más calidad pero pero entiendo lo que es decir obviamente a nivel casero si tú comparas con con incluso cámaras del año 2000 cámaras caseras hoy una iphone cualquiera el más barato o un móvil un xiaomi incluso la calidad es loquísima comparado con eso un xiaomi está hablando de un xiaomi de gaba bajas a vez no

obviamente un xiaomi puede ser un buen móvil con una buena cámara pero puede ser yo tengo muchos amigos con xiaomi no pero que que el coste en ese caso es el mismo que el del iphone entonces que más va a comparar uno con otro me refiero a un plan móvil de gama bajo vale en 150 euros grabarías mejor que con una cámara del año 2002 son locuras a nivel tecnológico lo que va a ocurriendo en estos sobres despido el programa por tercera vez yo creo yo creo que uno de los

carnells más graciosos más interesantes y más largos de la historia del programa hasta pronto

Episodios recientes