iVoox
iVoox Podcast & radio
Download app for free
¡ÚLTIMAS HORAS! Disfruta 1 año de Plus al 45% de dto ¡Lo quiero!
Fotografía o ilustración

Fotografía o ilustración

9/4/2025 · 14:29
0
12.3k
0
12.3k

Description of Fotografía o ilustración

Google ha cruzado una línea con el zoom 100x del Pixel 10 Pro: ya no captura la realidad sino que la inventa con IA. Una reflexión sobre qué perdemos cuando las fotos dejan de ser fotografías.<br>Contacta con el autor:<br><li>X: <a href="https://x.com/jlacort">@jlacort</a></li><li>Bluesky: <a href="https://bsky.app/profile/lacort.bsky.social">@lacort</a></li><li>Mail: <a href="mailto:lacort@xataka.com">lacort@xataka.com</a></li><br>Loop Infinito es un podcast de Applesfera sobre Apple y su ecosistema, publicado de lunes a viernes a las 7.00 h (hora española peninsular). Presentado por Javier Lacort. Editado por Alberto de la Torre.

¿Quieres anunciarte en este podcast? Hazlo con advoices.com/podcast/ivoox/757774

Read the Fotografía o ilustración podcast

This content is generated from the locution of the audio so it may contain errors.

Hola, bienvenidos a Lo Opinfinito, el podcast diario de Pelesfera sobre Abel y su ecosistema.

Yo soy Javier Lacorte, y empezamos.

La primera letra con este tema me saltó cuando leí un tuit del periodista Ger Jiménez en el que decía, leo textualmente, Estoy disfrutando un montón de los Pixel 10. Lo del zoom 100x es una locura. No creo que se pueda considerar fotografía, pero es alucinante cuando sale bien.

Y de ahí ponía un enlace para ver fotos hechas con el Pixel 10 en su Instagram.

Me paro en la frase, no creo que se pueda considerar fotografía. Esa frase se me quedó enseguida y clavada porque es una de esas frases que cuando alguien con el criterio que tiene Ángel, con la experiencia que tiene Ángel, la suelta así, además aparentemente de pasada, te hacen pensar. Porque Ángel, ya digo, no es ningún purista tecnológico, no es de los que se quejan por sistema de las innovaciones, ni ningún hater de Google.

Si dice que algo no es exactamente fotografía, pues algo tiene que estar pasando.

Entonces me puse a indagar, y lo que vi es que el nuevo zoom de los Pixel 10 Pro y Pixel 10 Pro no solo confirma un poco esta inclusión inicial, sino que creo que abre un debate muy interesante sobre hacia dónde está yendo la fotografía computacional. Y más importante aún, si lo que estamos viendo en nuestras pantallas tiene realmente más redundancia relación con la realidad. Google ha bautizado esta nueva característica, este zoom 100x, como ProRes Zoom, un nombre que suena así como muy técnico, muy pro, pero que esconde algo muy complejo y muy interesante. El sistema funciona así, cuando haces un zoom más allá del 30x, y el Pixel 10 Pro promete llegar hasta 100x, la cámara captura lo que puede con el hardware que tiene, que es limitado, que recordemos que solo tiene zoom óptico de hasta 5x, zoom óptico real, todo lo demás es zoom digital, es decir, un recorte progresivo de la imagen. Hasta aquí nada nuevo, esto es lo que han hecho todos los smartphones desde hace un montón de años. La diferencia está en lo que ocurre después de pulsar el botón de hacer la foto de la captura.

Google lo que hace es coger esa imagen pixelada, borrosa, con poquitos detalles distinguibles, y la pasa por un modelo de IA generativa. Y aquí viene lo importante. Este modelo no está accediendo, no está desvelando detalles casi ocultos ya de la imagen, no está mejorando lo que ya está ahí. Lo que hace es inventar detalles que parecen razonables basándose en su entrenamiento previo. Si, por ejemplo, por otro ejemplo que he estado viendo online, haces una foto a una fresa con un 50x de zoom, el algoritmo sabe cómo es una fresa, ha visto millones de fresas en su entrenamiento, entonces toma esos píxeles rojos borrosos que has capturado con forma de fresa y los transforma en una fresa perfecta con su textura, con sus semillas, con su brillo natural. El resultado es espectacular, visualmente es brutal, pero no es tu fresa. Es una fresa genérica, es una aproximación estadística de lo que el algoritmo cree que debería estar ahí. Creo que me estoy explicando. John Scalzi es un escritor y un fotógrafo fantástico, que es el que os he dicho que he estado viendo en sus comentarios sobre este tema en la foto de la fresa famosa.

Ha estado probando estas características más allá de la fresa y lo ha publicado en su blog y los ejemplos la verdad que son súper buenos. Por ejemplo, en una de las pruebas que ha hecho, hizo una foto de una señal de stop a unos 94x de zoom, es decir, casi casi al tope de lo que permite este píxel 10 y el resultado es muy llamativo porque la señal octogonal de stop aparece como un círculo. Bueno, las letras de stop han desaparecido, simplemente hay unas manchas blancas un poco abstractas. Los cables eléctricos que hay al fondo aparecen y desaparecen de forma un poco aleatoria, como si estuviesen ahí medio mal borrados con Photoshop. Y Scalzi, lo usa una metáfora muy buena para hablar de esto, dice que es como cuando sueñas e intentas leer un cartel pero las letras no se mantienen quietas, estas formas no puedes cifrarlas. Y dice que es justo eso porque esas imágenes no son la realidad, son alucinaciones, solo que generadas por un ordenador en lugar de por nuestra mente mientras dormimos. Y aquí es donde ya os digo que se abre un debate muy interesante. Google no está intentando engañar a nadie.

Google ha implementado soporte para C2PA, un estándar de autenticidad de contenido que marca los metadatos cuando una imagen ha sido generada o modificada con IA. Técnicamente están siendo muy transparentes, pero siendo honestos, ¿cuánta gente para revisar los metadatos de una foto? ¿Cuántos se van a molestar en hacerlo? ¿Cuántos van a sospechar que tienen motivos para hacerlo? Esto es algo que puede ir bien para un concurso de fotografía, pero para el día a día, más de uno y más de dos. Les pueden colar cosas o pueden ver cosas que no son ciertas. Ya digo que el problema no es nuevo. Siendo justos con Google, no son ni los primeros ni los últimos van a ser en usar IA para mejorar fotos. Apple también lo hace con el Deep Vision y el Modo Nocturno. Samsung tiene muchos trucos de procesamiento. Incluso los píxeles anteriores ya usaban el Super ResZoom, que combinaba varias capturas para crear una imagen más nítida. La diferencia grande aquí es el salto cualitativo. Super ResZoom trabajaba exclusivamente con la información capturada por tu cámara. Cogía varias fotos, las combinaba, sacaba el máximo detalle posible de lo que realmente necesitaba.

Comments of Fotografía o ilustración

This program does not accept anonymous comments. Sign up to comment!
We recommend you
Go to Internet and technology