Loading...

La IA no es la razón por la que tus fotos son ahora mucho mejores

Fotografía 

En los móviles y en las cámaras, la fotografía computacional ha sido casi tan importante como la llegada de la imagen digital

La aplicación Halide Mark II de fotografía computacional en un iPhone 16 Pro Max.

Ramón Peco

Hace poco se celebró el Día Mundial de la Fotografía. Pero hay otro aniversario para la fotografía que ha pasado desapercibido: se cumplen 10 años desde que el equipo liderado por Marc Levoy, un ingeniero de Stanford que está entre los principales expertos en fotografía computacional, presentaron algo con un nombre extraño: el modo HDR+, una técnica que permitió captar varias imágenes combinadas en milisegundos para mejorar la calidad de la foto.

Esta innovación, y otras como el modo nocturno, han cambiado nuestra forma de hacer fotos, sobre todo con teléfonos móviles. Ahora hacemos muchas más fotos de noche que hace 10 años. De hecho, hacemos muchas más fotos en toda clase de situaciones. Han aumentado las posibilidades de que veamos una imagen que técnicamente sea correcta.

Dibujada por los ingenieros de la NASA

La primera foto procesada digitalmente es una de Marte captada en 1964

Ingenieros de la NASA dibujando manualmente los píxeles de la primera foto de Marte.

NASA 

La mejor manera de entender qué hace la fotografía computacional es remontarse a sus orígenes: estos se sitúan en los inicios del procesamiento digital de imágenes, en 1964. Ese año, la sonda Mariner IV de la NASA logró el hito de fotografiar por primera vez un planeta: Marte. Pero enviar imágenes desde el planeta rojo hace 60 años era una tarea casi imposible. No existían cámaras digitales.

Las imágenes que captó la sonda con una vieja cámara de televisión debían codificarse para ser enviadas y luego decodificadas por ordenadores en la Tierra. Algo inédito en 1964. 

Lee también

El proceso se resolvió de forma insólita: cuando las señales con las fotos llegaron, los ingenieros de la NASA se dieron cuenta de que podían decodificarlas manualmente más rápido que los ordenadores de entonces. Así que interpretaron el código de manera improvisada usando lápices de pastel. Aunque parezca sorprendente, la primera foto digital fue dibujada.

Esa interpretación humana se realizó en color, con una paleta cromática bastante acertada, pero la foto original de la Mariner IV era en blanco y negro. Decidir, por ejemplo, el color de una imagen como hicieron aquellos ingenieros es lo que hoy hacen los algoritmos de imagen computacional.

Detalles ampliados de fotografías realizadas con un zoom digital 5X con un iPhone 16 usando la aplicación Project Indigo, a la izquierda, y la app nativa de cámara del teléfono.

Ramón Peco

Esa interpretación humana estuvo realizada en color, con una paleta cromática sorprendentemente acertada, pero la foto fue realizada en blanco y negro. Decidir por ejemplo el color de una imagen es lo que hacen los algoritmos de imagen computacional.

Sistema Fusion

El nuevo iPhone 17: tres cámaras de 48 MP que llegan a 8 distancias focales

Con el nuevo iPhone 17 despuntando, los teléfonos de Apple han vivido una revolución este verano con la imagen computacional gracias a la app Project Indigo de Adobe. Desarrollada por un equipo liderado el mismo desarrollador que el del modo HDR+: Marc Levoy.

Este modo, en esencia, cambia el sistema de fotografía computacional presente en los iPhone por defecto. En su lugar utiliza un modo que llega a capturar hasta 32 tomas para una misma foto.

Lee también

La fotografía se rebela contra la inteligencia artificial

Ramón Peco

Esta app intenta mejorar el sistema de fotografía computacional presente por defecto en los iPhone. En lugar de procesar solo unas pocas imágenes, utiliza un modo que llega a capturar hasta 32 tomas para una misma foto. 

El Roborock RockMow Z1 con su sistema de doble cámara frontal analiza el entorno si la señal de los satélites no permite ubicar el robor.

Ramón Peco

Es especialmente útil en condiciones de baja luminosidad, para mejorar la calidad de las imágenes, el rango dinámico en escenas con fuertes contrastes entre luces y sombras y, además, para aumentar la calidad de las fotos hechas con zoom digital.

En un momento en el que precisamente los teléfonos de gama alta se diferencian precisamente de otros por sus capacidades para acercarnos a objetos lejanos, esta app logra algo casi mágico: mejorar la nitidez usando un zoom ampliado. No es algo milagroso, los resultados están por detrás de los que puede lograr una cámara con un zoom óptico.

Según Marc Levoy, ingeniero de Adobe

La fotografía computacional usa IA, pero no IA generativa que se inventa píxeles

Marc Levoy explicó la diferencia entre IA generativa y la IA estándar que emplea la fotografía computacional en una entrevista para The Verge: “Hay que diferenciar la IA en general de la IA generativa. Indigo usa IA para alinear y combinar múltiples fotogramas, pero no inventa píxeles. La IA generativa sí los inventa, basándose en entrenamiento previo. Eso puede ser útil en algunos contextos, como eliminar objetos o incluso en un zoom extremo, pero hay que ser conscientes de que no es información real”.

Google acaba de incorporar numerosas funciones en la gama de teléfonos Pixel 10 para impulsar ese cambio. Como un modo de zoom de 100 aumentos. No son los primeros en intentar que las cámaras de un teléfono integren IA generativa para mejorar funciones como el zoom digital, aunque sea a costa de inventar parte de lo que vemos. Ya lo habíamos visto en algunos modelos de Honor.

Fotografía captada por el Google Pixel 10 Pro con el zoom óptico 5X de noche sin emplear IA generativa.

Ramón Peco

Aun así, para mejorar las imágenes que captamos sigue siendo fundamental innovar en la fotografía computacional. Esta no solo ha mejorado la calidad de las fotos y los vídeos que hacemos, también ha permitido avances en los sistemas de visión robótica.

Un ejemplo claro lo encontramos en robots de domótica, como los dedicados a la limpieza del hogar, de piscinas o incluso los que cortan césped. En la IFA 2025 celebrado este mes de septiembre hemos visto numerosos robots de limpieza y varios cortacéspedes inteligentes.

Como el nuevo Roborock Rockmow Z1

Los robots domésticos de limpieza usan avanzados sistemas de visión

Estos últimos dispositivos, al moverse por entornos complejos, requieren cámaras capaces de analizar el entorno de forma eficiente. Aquí también la fotografía computacional desempeña un papel clave. Por ejemplo, al desplazarse en espacios con poca luz, los robots necesitan que sus ojos artificiales aumenten la luminosidad del entorno. Un caso lo vemos en los robots cortacésped de Roborock RockMow Z1, RockMow S1 y RockNeo Q1, que han destacado en la feria. Estos deben detectar obstáculos en terrenos irregulares.

Para lograrlo se integra incluso una doble cámara que permite obtener mejor información tridimensional del terreno. Aunque la empresa china no ha facilitado datos sobre este sistema, está claro que los algoritmos de procesamiento de datos visuales deben ser muy sofisticados.

Detalle de una foto de 100 megapíxeles captada con un dron DJI Mavic 4 Pro.

Ramón Peco

Estos dispositivos, como otros de Roborock dedicados a la limpieza del hogar, disponen de varios sensores para guiarse sin depender únicamente de las imágenes ópticas. Pero es necesario que estas sean lo más claras posible para que el procesador interprete si se enfrenta a un tronco, una herramienta o incluso un animal.

Los avances en fotografía y vídeo computacional se aprecian también en drones de consumo como el DJI Mavic 4 Pro. A pesar de pesar menos de un kilo, las capacidades de su sistema de cámara son notables.

La empresa sucesora de Olympus

Las cámaras profesionales de OM System usan a fondo la fotografía computacional

Es una técnica empleada en muchas cámaras de teléfonos móviles. Aunque en este caso hay también un trabajo importante en el desarrollo de algoritmos optimizados por parte de DJI.

Por si alguien se pregunta qué pasa con las cámaras tradicionales y la fotografía computacional, la forma en que se han implantado es diferente. La empresa OMD, sucesora de Olympus, dispone de cámaras especialmente bien dotadas en este aspecto.

Fotografía captada a pulso con un tiempo largo de exposición con una cámara OM System OM-1.

Ramón Peco

Las cámaras de OM System son capaces de borrar personas u objetos en movimiento, mejorar mucho la resolución de las fotos moviendo el sensor tras hacer varias tomas, e incluso permiten ajustar la estética final de las fotos y vídeos que hacemos con ellas modificando numerosos parámetros. Algo para lo que no hay duda que incorporan un procesador de imagen potente, el chip que se encarga de hacer esta clase de operaciones.

No sería extraño que el trabajo de OM System sea seguido por otras empresas del sector. Resulta llamativo que aún no haya ocurrido, si tenemos en cuenta cómo teléfonos como el nuevo iPhone 17 Pro Max o los Pixel 10 Pro están conquistando incluso a creadores que antes se resistían a dejar sus cámaras, gracias a los avances en fotografía computacional.