La cámara de mi móvil es demasiado inteligente. Cuando saco una foto, el resultado no es exactamente el que yo buscaba. Es mejor. O quizás no.
Nuestros smartphones han avanzado en muchos frentes, pero es evidente que los sensores y sobre todo la fotografía computacional han logrado resultados excepcionales que no obstante pueden plantear un problema: no reflejar la realidad tal y como nosotros queríamos que se reflejase.
Para nuestro móvil "cada foto es un problema que resolver"
Grergor Gentert, fotógrafo de arte, usa su iPhone de última hornada para sacar todo tipo de fotos, pero se ha encontrado con que los resultados están empezando a no ser lo que esperaba. Este usuario contaba junto a otros fotógrafos avanzados su experiencia con las cámaras del iPhone en The NewYoker, y todos coincidían en que algo extraño.
"He intentado sacar fotos con el iPhone cuando la luz se vuelve más azulada al final del día, pero el iPhone intenta corregir ese tipo de cosas". Ciertos tonos que existen en el cielo son editados y procesados para acabar siendo eliminados porque el tono, por lo que sea, no es aceptable para los algoritmos de fotografía computacional de Apple. Como decía Gentert,
"El iPhone ve las cosas que estoy intentando fotografiar como un problema a resolver".
Es una buena forma de entender cómo son las cámaras de los iPhones y de cualquier smartphone actual. En su obsesión por ofrecer al usuario la mejor experiencia posible, esas cámaras han acabado realizando una serie de tareas de postprocesado que están dirigidas a una sola cosa: a que no te tengas que preocupar de nada más que de disparar.
Es la expresión última de esa gama de cámaras de "apuntar y disparar" (point&shoot) compactas que triunfaban antes de la llegada de los smartphones porque ofrecían precisamente una experiencia fotográfica perfecta para quienes no se querían complicar la vida.
Esa filosofía ha sido llevada a los extremos en los smartphones actuales. Los fabricantes integran a menudo sensores con resoluciones mastodónticas que luego sacan fotos a menor resolución gracias al pixel binning.
Tanto en los iPhones como en los móviles Android ocurre que al elegir la relación de aspecto 16:9 para las fotos lo que hace el móvil en realidad es sacar la foto en 4:3 como siempre y luego recortarla directamente sin decirte nada. Y si la quieres en 1:1, lo mismo: la foto se saca en 4:3 y luego se recorta para que el resultado sea el deseado.
Por no hablar de la magia de los modos HDR con las que es posible capturar los claros y oscuros en una misma foto con una precisión espectacular o los métodos que por ejemplo usaba Google para hacer zoom al combinar varias fotos en RAW para ofrecer el resultado final.
Los Pixel de Google fueron pioneros en esto: con los Pixel 4 y 4 XL vimos un avance importante en fotografía computacional que por ejemplo permitió acceder al modo Live HDR+ o a los llamativos modos de astrofotografía. La cosa ha seguido con los Pixel 6 y su borrador mágico o su modo movimiento, y esa aplicación de los modos retratos y el bokeh artificial que tanto nos gusta ha conquistado tanto las fotos normales como incluso los vídeos en "modo cine" que ya ofrecen tanto los nuevos iPhone como otros móviles del mercado.
La cosa está yendo a límites que rozan ya el absurdo, porque los fabricantes están decidiendo que las mejoras de rendimiento en los chips móviles se centren en esos algoritmos de inteligencia artificial y aprendizaje profundo con los que se hace esa "magia" de nuestras cámaras móviles. Los Google Tensor y los Marisilicon X de OPPO están diseñados para ello.
En Apple también lo tienen claro: hace un par de años compraron la empresa Spectral Edge precisamente para reforzar su fotografía computacional. La empresa aplica desde hace años las ventajas del aprendizaje automático para resolver en tiempo real no solo los ajustes de balance de blancos, colorímetría o exposición, sino para afinar la luz o reconocer el rostro de las personas que fotografiamos.

Cuando sacamos una foto en nuestros móviles, no estamos sacando una foto, sino varias que se combinan para lograr el resultado final. Apple tiene su tecnología Deep Fusion, y Google —como otros fabricantes de móviles Android— hace lo mismo desde hace tiempo. La técnica, desde luego, funciona, y hace que seamos capaces de captar detalles que las cámaras del pasado (fueran móviles o no) no lograban captar.
Ese algoritmo me está robando mi foto
El problema es que en ese procesado se pueden perder cosas que sí queríamos reflejar y que los algoritmos "nos roban". Ciertos tonos del cielo, ciertos detalles de un objeto, por ejemplo.

Es, parece, una opción adecuada para quienes buscan la toma "no adulterada" de las fotos que sacan nuestros móviles. Los fabricantes Android también lo permiten en algunos móviles, y desde luego es una forma de evitar el uso de postprocesado.
A veces, no obstante, incluso esas tomas RAW también están adulteradas, y una queja común entre quienes hacen uso del formato ProRaw de Apple es que "lava" la imagen para quitar ruido. Así pues, puede que ni siquiera con los formatos RAW nativos de los fabricantes baste, y ahí afortunadamente tenemos aplicaciones de terceros para obtener el RAW puro.
Hacerlo tiene sus consecuencias porque los sensores de nuestros móviles llegan hasta donde llegan: es ahí donde se nota la potencia de estos algoritmos, y donde para muchos el fin justifica los medios.
Camera technology can overlook and exclude people of color.
— Made by Google (@madebygoogle) October 19, 2021
We're committed to reversing this bias with #RealTone on #Pixel6. We worked with expert image makers 🤳🏽🤳🏿🤳🏾 to improve our 📷 algorithms to represent people of color beautifully and accurately.#Pixel6Launch pic.twitter.com/W6LLW2LhjY
Los fabricantes lo saben, y cada uno tiene su propia interpretación de la realidad a la hora de sacar fotos. Lo vemos en la forma en la que se reflejan los tonos de la piel, por ejemplo: Google pulió mucho el tratamiento de las pieles de las personas negras en los Pixel 6.
Es tan solo una muestra de esa forma de entender la fotografía que tiene cada fabricante. Eso se nota en tomas más o menos brillantes, con ciertos tonos predominantes o con una particular saturación que quizás no tenga mucho que ver con la escena real pero que desde luego hace que la foto parezca más viva y alegre.
Afortunadamente los usuarios siempre podemos editar esa foto para ajustarla a lo que queríamos, pero lo cierto es que las cámaras se han vuelto especialmente inteligentes. No parece mala idea a la vista de los resultados —sacamos más y mejores fotos y vídeos que nunca—, pero es importante tenerlo en cuenta para saber que esa imagen que hemos capturado quizás no es un reflejo exacto de lo que queríamos capturar.
Ver 18 comentarios
18 comentarios
celduques.ulrikvonca
Pues para eso tienes el modo manual "profesional"
keridito
El esperpento de la foto de la hoja en Twitter, no es tal esperpento!!!!! No es un fallo del procesamiento, la hoja estaba cayendo y el que echó la foto no se dio cuenta. La persona que pone la foto en Twitter lo admite:
Big news! I sent @sdw the original image. He theorized a leaf from a foreground tree obscured the face. I didn’t think anything was in view, and the closest tree is a Japanese Maple (smaller leaves). But he’s right! Here’s a video I just shot, showing the parallax. Wow!
Por favor, por suerte o por desgracia sois uno de los blogs tecnológicos más seguidos. ¿No podéis "investigar" un poco más en vez de poner lo primero que os cruzáis en Twitter? Antonelo, contigo esto no pasaba.
Exos
El otro día intenté fotografiar como se veía la ciudad con la luz anaranjada de la calima y no hubo narices. La cámara en automático compensaba el naranja y se veía como un día nublado común y en modo manual también lo compensaba. Intentando regular la temperatura de color para ajustarla a neutra, lo más que obtuve fue un paisaje mucho más rojo de lo que era.
Es una cosa que me da mucha rabia y que se nota mucho en los atardeceres, la cámara pinta los colores como le han programado, no como se ven
joelrico
Pues te compras una cámara o un móvil Sony.
dbrel
El Huawei Mate 6, creo, que tiene mi madre desde el año 2016 ya hacia esa combinación de fotos para sacar en modo noche, no es algo de hace poco, y menos de Iphone y de Google, además de sacar fotos excelentes y si quiero uso modo profesional para ser un teléfono de gama media tiene muchas opciones. Es más mi viejo Huawei P8 Lite (que murió hace poco) de la misma época también tiene el modo profesional mejor que varias teléfonos actuales.
CarlosAMG
Por eso todo app de camara de cualquier fabricante deberia tener modo profesional o manual. Por desgracia dos de los tres "grandes"(Google y Apple) no son muy fans del mismo y siempre se lo "olvidan"
mussgo182
Para esos detalles el RAW es mi salvación, lo malo es que de forma nativa casi ningún equipo de gama media lo soporta, sólo en Motorola he visto que hasta equipos de gama baja como el G7 Play soportan RAW...
Ojalá más fabricantes adoptaran ese formato sin tener que ir a la gama alta.
soy_un_tambor
Entonces no es tan inteligente.
royendershade
Pero no hay modo manual en los iphone?
Usuario desactivado
Es "inteligente" pero si no te puedes comunicar con esa "inteligencia"...
escai
A ver, la cosa es clara. Los fabricantes de móviles tienen que elegir:
- Que los móviles hagan siempre las mejores fotos posibles. Metiéndo toda la inteligencia artificial, el posprocesado, etc... para que el usuario solamente tenga que darle a "disparar" y salga todo lo mejor posible.
- Que añadan una función para el 0,5 % de la población que quiere intentar hacer una foto "profesional" con el móvil, para poder despotricar cuando esa foto "profesional" no salga bien.
El móvil es UN MÓVIL. Hace fotos de PM, pero es un móvil. Está pensado para lo que está pensado, para hacer fotos de viajes, fotos para las RRSS, recuerdos, etc...
Si lo que quieres es hacer una foto de FOTOGRAFÍA, jugar con la exposición, diafragma, conseguir colores neutros, etc... ¿qué demonios haces haciendo esa foto con un móvil?
El problema no es la inteligencia que aplican los fabricantes de móviles, sino quizás en la falta de ella en la persona que quiere tomar esa foto con la herramienta equivocada.
jozeico
Esto es como si empiezas a mirar la hora en la báscula de la cocina
azzrock
Dejenme ver si entendí bien... quieren usar un celular para hacer fotos profesionales pero no saben usar las opciones profesionales de los mismos ? (o probablemente ni siquiera las conocen 🤦)