La fotografía computacional de Apple apunta al realismo
Una controversia con las cámaras de los teléfonos de Samsung ha renovado la conversación en torno a la fotografía computacional y destaca la diferencia entre esta y el enfoque de Apple en iOS.
No es un gran secreto que Apple se basa en algoritmos avanzados y fotografía computacional para casi todas las funciones de la cámara de su iPhone. Sin embargo, los usuarios comienzan a preguntarse dónde trazar la línea entre estos algoritmos y algo más intrusivo, como la alteración de píxeles posterior a la captura.
En este artículo, examinaremos la controversia en torno a las fotos de la luna de Samsung, cómo la empresa aborda la fotografía computacional y qué significa esto para Apple y sus competidores en el futuro.
Fotografía computacional
La fotografía computacional no es un concepto nuevo. Se hizo necesario porque la gente quería más rendimiento de las diminutas cámaras de sus teléfonos inteligentes.
La idea básica es que las computadoras pueden realizar miles de millones de operaciones en un momento, como después de presionar el obturador de una cámara, para reemplazar la necesidad de ediciones básicas o aplicar correcciones más avanzadas. Cuanto más podamos programar la computadora para que haga después de presionar el obturador, mejor será la foto.
Esto comenzó con el sistema de cámara dual de Apple en el iPhone 7. Otras innovaciones fotográficas anteriores, como Live Photos, podrían considerarse fotografía computacional, pero el Modo Retrato fue el punto de inflexión para Apple.
Apple introdujo el Modo Retrato en 2016, que tomaba datos de profundidad de las dos cámaras del iPhone 7 Plus para crear un bokeh artificial. La compañía afirmó que fue posible gracias al sistema de cámara dual y al procesador de señal de imagen avanzado, que realizó 100 mil millones de operaciones por foto.
No hace falta decir que esto no fue perfecto, pero fue un paso hacia el futuro de la fotografía. La tecnología de la cámara continuaría adaptándose al factor de forma del teléfono inteligente, los chips serían más rápidos y los sensores de imagen serían más potentes por pulgada cuadrada.
El modo retrato usa fotografía computacional para separar primer plano
En 2023, no es raro grabar videos borrosos cinematográficamente utilizando motores de computación avanzados con resultados mixtos. La fotografía computacional está en todas partes, desde Photonic Engine hasta Photographic Styles: un algoritmo procesa cada foto tomada con el iPhone. Sí, incluso ProRAW.
Todo esto fue necesario por el deseo de las personas de capturar su vida con el dispositivo que tenían a mano: su iPhone. Las cámaras dedicadas tienen la física de su lado con sensores grandes y lentes gigantes, pero la persona promedio no quiere gastar cientos o miles de dólares en una plataforma dedicada.
Entonces, la fotografía computacional ha intervenido para mejorar lo que pueden hacer los diminutos sensores de los teléfonos inteligentes. Los algoritmos avanzados basados en grandes bases de datos informan al procesador de señales de imagen cómo capturar la imagen ideal, procesar el ruido y exponer un sujeto.
Sin embargo, existe una gran diferencia entre utilizar la fotografía computacional para mejorar las capacidades de la cámara y alterar una imagen en función de datos que el sensor nunca capturó.
Samsung’s moonshot
Para que quede claro: Apple está usando modelos de aprendizaje automático, o”IA, Inteligencia artificial”para aquellos que usan la nueva palabra de moda mal acuñada — para fotografía computacional. Los algoritmos brindan información sobre el control de capturas de imágenes múltiples para producir los mejores resultados o crear perfiles de profundidad de campo.
El procesador de imágenes analiza el tono de la piel, los cielos, las plantas, las mascotas y más para proporcionar la coloración y la exposición adecuadas, no el reemplazo de píxeles. No busca objetos, como la luna, para proporcionar mejoras específicas basadas en información fuera del sensor de la cámara.
Señalamos esto porque quienes debaten sobre las fotos de la luna de Samsung han utilizado la fotografía computacional de Apple como ejemplo de cómo otras empresas realizan estas alteraciones fotográficas. Ese simplemente no es el caso.
Algoritmo de la luna de Samsung en acción. Crédito: u/ibreakphotos en Reddit
Samsung ha documentado cómo los teléfonos Samsung, desde el Galaxy S10, han procesado imágenes mediante el reconocimiento y la modificación de objetos. Scene Optimizer comenzó a reconocer la luna con el Galaxy S21.
Como describe el documento publicado recientemente, la”IA”reconoce la luna a través de los datos aprendidos, y la función del motor de mejora de detalles se aplica para hacer que la foto sea más clara con síntesis de múltiples cuadros y aprendizaje automático.
Básicamente, los dispositivos Samsung reconocerán una luna despejada y luego usarán otras imágenes de alta resolución y datos sobre la luna para sintetizar una mejor salida. El resultado no es una imagen capturada por la cámara del dispositivo, sino algo nuevo y fabricado.
En general, este sistema es inteligente porque la luna se ve igual sin importar desde dónde se vea en la tierra. Lo único que cambia es el color de la luz reflejada en su superficie y la fase de la propia luna. Mejorar la luna en una foto siempre será un cálculo sencillo.
Tanto los dispositivos de Samsung como los de Apple toman una exposición de múltiples fotos para cálculos avanzados. Ambos analizan múltiples imágenes capturadas en busca de la mejor parte de cada una y las fusionan en una imagen superior. Sin embargo, Samsung agrega un paso adicional para objetos reconocidos como la luna, que introduce nuevos datos de otras imágenes lunares de alta resolución para corregir la luna en la imagen capturada final.
Explicación del algoritmo de la luna de Samsung. Crédito: Samsung
Esto no es necesariamente algo malo. Simplemente no es algo que Samsung no haya dejado claro en su publicidad o marketing de productos, lo que puede generar confusión entre los clientes.
El problema de este proceso, y la razón por la que existe un debate, es cómo afecta esto al futuro de la fotografía.
En pocas palabras, la imagen final no representa lo que detectó el sensor y procesó el algoritmo. Representa una versión idealizada de lo que podría ser posible pero no lo es porque el sensor de la cámara y la lente son demasiado pequeños.
La inminente batalla por el realismo
Desde nuestro punto de vista, el principio clave de la fotografía con iPhone siempre ha sido el realismo y la precisión. Si hay un punto medio perfecto en saturación, nitidez y exposición, Apple ha tenido una tendencia cercana al centro durante la última década, incluso si no siempre se ha mantenido perfectamente consistente.
Reconocemos que la fotografía es increíblemente subjetiva, pero parece que la fotografía de Android, es decir, Samsung, se ha alejado del realismo. Una vez más, no es necesariamente una negativa, sino una elección obstinada hecha por Samsung que los clientes deben abordar.
Para el tema de esta discusión, los dispositivos Samsung y Pixel se han alejado lentamente de ese centro de representación realista ideal. Están compitiendo por una mayor saturación, nitidez o una exposición diurna durante la noche.
El ejemplo anterior muestra cómo el Galaxy S22 Ultra favorecía una mayor exposición y saturación, lo que provocaba una pérdida de detalle. Elecciones inocentes y obstinadas, pero el iPhone 13 Pro, en este caso, se va a casa con una foto más detallada que se puede editar más tarde.
Esta diferencia en cómo se capturan las fotos se establece en los algoritmos obstinados que utiliza cada dispositivo. A medida que avanzan estos algoritmos, las futuras decisiones de fotografía podrían conducir a elecciones más obstinadas que no se pueden revertir más adelante.
Por ejemplo, al cambiar la apariencia de la luna usando algoritmos avanzados sin alertar al usuario, esa imagen se modifica para siempre para adaptarse a lo que Samsung cree que es ideal. Claro, si los usuarios saben desactivar la función, podrían hacerlo, pero probablemente no lo harán.
Estamos entusiasmados con el futuro de la fotografía, pero como entusiastas de la fotografía, esperamos que no sea tan invisible. Al igual que el modo de retrato de Apple, Live Photos y otras técnicas de procesamiento, inclúyalo con alternancias obvias. Además, hazlo reversible.
Tocar el obturador en la aplicación de la cámara principal de un dispositivo debería tomar una foto representativa de lo que ve el sensor. Si el usuario quiere más, déjelo elegir agregarlo a través de alternar antes o editar después.
Por ahora, intenta tomar fotos del cielo nocturno solo con tu iPhone y un trípode. Funciona.
Por qué esto es importante
Es importante enfatizar que no hay ningún problema en reemplazar la fea bola brillante en el cielo con una luna adecuada, tampoco hay problema con quitar personas o basura (o basura de personas) de una foto. Sin embargo, debe ser un proceso controlable, conmutable y visible para el usuario.
La fotografía computacional es el futuro, para bien o para mal
A medida que avancen los algoritmos, veremos más imágenes idealizadas y procesadas de los smartphones Android. Los peores infractores quitarán o reemplazarán objetos sin previo aviso.
Apple inevitablemente mejorará sus algoritmos y procesamiento de imágenes en el dispositivo. Pero, basándonos en cómo la compañía ha abordado la fotografía hasta ahora, esperamos que lo haga respetando el deseo de realismo del usuario.
El tribalismo en la comunidad tecnológica siempre ha provocado debates entre los usuarios. Esos han incluido Mac o PC, iPhone o Android, y pronto, fotos reales o ideales.
Esperamos que Apple continúe optando por el realismo y el control del usuario sobre las fotos en el futuro. Darle a una empresa un control total y obstinado sobre lo que el usuario captura en una cámara, hasta alterar las imágenes para que coincidan con un ideal, no parece un futuro del que queramos ser parte.