Cuando tomes buenas fotos, agradécele al algoritmo de tu celular
ActualidadInternacionalesTecnología

Cuando tomes buenas fotos, agradécele al algoritmo de tu celular

Hace poco, gigantes de la tecnología como Apple y Samsung presumían el número de megapíxeles que tenían las cámaras de sus teléfonos inteligentes para hacer que las fotos fueran más nítidas. Actualmente, todos los fabricantes de dispositivos se están enfocando en los algoritmos, la inteligencia artificial y los sensores especiales que en conjunto hacen que nuestras fotografías se vean más impresionantes.

Eso significa que nuestros celulares están esforzándose en hacer que las imágenes se vean bien sin que el usuario tenga que hacer el más mínimo esfuerzo.

El martes, Google mostró su intento más reciente para hacer que las cámaras sean más inteligentes. Develó el Pixel 4 y el Pixel 4 XL, nuevas versiones de su popular teléfono inteligente, que tienen dos tamaños de pantalla distintos. Aunque los dispositivos incluyen nuevas funciones de hardware —como un lente adicional en la cámara y un detector de rostros con infrarrojo para desbloquear el celular— Google enfatizó el uso de la fotografía computacional de los celulares, que procesa las imágenes automáticamente para que se vean más profesionales.

Entre las nuevas características de Pixel 4 se encuentra una modalidad para filmar el cielo nocturno y capturar imágenes de las estrellas. Además, con el lente adicional, Google mejoró una función de software llamada Super Res Zoom, que permite que los usuarios hagan acercamientos de las imágenes sin perder detalles.

Apple también subrayó la fotografía computacional el mes pasado cuando introdujo tres nuevos iPhones. Una función que aún está por lanzarse, Deep Fusion, procesará las imágenes de manera extremadamente detallada.

¿Cuál es el concepto general? Cuando tomes una fotografía digital, en realidad no estarás captando una imagen.

“La mayoría de las fotos que se toman actualmente no se basan en capturar una imagen apretando un botón”, dijo Ren Ng, profesor de Informática en la Universidad de California, campus Berkeley. “Ahora se trata de una serie de imágenes y el celular procesa todos esos datos para formar una fotografía final”.

La fotografía computacional ha existido durante años. Una de las primeras formas fue el HDR, o alto rango dinámico, que consistía en tomar varias fotografías con distintos grados de exposición y mezclar las mejores partes para obtener una imagen óptima.

A lo largo de los últimos años, la fotografía computacional más sofisticada ha mejorado rápidamente las fotografías que tomamos con nuestros celulares.

Google me ofreció una vista previa de sus celulares Pixel la semana pasada. Esto es lo que nos dijeron sobre el programa que hace funcionar las cámaras de nuestros celulares y qué podemos esperar.

FOTOS ASTRONÓMICAS

El año pasado, Google presentó Night Sight, que hacía que las fotografías tomadas con poca luz parecieran haber sido tomadas en condiciones normales, sin flash. La técnica aprovechaba una serie de fotografías con exposiciones cortas y las unía en una sola imagen.

Con el Pixel 4, Google está aplicando una técnica similar para fotografías del cielo nocturno. Para las fotografías astronómicas, la cámara detecta cuándo hay mucha oscuridad y toma una serie de imágenes con exposiciones extralargas con el fin de capturar más luz. El resultado es algo que antes solo se lograba con cámaras de gran tamaño y lentes voluminosos, dijo Google.

Los nuevos iPhones de Apple también presentaron un modo para capturar fotografías con poca luz, el cual emplea un método similar. En cuanto la cámara detecta que un entorno está muy oscuro, automáticamente captura varias fotografías y las une a la vez que ajusta los colores y el contraste.

UN MEJOR MODO RETRATO

Hace algunos años, los fabricantes de celulares como Apple, Samsung y Huawei presentaron cámaras que contaban con el modo retrato, pero que hacía más nítida la imagen del primer plano mientras desenfocaba el fondo, también conocido como efecto “bokeh”. La mayoría de los fabricantes de celulares usaban dos lentes que funcionaban en conjunto para crear el efecto.

Hace dos años, con el Pixel 2, Google logró el mismo efecto con un solo lente. Su método en gran parte dependía del aprendizaje automático, las computadoras que analizan millones de imágenes para reconocer lo que es importante en una fotografía. Pixel después hizo predicciones sobre las partes de la foto que debían ser nítidas y creó una máscara. Un sensor especial dentro de la cámara, llamado autoenfoque dual-pixel, ayudaba a analizar la distancia entre los objetos y la cámara para hacer que el desenfoque luciera realista.

Con el Pixel 4, dijo Google, ha mejorado la habilidad de la cámara de capturar imágenes en el modo retrato. El segundo lente permitirá que la cámara capture más información sobre la profundidad, lo cual permite que la cámara capture objetos en el modo retrato a mayores distancias.

UN ACERCAMIENTO DE MAYOR CALIDAD

En el pasado, los acercamientos con las cámaras digitales prácticamente se evitaban porque la imagen invariablemente se veía muy pixelada y el más mínimo movimiento de la mano creaba un desenfoque. Google usó el software para abordar el problema el año pasado con el Pixel 3 y una función que llama Super Res Zoom.

La técnica aprovecha el movimiento natural de la mano para capturar una serie de fotografías en varias posiciones. Combinando cada una de las fotos ligeramente distintas, el programa de la cámara compone una fotografía que agrega detalles que no se verían con un acercamiento digital normal.

Los nuevos lentes del Pixel 4 aumentan la capacidad del Super Res Zoom ajustando el acercamiento, algo similar a la manera en que un lente de acercamiento funciona en una cámara cinematográfica. En otras palabras, ahora la cámara aprovechará la función del software y el lente óptico para hacer un mayor acercamiento sin perder los detalles.

¿QUÉ MÁS PODEMOS ESPERAR?

La fotografía computacional es todo un campo de estudio en la informática. Ng, el profesor de Berkeley, imparte cursos al respecto. Dijo que él y sus estudiantes estaban investigando nuevas técnicas, como la capacidad de aplicar los efectos del modo retrato a los videos.

Digamos, por ejemplo, que dos personas en un video están conversando, y quieres que la cámara automáticamente enfoque a quien está hablando. Una cámara de video generalmente no puede saber cómo hacerlo porque no puede predecir el futuro. Pero en la fotografía computacional, una cámara podría grabar todo el contenido, usar la inteligencia artificial para determinar qué persona está hablando y posteriormente aplicar los efectos de enfoque automático. El video que obtendrías cambiaría el enfoque entre las dos personas mientras cada una toma su turno para hablar.

“Ese es un ejemplo de las funciones completamente nuevas que están surgiendo en la investigación y que podrían cambiar por completo lo que creemos que es posible”, comentó Ng.

c. 2019 The New York Times Company

Subscríbete al ABC del Día