iProfesionaliProfesional

Si el resultado es bueno, irá evolucionando poco a poco su efectividad con el tiempo, por lo que las cámaras duales no serán tan necesarias como ahora
25/06/2018 - 08:11hs

Google trabaja fuerte en la fotografía computacional, que consiste en aplicar los algoritmos a las fotos para alterar su apariencia.

La empresa demostró con el Google Pixel 2 que era innecesario dotar de una cámara a un teléfono para obtener fondos desenfocados en los retratos.

La magia de su software interno de procesado de imagen tiene la responsabilidad. Esta logra captar fotos de ese tipo incluso mejor que algunos teléfonos equipados con cámaras duales.

En el diario digital Android Police han podido constatar que estos algoritmos que usa el Google Pixel 2, o unos muy similares, se están implantando en una futura versión de Google Fotos.

Habrá que ver la efectividad con la que este servicio permite convertir un retrato cualquiera en una foto en la que sólo las personas aparezcan nítidas.

Si el resultado es bueno, irá evolucionando poco a poco su efectividad con el tiempo, por lo que las cámaras duales de los móviles no serán tan necesarias como ahora.

Al menos en el caso de aquellos teléfonos de gama media en los que la segunda cámara sólo cumple la función de alterar la profundidad de campo. Pero no de obtener fotos con zoom.

La creciente potencia de cálculo de los procesadores principales y los procesadores gráficos de los teléfonos unido al desarrollo del software, van a lograr que los componentes de las cámaras sean menos relevantes.

Lograr un buen software de procesado de imágenes como el de Google no es sencillo. El modo HDR+ de los Google Pixel, que logra grandes fotos con poca luz, o el modo de larga exposición del Huawei P20 son posibles contando con un potente equipo de especialistas en fotografía computacional.