Cómo un algoritmo de Google promete acabar con el principal problema de las cámaras gran angular en móviles

Cómo un algoritmo de Google promete acabar con el principal problema de las cámaras gran angular en móviles

Cuando analizamos el Google Pixel 3 a finales del año pasado, una de las muchas sorpresas que nos llevamos al probar el dispositivo fue la capacidad de Google de paliar casi por completo uno de los defectos inherentes del sensor fotográfico secundario que el terminal integra en su parte frontal, como lo es la distorsión de bordes debido a la naturaleza de este tipo de cámaras gran angular.

Del mismo modo que otros fabricantes, Google había optado por introducir un software dedicado a reducir la distorsión de bordes y generar así capturas más naturales. Pero mucho me temo que la compañía no pretende detenerse ahí, y ahora un grupo de investigadores han ideado un algoritmo que promete eliminar por completo las distorsiones que aparecen en aquellas fotografías capturadas por sensores gran angular.

Tal y como se especifica en el informe elaborado por los investigadores de Google junto al MIT, las cámaras gran angular ofrecen la posibilidad de capturar más información de una misma escena o realizar retratos grupales sin dejar a nadie fuera de la foto. Pero pese a que el uso de este tipo de sensores continúa en auge, sobre todo en los sistemas fotográficos móviles, no se parece haber trabajado lo suficiente aún en reducir las distorsiones de perspectiva que introducen estas cámaras, y que se traducen en rostros estirados o comprimidos y, en definitiva, diferentes a cómo son realmente.

Para solucionar este problema, este grupo de investigadores formado por los googlers YiChang Shih, Wei-Sheng Lai y Chia-Kai Liang ha ideado un algoritmo que, tomando como base un retrato, es posible corregir con eficacia la distorsión en los rostros, todo ello sin introducir artefactos en el fondo de la fotografía, un problema recurrente en otro tipo de soluciones que han intentado acabar con este problema.

Foto gran angular con correccion de Google

Foto con el modo de corrección de distorsión desactivado (a la izquierda) y activado (a la derecha)

El algoritmo se basa en una "malla de distorsión sensible al contenido", de modo que sea posible aplicar las correciones solo a la parte de la imagen donde se encuentran los rostros, a la vez que se preserva una transición suave entre estos y el resto de elementos de la fotografía. Los investigadores aseguran que su solución es efectiva para fotos con grupos numerosos de personas y que los resultados son prometedores en campos de visión de entre 70 y 120º.

También se ha especificado que el funcionamiento se lleva a cabo de manera automática, y opera de manera interactiva en plataformas móviles pues es eficiente en términos de uso de memoria, CPU y GPU, y en un dispositivo con cámara de 12 megapíxeles y procesador moderno, el proceso se lleva cabo en un lapso de tiempo cercano a 920 milisegundos.

Viendo los avances logrados por los investigadores, y la eficiencia del sistema a la hora de aplicar la corrección en las imágenes --según la documentación oficial, normalmente la corrección se lleva a cabo antes incluso de que la propia imagen sea visible para el usuario--, no es de extrañar que Google haga de este sistema uno de los atractivos de los futuros modelos de la serie Pixel, sobre todo ahora que ya tenemos algunos datos sobre el Pixel 4 y su sistema de cámara múltiple.

Para estar siempre al día con lo último en tecnología, suscríbete a nuestro canal oficial y verificado de Andro4all en WhatsApp.

Para ti
Queremos saber tu opinión. ¡Comenta!