Close Button

Google ha creado una estructura con decenas de cámaras y cientos de luces LED para desarrollar una nueva función de cámara para los Pixel.

El Pixel 5 no está entre los 10 móviles con mejor cámara, según DxOMark

Con los Pixel 5 y Pixel 4a (5G), Google introdujo una nueva función en la cámara llamada “iluminación de retrato”, que permitía a los usuarios modificar de forma virtual el origen de la luz y la forma de incidir en el rostro del sujeto fotografiado, sin necesidad de una fuente de luz real.

Y como ya es habitual con la mayoría de funciones de cámara de los Google Pixel, esta característica está respaldada por sistemas de aprendizaje de máquina e inteligencia artificial que han conllevado horas de trabajo. Tanto es así, que la propia compañía ha querido explicar cómo fue el proceso de entrenamiento y desarrollo de esta llamativa función, para la cual se construyó una impresionante estructura formaa por cientos de luces led y varias decenas de cámaras.

Estructura de Google para entrenar la cámara de los Pixel

Así es la estructura creada por Google para entrenar la cámara de los Pixel.

¿Qué hay detrás de la “iluminación de retrato” de la cámara de los Pixel?

Normalmente, los fotógrafos profesionales utilizan luces de estudio para modificar el estilo y la incidencia de la luz en el rostro del sujeto a capturar. Lógicamente, Google no puede pretender que todas las personas que usan un Pixel para hacer un retrato vayan a usar equipamiento de este tipo, y por ello decidió inventarse una solución que no requiere de accesorios de ningún tipo. Todo está en el software de la cámara.

Como explican en su blog oficial destinado a la investigación de Machine Learning, para poder entrenar este sistema, se requerían de cientos de pruebas en forma de imágenes con distintos tipos de iluminación, de modo que el sistema pudiera aprender de la forma en que la luz incide sobre el rostro dependiendo de la posición de la fuente de iluminación.

Para ello, se construyó una estructura formada por 64 cámaras, cada una capturando una perspectiva de la escena diferente, y 331 luces LED programables individualmente. Posteriormente, un total de 70 personas participaron en el proceso de entrenamiento, posando para las cámaras. Así, dicho sistema podría entender cómo la luz puede modificar el aspecto de la imagen aún con el sujeto estando situado en la misma posición.

Decenas de cámaras y cientos de luces LED: así entrena Google la cámara del Pixel

Una vez se habían obtenido pruebas suficientes, comenzó el proceso de aprendizaje con el objetivo de desarrollar un algoritmo capaz de simular la iluminación desde distintas fuentes en cualquier imagen con un sujeto humano, teniendo en cuenta la posición del rostro de forma que el resultado sea lo más natural posible.

En ese sentido, se desarrollaron otros modelos basados en aprendizaje automático, de forma que la función tuviese en cuenta los rasgos faciales únicos de cada sujeto, y cómo la luz incide sobre ellos. En este caso, se ha utilizado un “mapa de visibilidad de la luz” con el que se entrenaron los algoritmos en base a teorías físicas reales.

Decenas de cámaras y cientos de luces LED: así entrena Google la cámara del Pixel

Y lo cierto es que el resultado es más que atractivo. Tanto, que en los móviles a partir del Pixel 4, esta edición se aplica por defecto sobre los retratos para ofrecer la iluminación más adecuada en cada caso.

Temas relacionados: Fotografía y edición en Android, Google Pixel

Comentarios
Facebook
Twitter
Whatsapp
Pinterest
Telegram
COMPARTIR