Google explica Top Shot: cómo un teléfono puede reconocer la foto en la que sales mejor

Google explica Top Shot: cómo un teléfono puede reconocer la foto en la que sales mejor

El Google Pixel 3 es la última apuesta de la Gran G por la gama alta. Los Pixel se caracterizan por marcar las bases de la fotografía computacional, y por demostrar que en ocasiones el software cobra más importancia incluso que los componentes físicos del dispositivo. En concreto, la cámara de estos terminales es considerada como la mejor del mundo en cuanto a fotografía pura --tema aparte es que haya alternativas más o menos completas en funciones--.

La compañía suele acostumbrar a explicar a fondo cómo funcionan los modos de su terminal, a manos de sus ingenieros de software. Li Zhang y Wei Hong nos comentan en el blog de Google cómo funciona Top Shot, la función de los Google Pixel 3 que te permite reconocer la mejor fotografía entre varias tomas, que se realizan incluso antes de que hagas la fotografía.

Así funciona el Top Shot de Google

Google explica Top Shot: cómo un teléfono puede reconocer la foto en la que sales mejor

Uno de los problemas de la fotografía móvil es que, incluso a pesar de las altas velocidades de obturación que encontramos en la gama alta, hay grandes posibilidades de que la fotografía salga mal. Ojos cerrados, una mala expresión... Muchos factores pueden afectar a la fotografía e impedir que hagamos la toma perfecta. Top Shot viene para garantizar que la fotografía saldrá bien siempre, realizando varias tomas para posteriormente seleccionar la idónea.

Cuando realizamos una fotografía Top Shot captura hasta 90 imágenes 1.5 segundos antes y después de que se tome la foto. Tres de esas 90 fotos se almacenan en alta calidad, la original y las alternativas principales. El proceso se realiza en tiempo real, por lo que podríamos pensar que esta función gastará mucha batería y hará trabajar en exceso al procesador. Aquí es donde entra la magia del Pixel, y es que se ayuda del procesador Visual Core para procesar las imágenes, permitiendo que el proceso sea rápido y con poco consumo de energía.

¿Pero cómo sabe si salgo bien o mal?

Google podría traer su operador móvil a Europa

Con IA, como no podía ser de otro modo. La red neuronal de Google utiliza la segmentación de imagen para dividirla en varios parámetros, entre los que se encuentran los ojos, expresiones faciales, atributos más subjetivos... El teléfono sabe cuándo estamos con los ojos cerrados, el nivel de sonrisa que tenemos, si la posición de nuestra cara respecto a la cámara es buena o mala... Cada frame tomado obtiene una puntuación, que se basa en los siguientes parámetros.

  • Puntuación de prominencia del movimiento del sujeto: se utiliza el ISP del procesador para determinar si hay movimiento o no del objeto destacado en la escena.
  • Puntuación de desenfoque de movimiento global: estimado a partir del movimiento de la cámara y el tiempo de exposición. El movimiento de la cámara se calcula a partir de los datos del sensor del giroscopio y OIS (estabilización óptica de imagen).
  • Puntuaciones de “3A”: Se valora cómo han funcionado la exposición automática, el enfoque automático y el balance de blancos automático.

En resumen, Google utiliza inteligencia artificial para saber si salimos bien o mal, y es que su base de datos cuenta con la información necesaria para poder categorizar imágenes y puntuarlas de forma precisa. El modo funciona tanto con rostros como animales o cualquier otro objeto. Si no hay rostro para analizar, top shot se basará en la composición de la escena, movimiento, exposición, nitidez...

Para estar siempre al día con lo último en tecnología, suscríbete a nuestro canal oficial y verificado de Andro4all en WhatsApp.

Para ti
Queremos saber tu opinión. ¡Comenta!