Google libera el código de su modo retrato, y puede que esté tramando algo grande

Google libera el código de su modo retrato, y puede que esté tramando algo grande

Google dió un durísimo golpe en la mesa al presentar el primer móvil del mundo que hacía el modo retrato con un solo sensor. Hasta la llegada del Pixel 2, Apple nos convenció de que eran necesarios dos sensores, algo que no era cierto. Google logró no solo igualar, sino superar el propio modo retrato de Apple, valiéndose de la fotografía computacional.

Hoy mismo, nos contaban cómo funcionan sus Motion Photos, y seguimos con buenas noticias de parte de Google. El código de ciertas partes de su modo retrato ya está disponible, una gran noticia para todos aquellos fabricantes que quieran ayudarse del mismo para mejorar las fotografías de sus terminales.

Segmentación semántica de imagen, la clave de Google

Google Pixel 2 y Pixel 2 XL, toda la información y detalles sobre su cámara

El modo retrato "tradicional" funciona con un sensor telefoto que recoge información sobre el fondo, esta información se incluye en la del sensor principal, que recoge la fotografía "normal". Al combinarse, tenemos un desenfoque en el fondo, generalmente, lleno de problemas e imperfecciones. De hecho, si tienes un móvil con doble cámara y modo retrato, observarás que la calidad de la foto disminuye bastante cuando hacemos un retrato, respecto a las fotografías tradicionales, por el uso del segundo sensor.

Google, lleva años entrenando a una IA para que analice las escenas no solo a nivel visual, sino a nivel semántico. El algoritmo de Google es capaz de categorizar las escenas añadiendo etiquetas, por lo que sabe perfectamente distinguir animales, personas, objetos, e incluso detalles finos como el pelo, los labios, o los ojos.

Gran parte de esta información, se recoge en DeepLab-V3+, el modelo de segmentación de imagen que Google ha utilizado en los actuales Pixel. Hoy, tenemos noticias, según su propio blog, de que esta parte del código será liberada, lo que supone una gran noticia... O puede que dos.

Cuando alguien regala algo, es porque tiene algo mejor

Lector de huellas del Pixel 2

Google no es ninguna ONG ni asociación caritativa, y aunque la liberación de DeepLab-V3+ puede suponer que ya tienen bastante avanzado el código que implementarán en el Pixel 3 para el modo retrato. Google "no va a regalar" su mejor baza a los fabricantes, y si ha liberado este modelo de segmentación, seguramente, es porque ya tiene uno mejor preparado.

No hay dudas de que la fotografía computacional es la principal baza de los Google Pixel, y el Pixel 3 no va a ser menos. Si en 2017 quedamos maravillados con el algoritmo del Pixel 2, imagina lo que veremos en su tercer modelo. Quedamos pues, a la espera de información sobre lo que trama Google para su nuevo gama alta, ya que puede ser toda una revolución en el mundo de la fotografía Android.

Para estar siempre al día con lo último en tecnología, suscríbete a nuestro canal oficial y verificado de Andro4all en WhatsApp.

Para ti
Queremos saber tu opinión. ¡Comenta!