Esto es lo que realmente “ve” el radar Soli del Pixel 4 cuando haces gestos alrededor del móvil

COMPARTIR 0 TWITTEAR

Pixel 4, desbloqueo facial

Google anunció lox Pixel 4 en octubre del año pasado poniendo especial énfasis sobre una de las tecnologías de los teléfonos que más tiempo les había llevado desarrollar: Soli. A través de un radar, sumado a una serie de distintos sensores, Google había sido capaz de dotar al dispositivo de un sistema capaz de identificar e interpretar gestos realizados alrededor del móvil, de modo que éste actuase en consecuencia.

Al analizar el Google Pixel 4 XL deducimos que, pese a su potencial, el sistema Motion Sense basado en la tecnología Soli aún tenía un largo camino por recorrer, sobre todo en términos de funcionalidad. No obstante, en poco tiempo se convirtió en una de las funciones favoritas de un buen número de poseedores de los Pixel 4, principalmente dado que esta misma tecnología era la encargada de habilitar parte del fantástico sistema de desbloqueo facial integrado en los teléfonos de la serie Pixel 4.

Ahora, cuando ya han pasado varios meses desde la presentación del teléfono, y muchos esperan ya la llegada del nuevo Pixel 4a, Google ha querido explicar más a fondo el funcionamiento de la tecnología Soli en una publicación en su blog oficial de inteligencia artificial.

Google explica lo que hay detrás del sistema Motion Sense de los Pixel 4

Pixel 4 XL, parte delantera

En la publicación, Google explica cómo los Pixel 4 son capaces de detectar cuando el usuario acerca la mano al teléfono para cogerlo y encender la pantalla automáticamente, o cuando se pasa la mano de un lado a otro por encima de la pantalla para pasar de canción.

A través de una imagen animada –disponible bajo estas líneas–, se puede ver cómo es la imagen que percibe el sistema de radar Soli cuando se realiza un movimiento. Lógicamente, la imagen es de muy baja calidad y resolución –lo cual, por otro lado, ayuda a que este sistema no suponga ningún tipo de riesgo para la privacidad–. No obstante, Google explica que no es necesario obtener más detalle para poder detectar el movimiento e interpretarlo a través de modelos generados a partir de machine learning.

Google explica que, dependiendo de la distancia del sujeto que realiza el movimiento y el propio radar, la fuerza de la señal recibida por Soli es menor. En las imágenes, la intensidad de la señal se representa con un mayor o menor brillo. Según explican, en las tres imágenes compartidas, la de la izquierda muestra lo que “vería” el radar cuando una persona anda cerca del móvil, la segunda un brazo que se acerca a coger el dispositivo, y la tercera el gesto de un lado a otro utilizado para cambiar de canción.

Otra curiosidad de este sistema es el proceso utilizado por Google para entrenar esta tecnología. Para ello, se creó un modelo de inteligencia artificial utilizando el framework TensorFlow entrenado con millones de gestos realizados por miles de participantes. Aparentemente, gracias a este proceso de aprendizaje automático, Soli es incluso capaz de “filtrar” las interferencias generadas por el propio dispositivo, como por ejemplo las vibraciones o los movimientos producidos por el altavoz del teléfono al reproducir música.

Independientemente de la mayor o menor utilidad de esta tecnología a día de hoy, es sin duda fascinante cómo Google ha logrado miniaturizar y dar vida a una tecnología como Soli después de años en desarrollo, para acabar creando un curioso sistema de control gestual.

Sigue a Andro4all

Archivado en Google, Móviles
COMPARTIR 0 TWITTEAR

Comentarios

Otras webs de Difoosion