La IA toma el control: filtrada una función de Gemini capaz de manejar tu teléfono por ti
Google prueba un modo de pensamiento profundo y un agente que controla el móvil para Gemini Live, aunque las cadenas del código avisan de que podrían no salir del laboratorio
Google está probando cuatro funciones experimentales para Gemini Live en Android que incluyen un modo de pensamiento pausado, memoria multimodal y un agente capaz de controlar el teléfono sin que toques la pantalla. La noticia nos llega desde 9to5Google, que ha descompilado la versión beta 17.2 de la app de Google subida a Play Store. El código interno advierte que estas capacidades podrían no llegar nunca al público.
El medio ha encontrado referencias a Live Thinking Mode, Live Experimental Features, UI Control y Deep Research, cuatro funciones de tipo Labs sin anuncio oficial ni calendario de despliegue. Aprovechamos para recordar que leer el código de una app no hace que la información se oficialice, así que conviene tomarse la noticia con cierto escepticismo.
Del sprint al maratón
Lo primero que llama la atención es que Live Thinking Mode promete "tomarse tiempo para pensar", lo que implica que Gemini Live dejará atrás Gemini 2.5 Flash para adoptar Gemini 3. El asistente sacrificará velocidad de respuesta a cambio de razonamientos más complejos, similar a lo que DeepThink ya hace en el chat de escritorio. ¿Merece la pena esperar tres segundos más por una respuesta mejor? Dependerá del tipo de consulta.
Live Experimental Features agrupa memoria multimodal, cancelación avanzada de ruido ambiental, respuestas cuando detecta estímulos visuales y resultados personalizados basados en las apps de Google. Estas capacidades ya existen en Gemini 3 Flash y Pro para el modo de chat, aunque aplicadas a Gemini Live suponen saltar de un asistente rápido a uno que recuerda y entiende lo que ve.
UI Control tiene la descripción literal Agent controls phone to complete tasks, lo que significa que Gemini podría ejecutar acciones directamente en el sistema operativo: abrir apps, navegar por menús, completar formularios. El medio relaciona esto con la llegada esperada de Gemini Agent a Android como parte de Computer Use, la capacidad que permite a la IA interactuar con interfaces gráficas igual que lo haría una persona.
Deep Research se describe únicamente como "delegar tareas de investigación complejas", pero ni el código ni el artículo aclaran en qué se diferenciará del modo que ya existe en el chat. La función aparece sin más contexto técnico que esa frase genérica.
Estas funciones siguen la lógica de Labs que Google introdujo con Gemini 3 Pro en noviembre. Las cadenas de texto localizadas hacen referencia a "cutting-edge features" y "Personal Intelligence", terminología que, al menos en el momento, no especifica cómo funcionarán estas capacidades ni qué rendimiento ofrecerán. A nivel interno
No hay fechas de despliegue, ni confirmación de mercados, ni detalles sobre si requerirán suscripción a Gemini Advanced. Tampoco se ha aclarado si el cambio a Gemini 3 será automático para todos los usuarios de Gemini Live o si quedará limitado a quienes activen manualmente las funciones experimentales. El código está ahí, pero todo lo que tenga que ver con él está en el aire.