Pregúntale lo que quieras a Files sobre tus PDF: Gemini aterriza en la app
La última versión de Files incorpora la inteligencia artificial de Google para análisis de documentos

La aplicación Files by Google acaba de recibir una actualización significativa que integra las capacidades avanzadas de Gemini en su sistema. Esta nueva función, revelada por el experto Mishaal Rahman y que ya está en proceso de despliegue, permitirá a los usuarios realizar consultas directas sobre sus documentos PDF, aunque requiere una suscripción a Gemini Advanced.
Según reporta The Verge, la funcionalidad se activa de manera intuitiva: al invocar a Gemini mientras se visualiza un PDF, aparece automáticamente el botón "Ask about this PDF". Esta integración replica la experiencia de ChatGPT con documentos PDF, llevando la interacción con archivos a un nuevo nivel dentro del ecosistema de Google.
La IA de Google revoluciona la gestión documental
La nueva característica forma parte de una estrategia más amplia de Google para mejorar la interacción con diferentes tipos de contenido. Mientras que algunas funciones de búsqueda siguen evolucionando, Gemini ya puede analizar contenido contextual en diversas formas, incluyendo páginas web y videos de YouTube.
Para maximizar el potencial de esta tecnología, los usuarios pueden recurrir a recursos especializados de prompts que mejoran la calidad de las interacciones. La versatilidad de Gemini se extiende más allá de los formatos compatibles, ofreciendo la capacidad de analizar capturas de pantalla para aquellas aplicaciones que aún no cuentan con soporte directo.
La implementación de esta función representa un avance significativo en la forma en que interactuamos con nuestros documentos. El sistema está diseñado para ser intuitivo, permitiendo consultas naturales sobre el contenido de los PDF, similar a como lo haríamos con un asistente humano que hubiera leído el documento.
Una característica destacable es la flexibilidad del sistema: cuando Gemini encuentra una aplicación o tipo de archivo que no tiene soporte contextual directo, ofrece automáticamente analizar la pantalla mediante una captura, asegurando que los usuarios siempre tengan una forma de obtener asistencia, independientemente del contenido que estén visualizando.