Estos son los anuncios más importantes del Google I/O 2025: omnipresente la IA, Android XR y mucho más
Este año y separando más que nunca su hardware del software, Google ha querido centrar su I/O 2025 en los servicios, la IA y el avance de Android XR con las nuevas realidades aumentadas

En un año en el que Google ha querido separar más que nunca los caminos de su hardware y software, lo cierto es que su evento más importante del año, el Google I/O 2025 ha llegado con todas las novedades que esperábamos para su ecosistema de servicios, con la inteligencia artificial (IA) en general y Gemini en particular como grandes protagonistas, así como también la realidad extendida y Android XR en un lugar prominente.
Todo ello después de un Android Show: I/O edition en el que ya habíamos disfrutado de todas las mejoras que Google tiene preparadas para Android 16, Wear OS y Android Auto en las próximas semanas y meses, que son muchas y se verán incrementadas con tamaño despliegue de tecnologías que hemos disfrutado desde el Shoreline Amphitheatre de Mountain View y que probaremos más pronto que tarde en nuestros dispositivos.

Toca pues analizar todo lo que Google nos ha estado enseñando en su keynote principal dentro del I/O 2025, un evento más destinado a desarrolladores y entusiastas pero en el que siempre nos sorprenden con las principales novedades que están por llegar a todo su ecosistema de servicios, incluyendo Gmail, Maps, One o las Búsquedas, entre otros, pero ahora siempre con Gemini como gran estrella y aliciente.
No será fácil eso sí seguir un evento con tanta información, así que nosotros aquí en Andro4all vamos a seleccionar para vosotros lo más interesante del I/O 2025 y a resumirlo para que no tengáis que molestaros en buscar todo el detalle de unas informaciones a veces incluso demasiado abstractas.
¡Acompañadnos más abajo, que ahora os contamos de primera mano todo lo nuevo de Google!
Google I/O 2025, vídeo streaming de la keynote principal de Google
Como siempre, para todos aquellos que tengáis tiempo de echar un vistazo a todo lo que Google ha querido presentar en su evento anual más importante, aquí tenéis un enlace al vídeo streaming completo de la keynote principal del Google I/O 2025.
- Estas son todas las novedades de Google en su evento I/O 2025
- Gemini 2.5 es ahora más inteligente, más seguro y un asistente mejor
- Nuevas suscripciones, con Gemini extendiéndose a todo tipo de dispositivos
- Project Astra: la IA más avanzada de Google DeepMind se integra en Gemini 2.5 Pro
- Google es ambiciosa con Flow: quiere que Hollywood use sus herramientas profesionales de IA para generar vídeo
- Google Beam: así es la primera plataforma de videollamadas en 3D
- Android XR se viste de largo para "subtitular tu mundo"
Estas son todas las novedades de Google en su evento I/O 2025
Gemini 2.5 es ahora más inteligente, más seguro y un asistente mejor

Google ha querido presumir de todo el potencial de su nueva versión 2.5 de Gemini, que tanto en versiones Pro como Flash crece para continuar su camino hacia la punta de lanza del sector. De hecho, es que las conversaciones serán ahora más naturales y expresivas con el chatbot, pues Gemini Live incluye previsualizaciones con entrada audiovisual y salida de audio nativa.
Gemini es ahora capaz de adaptarse a lo que quieres utilizando el tono o el estilo de voz que precises, siendo capaz también de integrarse con servicios de terceros y de utilizar herramientas para buscar información como tú mismo lo harías, pudiendo hacer incluso otras tareas por nosotros.
Dice Google que están trabajando en un Diálogo Afectivo con el que Gemini será capaz de detectar emociones cuando hablamos, pudiendo además ignorar ruido o conversaciones secundarias que estén de fondo con la función de Audio Proactivo. La usabilidad se ha ampliado a más de 24 idiomas, con la posibilidad de utilizar múltiples voces de forma simultánea e incluso pudiendo capturar matices de nuestra expresión como los susurros o similares.
También hay mejoras centradas en la seguridad de Gemini, protegiéndose contra amenazas de inyección de prompt incluso en caso de intentos indirectos, evitando instrucciones maliciosas ocultas en los datos que pueda procesar la IA. Presume el gigante de Mountain View de que Gemini 2.5 es el modelo más seguro frente a estos ataques de todo el mercado, incorporando también otras novedades para desarrolladores que facilitarán la depuración de errores o la optimización de costes y retrasos.
Gemini nos permite con Deep Research añadir nuestras propias fuentes de información en PDF o imágenes, combinándolos con datos públicos, para ampliar las formas de uso del asistente. También las opciones de Canvas hacen posible dibujar o crear cualquier cosa que necesitemos, incluyendo infografías, audios, código, etcétera.
Por supuesto no nos olvidamos, pues los cuestionarios interactivos suponen el último gran añadido de Google, que nos anuncia la posibilidad de estudiar con Gemini en base a juegos de preguntas basados en nuestras notas y la información completa, con feedback instantáneo y repasos donde más fallos podamos cometer.
Google Gemini mejora: las novedades anunciadas en el I/O 2025
Nuevas suscripciones, con Gemini extendiéndose a todo tipo de dispositivos

Gemini Live en Android Auto
Otro de los puntos más esperado era ver cómo Gemini iniciaba su expansión por todo tipo de productos, dispositivos e incluso vehículos, así que bueno es confirmar cómo el asistente de IA de Google estará disponible muy pronto en los coches con Android Auto y también en los sistemas Android Automotive de varios fabricantes, incluyendo a Renault, Honda o Volvo, entre otros.
También podremos disfrutar de Gemini en nuestras muñecas, pues los relojes con Wear OS darán la bienvenida al chatbot inteligente de Google en los próximos meses, ampliando posibilidades de interacción y funcionalidad sin necesidad de sacar del bolsillo un enorme smartphone como los actuales.
Los televisores con Google TV incluirán Gemini en los próximos meses para que podamos pedirle recomendaciones personalizadas o vídeos de YouTube sobre cualquier cosa, además de un aterrizaje en Android XR que será mucho más profundo para dotar del máximo sentido y usabilidad a las gafas de realidad extendida que llegarán próximamente, tanto de Samsung como de Sony.
En cuanto a los nuevos planes de suscripción premium que Google ha anunciado, se presentan Google AI Pro y Google AI Ultra con diferente enfoque y muchas más posibilidades. Por un lado, Pro amplía el paquete de productos de IA de Google incluyendo acceso completo a Gemini, mientras que Ultra costará 249,99 dólares con un 'acceso VIP' a todos los servicios de IA que se desarrollarán en Mountain View, incluyendo los últimos modelos más potentes, productos experimentales y un prometedor Modo Agente capaz de orquestar tareas complejas.
Project Astra: la IA más avanzada de Google DeepMind se integra en Gemini 2.5 Pro
Muy orgullosos de lo que están consiguiendo, desde Google anunciaban que Project Astra se integra en Gemini 2.5 Pro para convertir a la IA de Google en un modelo capaz de entender, simular y planificar en función del entorno, con capacidades contextuales ampliadas en los que ellos denominan "un modelo de mundo".
Project Astra avanza no sólo en razonamiento, física o programación, sino ahora también en computación cuántica y descubrimiento de algoritmos, algo que estará disponible incluso en el modelo más conversación de Gemini Live, que podrá entender y explicar vídeos, controlar dispositivos o buscar información en memoria, por poner varios ejemplos y casos de uso.
Con estos avances y los de Project Mariner los agentes de IA de Google podrán ejecutar hasta 10 tareas complejas simultáneas, como buscar información, comprar algo o reservar en un restaurante al mismo tiempo. Esto es algo que ya pueden probar los suscriptores de Google AI Ultra al menos en los Estados Unidos y en idioma inglés.
Project Astra se vuelve real: la IA más avanzada de Google se integra en Gemini
Google es ambiciosa con Flow: quiere que Hollywood use sus herramientas profesionales de IA para generar vídeo
Ampliando las capacidades generativas de la IA, parece que en Google tenían preparadas muchas sorpresas relacionadas con el vídeo. No en vano, Veo era protagonista del primer vídeo con el se abría la keynote, y las herramientas profesionales de Google Flow se ponen a disposición incluso de la industria del cine desde un primer momento.
Se trata de una plataforma profesional diseñada para creativos y con la que podremos acceder al generador de vídeos de última generación de Google, que destaca sin duda por la fidelidad que tienen los vídeos creados a las instrucciones que indicamos desde el prompt.
Veo maneja las físicas a las mil maravillas y obtiene resultados realmente realistas, pudiendo ahora incorporar nuestros propios elementos a la hora de crear personajes o dar indicaciones. Se pueden integrar elementos en diferentes clips o escenas, manteniendo la consistencia y completando la edición con herramientas muy avanzadas: controles de cámara para dominar el escenario y los ángulos, gestión de activos para organizar los elementos, un scenebuilder para editar y extender las tomas ya existentes con mejores transiciones y la galería Flow TV, que nos ofrecerá ejemplos y técnicas para aprender.
Flow también se integra desde hoy mismo en los planes Google AI Pro y Google AI Ultra para los Estados Unidos, con las funciones clave en Pro que se limita a 100 vídeos generados al mes, mientras que Ultra dispone de acceso completo con Veo 3 e incluso opciones de generación nativa de audio, sonido ambiental y diálogos.
Google anuncia Flow, su nueva herramienta de IA para generar vídeo de nivel profesional
Google Beam: así es la primera plataforma de videollamadas en 3D
Heredera del Project Starline de hace unos años, lo cierto es que la plataforma Google Beam llega para convertirse en el futuro de Google Meet dentro del sector de las llamadas de vídeo, que ahora recibe 'magia' para que puedas sentir a tu interlocutor más cerca que nunca aún estando a miles de kilómetros de distancia.
Beam utiliza cómo no un modelo de IA basado en técnicas de profundidad y vídeo volumétrico que, de un modo casi asombroso, puede transformar los vídeos en 2D en experiencias tridimensionales completas y muy realistas.
La idea es obtener conversaciones que se sientan como si estuviéramos físicamente en una misma habitación, generando una sensación de dimensión y profundidad que nos permiten mantener el contacto visual, captar expresiones más sutiles y generar un entorno de mayor confianza y naturalidad en nuestras videollamadas.
Todo ello con la opción a futuro de una traducción de idiomas en tiempo real que ya podrá disfrutarse en Google Meet, con traducciones de voz generadas por IA que mantienen la voz, el tono y las expresiones para que nada cambie y simplemente se eliminen las barreras idiomáticas.
Los primeros dispositivos con Google Beam se destinarán al entorno más business, estando por ahora en la mesa de diseño en una colaboración entre HP y Google, que a finales de este año comenzarán a probarlos en clientes seleccionados.
Google lanza Beam, su servicio de videollamadas en 3D
Android XR se viste de largo para "subtitular tu mundo"

Quizás a modo de One More Thing si seguimos el tradicional libreto de Cupertino, lo cierto es que Google no sólo ha querido hablarnos de IA sino también de Android XR, su primera plataforma nacida en la era de Gemini y que dará vida a cascos como el Project Moohan de Samsung o a las gafas de realidad aumentada del tipo de las que Meta ha diseñado junto a Ray-Ban.
Lo primero y más importante es que por fin tenemos una fecha para el casco de realidad mixta de Samsung, que se estrenará oficialmente a finales de este mismo año 2025. En su caso hay mejoras derivadas del procesado contextual de Gemini, pues las gafas podrán entender gracias a la IA de Google todo lo que estamos viendo, ofreciéndonos la posibilidad de actuar anticipándose a nuestras necesidades.
El asistente de IA liberará nuestras manos y subtitulará nuestro mundo, pudiendo pedirle cualquier cosa como sacar una foto, mostrarnos el camino a algún sitio o darnos información en tiempo real sobre lo que nos rodea. La idea de hecho es que las gafas no sustituyan al móvil sino que lo complementen evitando que tengamos que sacarlo del bolsillo en la mayoría de situaciones.
Cualquier tipo de gafas inteligentes con Android XR podrá disponer de una pantalla opcional integrada, comprensión del entorno y memoria, por lo que podrán recordar lo más importante de lo que hemos visto y hacer resúmenes, enviar mensajes, concertar citas, tomar fotografías y mucho más. No en vano, las traducciones en tiempo real han sido lo más aplaudido y probablemente también la función más útil de este tipo de productos.
Por supuesto, habrá colaboraciones con marcas de gafas de renombre y mucha solera del tipo de Gentle Monster o Warby Parker, así como también ordenadores espaciales como el Moohan de Samsung, del que por ahora continuamos sin conocer su nombre definitivo y, mucho menos, su seguramente elevado precio... ¡Habrá que armarse con otro poco de paciencia!