Google I/O 2025

Project Astra se vuelve real: la IA más avanzada de Google se integra en Gemini

Google acaba de anunciar Gemini 2.5 Pro, un nuevo modelo de IA que incorpora una nueva versión de Gemini Live que integra algunos elementos del llamado "Project Astra" como el entendimiento de video, el control del dispositivo o la memoria

Gemini Live evoluciona para convertirse en un asistente de IA universal
Gemini Live evoluciona para convertirse en un asistente de IA universalGoogle

La compañía de Mountain View está celebrando su conferencia anual para desarrolladores, un Google I/O 2025 que puedes seguir en directo desde este enlace. A lo largo de este evento, la gran G ha ido presentando algunas novedades importantes relacionadas con la Inteligencia Artificial (IA) y una de las más destacadas es la integración de su IA más avanzada, cuyo nombre en clave es "Project Astra", en su chatbot de IA, Gemini.

Google DeepMind presenta Gemini 2.5 Pro: su modelo de IA más avanzado hasta la fecha

Recientemente, el gigante americano publicó un post en su blog oficial anunciando que Google DeepMind, la división de IA de Google liderada por Demis Hassabis, ha mejorado su modelo de lenguaje, Gemini, para convertirlo en un asistente de inteligencia artificial.

Así, el modelo de IA más avanzado de Google hasta el momento se llama "Gemini 2.5 Pro" y ha sido diseñado para ser lo que la compañía del buscador ha denominado un "modelo del mundo", es decir una inteligencia artificial que es capaz de entender, simular y planificar en función del entorno que te rodea, de la misma forma que lo hace un cerebro humano. Esto es precisamente lo que hasta ahora se conocía como "Project Astra".

Convertir a Gemini en un modelo del mundo es un paso crítico para desarrollar un nuevo tipo de IA más general y útil: un asistente de IA universal. Una IA que sea inteligente, que entienda el contexto en el que estás, y que pueda planificar y actuar en tu nombre, en cualquier dispositivo.

Actualmente, Gemini ya demuestra capacidades notables en áreas como el razonamiento, la física intuitiva y la robótica, pero ahora, tras años de investigación en IA, el chatbot de la gran G se ha actualizado con mejoras como la computación cuántica o el descubrimiento de algoritmos.

Pero eso no es todo, ya que Google ha confirmado que también está integrando estas nuevas tecnologías en funciones útiles para el usuario como Gemini Live, la modalidad de uso conversacional de su chatbot de IA. En concreto, Gemini Live incorpora algunos elementos del denominado "Project Astra" como, por ejemplo, el entendimiento de video, el control del dispositivo (como las capturas de pantalla) o la memoria.

Desde la gran G han explicado que esta versión de Gemini Live "más inteligente" ya está siendo testada y que llegará próximamente a un conjunto amplio de dispositivos, entre los cuales se encuentran las gafas inteligentes.

Asimismo, paralelamente, Google también ha desarrollado una tecnología llamada "Proyect Mariner", la cual fue lanzada el paso mes de diciembre y permite que los agentes de IA realicen hasta 10 tareas de manera simultánea como, por ejemplo, buscar información, comprar cosas y hacer reservas al mismo tiempo. Igual que en el caso anterior, este nuevo sistema de IA ya está siendo probado en navegadores web y se integrará, muy pronto, en otros servicios de Google.

"Proyect Mariner" ya está disponible para los usuarios de Google AI Ultra, su suscripción con IA más cara hasta la fecha, en los Estados Unidos y, de momento, no sabemos cuando llegará a Europa.

Por último, debemos destacar que Google ha recalcado que su objetivo final es crear una IA avanzada que entienda el contexto del usuario y actúe en su beneficio, ayudándole a mejorar su productividad y a hacerle la vida más fácil.