Cargando...

Realidad Mixta

Google muestra sus nuevas gafas inteligentes con Android XR por primera vez

Con un diseño discreto, pantalla integrada y Gemini a bordo: así es el prototipo de gafas AR de Google que uno de los representantes de la marca mostró durante una charla TED

Shahram Izadi, principal responsable del área de Android XR en Google, con un prototipo de las primeras gafas de la compañía TED

Google sigue explorando el futuro de la realidad mixta (XR), y acaba de dar una nueva muestra de sus avances. En una demostración durante la reciente conferencia TED en Vancouver, la compañía ha mostrado un prototipo funcional de gafas inteligentes que combinan una pantalla en miniatura con la potencia del asistente de inteligencia artificial Gemini, todo ello bajo el paraguas de su plataforma Android XR.

Aunque desde el portal de noticias Axios aclaran que quizás no sea la primerísima vez que este prototipo ve la luz, la demostración sí sirve para confirmar la dirección en la que trabaja Google, uniéndose a Meta, Apple y otras compañías en la carrera por superponer información digital útil sobre nuestro entorno real.

Así es uno de los primeros prototipos de gafas inteligentes de Google

Las gafas mostradas por Shahram Izadi, responsable de Android XR en Google, tienen una apariencia muy similar a unas gafas convencionales, un factor clave para su posible adopción futura, tal y como ya ha quedado más que comprobado con las gafas inteligentes desarrolladas en colaboración por Meta y Ray-Ban. Durante la demo, se vio cómo las gafas, conectadas al teléfono del usuario, eran capaces de realizar tareas impresionantes en tiempo real gracias a la integración con Gemini:

  • Traducción en vivo: traduciendo una conversación del farsi al inglés directamente en la visión del usuario.
  • Escaneo Inteligente: escaneando un libro y presumiblemente extrayendo información o realizando acciones contextuales.
  • Otras tareas asistidas por IA.

La clave de su funcionamiento, según explicó Izadi, reside en la conexión constante con el smartphone: "Estas gafas funcionan con tu teléfono, transmitiendo de un lado a otro, lo que permite que las gafas sean muy ligeras y accedan a todas las aplicaciones de tu teléfono". Es decir, delegan gran parte del procesado y el acceso a la información (incluyendo la potencia de Gemini) en el móvil, permitiendo un diseño más discreto y ligero en las propias gafas.

Curiosamente, la demostración de Google no se limitó a las gafas ligeras. Izadi también mostró un avance del visor de realidad mixta (MR) inmersivo que están desarrollando en colaboración con Samsung (conocido internamente como "Proyecto Moohan" y ya anticipado por Samsung en enero).

El casco de realidad aumentada, Project Moohan, desarrollado entre Samsung y Google, expuesto durante el MWC 2025 de BarcelonaChristian ColladoDifoosion

Este dispositivo, con un diseño que recuerda inevitablemente al Apple Vision Pro, utiliza cámaras externas para mostrar el mundo real y superponer elementos digitales. En la demo se mostró su capacidad para manejar múltiples ventanas flotantes, ofrecer una vista inmersiva de diferentes ciudades del mundo y reproducir un vídeo de snowboarding en 360 grados. Se trata de una apuesta por una experiencia MR más completa y potente, distinta al enfoque más sutil de las gafas AR.

Estas demostraciones de Google (y las vistas anteriormente de Meta con sus prototipos como Orion) confirman que la tecnología necesaria para integrar pantallas y capacidades de AR en formatos cada vez más pequeños, como unas gafas, es técnicamente posible. La miniaturización ha avanzado lo suficiente.

Sin embargo, los grandes obstáculos para llevar estos dispositivos al mercado masivo (y que se cumpla así la gran profecía de Mark Zuckerberg) siguen siendo los mismos: conseguir una autonomía de batería decente en dispositivos tan pequeños y, sobre todo, reducir drásticamente los costes de fabricación para hacerlos asequibles.