Un nuevo comienzo para la realidad aumentada: el regreso de las gafas inteligentes de Google

Durante el Google I/O 2025, Google presentó un prototipo que ha reavivado la conversación sobre la realidad aumentada y las gafas inteligentes: unas nuevas gafas equipadas con su asistente de inteligencia artificial Gemini. Esta propuesta no solo rescata la visión original del fallido Google Glass, sino que la amplifica con la madurez tecnológica del presente. Con una integración fluida de IA generativa y un diseño más amigable, Google apunta a conquistar un segmento que aún no ha encontrado un líder definitivo.

La experiencia con estas gafas prototipo, probadas durante el evento, dejó ver el enorme salto que ha dado la tecnología. Esta vez no se trata de un simple visor con notificaciones; es una experiencia inmersiva en la que la inteligencia artificial interpreta el entorno, responde preguntas en tiempo real y acompaña al usuario en su día a día con una naturalidad antes imposible.

Una década después, Glass renace con propósito

La historia de las gafas inteligentes de Google comenzó con Glass, una propuesta que, aunque innovadora, llegó antes de tiempo. Sin la infraestructura técnica y el poder computacional actual, el proyecto no logró consolidarse. Hoy, con la integración de Gemini, una IA capaz de interpretar el mundo visual desde la perspectiva del usuario, y gracias al desarrollo de la plataforma Android XR, el panorama ha cambiado radicalmente.

Este nuevo prototipo marca un punto de inflexión. En lugar de confiar exclusivamente en comandos de voz o texto, las gafas utilizan una cámara integrada para “ver” el entorno. La IA puede interpretar imágenes en tiempo real y proporcionar respuestas contextuales. Por ejemplo, en una de las demostraciones, el asistente fue capaz de identificar una obra de arte sin que el usuario indicara su nombre. Simplemente, al mirar el cuadro, la IA reconoció al autor, el estilo artístico y brindó información adicional.

Diseño para el uso cotidiano

Uno de los cambios más notables con respecto al antiguo Glass es el diseño. Google, junto a Samsung y Qualcomm, ha entendido que las gafas inteligentes deben parecer eso: gafas. En esta nueva etapa, el prototipo se asemeja a unas gafas normales, discretas y modernas. La inspiración es clara: colaboraciones recientes de otras marcas tecnológicas con fabricantes de gafas de renombre han marcado el camino, y Google no quiere quedarse atrás.

El diseño funcional pero atractivo se complementa con alianzas estratégicas. Durante el evento, Google anunció colaboraciones con Gentle Monster y Warby Parker, dos marcas especializadas en gafas. Esto deja claro que el enfoque es integral: tecnología potente, diseño deseable y alianzas clave para facilitar la adopción del producto.

Gemini: un asistente que ve lo que tú ves

El verdadero diferencial de estas gafas reside en Gemini. Este asistente de IA está diseñado para operar de forma contextual, utilizando la cámara de las gafas para interpretar lo que el usuario observa. Esto permite que la interacción no dependa exclusivamente de instrucciones verbales, sino que se base en lo que el usuario experimenta visualmente.

Durante otra prueba, el asistente fue capaz de identificar el modelo de una máquina de café y explicar detalladamente cómo usarla, paso a paso. Esta función resulta particularmente útil en situaciones cotidianas donde el usuario necesita ayuda inmediata sin tener que recurrir a su teléfono móvil o buscar en Internet.

El control del asistente es sencillo: un botón táctil ubicado en la patilla permite activar o desactivar a Gemini. Para mayor privacidad, un LED indica cuando la cámara está en uso, garantizando transparencia frente a otras personas cercanas.

La experiencia de usuario aún está en evolución

Como es de esperar en un prototipo, la experiencia no es perfecta. Uno de los aspectos que necesita mayor desarrollo es la visualización de texto en el cristal. Actualmente, la lectura resulta incómoda incluso para quienes no tienen problemas de visión. No obstante, Google ha dejado claro que esta es una versión temprana y que se espera una mejora significativa en las próximas fases de desarrollo.

Por otro lado, las funcionalidades probadas durante el evento estaban limitadas a escenarios específicos. Esto indica que aún queda trabajo por hacer para adaptar el asistente a un entorno más dinámico y menos controlado. Aun así, la fluidez de las interacciones durante la demostración fue notable.

Android XR: la plataforma que lo hará posible

El motor detrás de este renacer es Android XR, la nueva plataforma de Google para experiencias inmersivas. Aunque todavía se encuentra en una fase inicial de desarrollo, ya empieza a mostrar de lo que es capaz. Su diseño modular permitirá que funcione no solo en gafas inteligentes, sino también en otros dispositivos de realidad extendida.

Este enfoque modular también abrirá la puerta a nuevos desarrolladores y fabricantes, permitiendo que el ecosistema de Android XR crezca más rápido que los intentos anteriores de crear plataformas cerradas. Google ha confirmado que la intención es lanzar Android XR oficialmente junto a nuevos dispositivos a finales de 2025.

Project Moohan: el ecosistema toma forma

Las gafas presentadas durante el Google I/O no son el único proyecto en marcha. Google, Samsung y Qualcomm también están colaborando en Project Moohan, una plataforma de hardware y software orientada a experiencias de realidad aumentada más inmersivas. Aunque las gafas probadas en el evento están más pensadas para el uso diario, Moohan apunta a un segmento más avanzado, probablemente cercano a lo que propone Apple con Vision Pro.

La estrategia de Google es clara: crear un ecosistema completo en torno a Android XR, donde haya opciones para distintos tipos de usuarios, desde los que quieren gafas ligeras hasta quienes buscan experiencias más completas y envolventes.

El papel de las alianzas estratégicas

Uno de los aprendizajes más importantes tras el intento fallido de Google Glass es que la tecnología por sí sola no es suficiente. En esta ocasión, Google ha apostado por una estrategia de alianzas que abarca diseño, hardware, software e inversión. La colaboración con Warby Parker, por ejemplo, incluye una inversión inicial de 150 millones de dólares. Este tipo de acciones indican un compromiso serio por parte de la compañía para llevar el producto al mercado de forma exitosa.

Además, la relación con Samsung y Qualcomm no se limita al desarrollo de gafas: también abarca la optimización de chips y plataformas para garantizar que la experiencia sea lo más fluida y eficiente posible. En un mercado donde la competencia es feroz, estas alianzas pueden ser determinantes.

Un futuro lleno de posibilidades

Si bien el prototipo aún tiene limitaciones, lo que se ha visto hasta ahora genera entusiasmo. La capacidad de la IA para interpretar el mundo visual del usuario, la discreción del diseño y la integración con una plataforma robusta como Android XR, hacen que este intento tenga muchas más probabilidades de éxito que el original.

Las gafas con Gemini están pensadas para convivir con el día a día del usuario, no para sustituirlo ni interrumpirlo. La IA trabaja como una extensión de nuestros sentidos, ayudándonos en tareas cotidianas de forma natural y eficiente. Desde identificar una obra de arte hasta explicar cómo usar una máquina de café, el asistente se convierte en un compañero confiable.

Además, con un enfoque claro en la privacidad, estas gafas incorporan mecanismos visibles para indicar cuándo están en funcionamiento. Esto es fundamental en un contexto donde la aceptación social de estos dispositivos sigue siendo un desafío.

Retos por delante

A pesar de todo el potencial mostrado, todavía quedan varios aspectos que definirán el éxito de esta nueva propuesta. Uno de ellos es el precio. Las gafas deben situarse en un rango competitivo que permita su adopción masiva sin comprometer la calidad ni la funcionalidad.

Otro factor clave será el rendimiento de Gemini en entornos reales. Durante el evento, las pruebas se realizaron en escenarios controlados, por lo que queda por ver cómo se comporta el asistente en contextos impredecibles y complejos. La evolución de Android XR también jugará un papel fundamental, pues de su estabilidad y compatibilidad dependerá en gran parte la experiencia del usuario.

La competencia también es feroz. Apple, Meta y otras compañías están invirtiendo fuertemente en dispositivos similares. Google deberá diferenciarse no solo por tecnología, sino por ofrecer una experiencia más útil, natural y accesible.

You May Also Like

Pronto podrás extraer texto de las fotos de tu Android en Windows: Novedad en Phone Link

Una nueva funcionalidad en Phone Link promete revolucionar la manera en que…

Preocupaciones sobre el uso de chatbots de inteligencia artificial en plataformas digitales

En los últimos años, el avance de la inteligencia artificial (IA) ha…

Netflix dejará de funcionar en los Apple TV más antiguos

Netflix ha anunciado que cesará su soporte para los Apple TV de…

Samsung Introduce el Galaxy S25 Slim: Un Diseño Ultra-Delgado para Competir con el iPhone 17

Samsung Electronics ha anunciado oficialmente el desarrollo de una nueva versión ultra-delgada…

Apple elimina soporte para aplicaciones web en iPhone para usuarios de la Unión Europea

Apple ha tomado la decisión oficial de suspender el soporte para aplicaciones…

Apple lanza nuevas apps de Apple TV, Apple Music y Apple Devices para Windows

Apple reemplaza iTunes en PC con nuevas aplicaciones de Windows Apple ha…

Fujifilm presenta su nueva cámara X-T50 en el X Summit Sydney: características y precio”

Fujifilm ha revelado dos nuevos modelos de cámaras durante el evento X…

Entrevista de Elon Musk que llevó a la cancelación del programa de Don Lemon

Don Lemon y Elon Musk debaten sobre discurso de odio y más…

Interrupción Temporal en la Generación de Personas Asiáticas por IA

Recientemente, se ha registrado una anomalía en Instagram relacionada con la generación…

Instrucciones Ocultas de Apple Intelligence

Las últimas versiones beta para desarrolladores de Apple se lanzaron la semana…