Google mostra óculos Android XR

A Google apresentou a primeira demonstração ao vivo do Android XR a funcionar em óculos inteligentes durante a conferência TED2025. Esta foi a primeira vez que a empresa mostrou, em tempo real, o que a sua nova plataforma de realidade aumentada consegue fazer, com a ajuda do Gemini. Na demonstração, os óculos geraram um haiku, identificaram o título de um livro acabado de ser visto, localizaram um cartão de hotel, explicaram diagramas e traduziram sinais para várias língua. O Gemini também respondeu em hindi, após ser interpelado nessa língua, mostrando capacidades de tradução imediata. Os óculos ligam-se ao telemóvel e suportam todas as suas apps, e permite usar lentes com graduação. A experiência inclui ainda reconhecimento de música, navegação com indicações no ecrã e mapas em 3D. O Gemini conseguiu reconhecer um disco de vinil e reproduzir uma música correspondente, além de oferecer direcções em realidade aumentada. Embora sejam funcionalidades interessantes, acabam também para demonstrar o pouco que se evoluiu desde o tempo dos Google Glass (de 2012!) Os óculos acabam por ser principalmente uma forma de usar uma câmara e microfone "sem mãos", com o verdadeiro trabalho a recair sobre o Gemini - e aí sim, vemos o potencial transformador das tecnologias AI. De resto, estes óculos limitam-se a apresentar informação à frente dos olhos do utilizador (como o ecrã antigo do Glass), sem que pareçam ter capacidades avançadas de eye-tracking ou de parecerem estar no mundo real. Google's new prototype smart glasses, powered by the new Android XR system.This is the future

Abr 18, 2025 - 18:24
 0
Google mostra óculos Android XR
A Google apresentou a primeira demonstração ao vivo do Android XR a funcionar em óculos inteligentes durante a conferência TED2025.

Esta foi a primeira vez que a empresa mostrou, em tempo real, o que a sua nova plataforma de realidade aumentada consegue fazer, com a ajuda do Gemini. Na demonstração, os óculos geraram um haiku, identificaram o título de um livro acabado de ser visto, localizaram um cartão de hotel, explicaram diagramas e traduziram sinais para várias língua. O Gemini também respondeu em hindi, após ser interpelado nessa língua, mostrando capacidades de tradução imediata. Os óculos ligam-se ao telemóvel e suportam todas as suas apps, e permite usar lentes com graduação. A experiência inclui ainda reconhecimento de música, navegação com indicações no ecrã e mapas em 3D. O Gemini conseguiu reconhecer um disco de vinil e reproduzir uma música correspondente, além de oferecer direcções em realidade aumentada.
Embora sejam funcionalidades interessantes, acabam também para demonstrar o pouco que se evoluiu desde o tempo dos Google Glass (de 2012!) Os óculos acabam por ser principalmente uma forma de usar uma câmara e microfone "sem mãos", com o verdadeiro trabalho a recair sobre o Gemini - e aí sim, vemos o potencial transformador das tecnologias AI. De resto, estes óculos limitam-se a apresentar informação à frente dos olhos do utilizador (como o ecrã antigo do Glass), sem que pareçam ter capacidades avançadas de eye-tracking ou de parecerem estar no mundo real.