Google apresenta óculos inteligentes com Android XR e funções Gemini em conferência TED
Durante uma apresentação na conferência TED em Vancouver, no Canadá, o Google surpreendeu o público ao revelar o protótipo de seus novos óculos de realidade aumentada, equipados com um visor integrado e recursos da inteligência artificial Gemini. A novidade reforça os avanços da empresa no desenvolvimento de dispositivos com o sistema operacional Android XR.
Os óculos inteligentes foram apresentados ao vivo por dois representantes da gigante da tecnologia: Shahram Izadi, chefe do Android XR, e Nishta Bathia, gerente de produto para dispositivos de visão e IA. Visualmente semelhantes a óculos comuns, o modelo demonstrado esconde um sofisticado sistema de reconhecimento visual, tradução em tempo real e suporte à memória contextual — tudo integrado diretamente à lente.
Tradução simultânea e reconhecimento visual
Um dos destaques da apresentação foi a demonstração da capacidade dos óculos em traduzir, em tempo real, conversas em outros idiomas. Izadi exemplificou isso traduzindo uma fala em farsi para o inglês, com as legendas aparecendo no visor dos óculos. Além disso, a tecnologia foi capaz de identificar automaticamente a capa de um livro, demonstrando o potencial de reconhecimento de imagens.
Apesar do impacto visual, Izadi ressaltou que esses recursos ainda estão em estágios iniciais. “Ver, ouvir e reagir em tempo real ainda são funcionalidades bastante rudimentares”, afirmou. No entanto, ele destacou um recurso promissor chamado “Memória”, que permite à IA lembrar-se do que o usuário viu recentemente, mesmo sem comandos específicos.
Inteligência contextual e memória ativa
Segundo os representantes, a função “Memória” utiliza uma janela contextual contínua que permite à IA registrar o ambiente ao redor do usuário de forma passiva. Isso é possível graças a uma câmera discreta embutida nos óculos, que capta imagens em tempo real.
Um exemplo prático foi apresentado por Bathia: ao perguntar para Gemini onde havia deixado sua chave do quarto de hotel, a IA respondeu com precisão — “O cartão do hotel está à esquerda do disco de vinil” — e indicou o objeto diretamente no visor, apontando para uma prateleira atrás dela. A resposta foi instantânea, demonstrando como o sistema pode ser útil no dia a dia.
Parte do ambicioso Project Astra
A funcionalidade de memória já havia sido apresentada anteriormente em um vídeo durante a conferência Google I/O 2024, como parte do chamado Project Astra — uma iniciativa voltada à integração de IA com percepção ambiental contínua. Nos últimos dias, a empresa também equipou a versão Gemini Live com “olhos digitais”, permitindo que o assistente interaja de forma mais natural com o mundo ao seu redor.
Com essa demonstração pública, o Google sinaliza que está avançando no desenvolvimento de óculos de realidade aumentada realmente inteligentes, prontos para interagir com o ambiente de forma intuitiva. A expectativa agora gira em torno de quando e como esses dispositivos chegarão ao mercado.
Essa inovação posiciona o Google mais uma vez como um dos principais nomes na corrida pela próxima geração de dispositivos vestíveis baseados em realidade aumentada, abrindo caminho para uma nova era de interações com a tecnologia.