Google apresenta óculos inteligentes com Android XR e funções Gemini em conferência TED

Durante uma apresentação na conferência TED em Vancouver, no Canadá, o Google surpreendeu o público ao revelar o protótipo de seus novos óculos de realidade aumentada, equipados com um visor integrado e recursos da inteligência artificial Gemini. A novidade reforça os avanços da empresa no desenvolvimento de dispositivos com o sistema operacional Android XR.

Os óculos inteligentes foram apresentados ao vivo por dois representantes da gigante da tecnologia: Shahram Izadi, chefe do Android XR, e Nishta Bathia, gerente de produto para dispositivos de visão e IA. Visualmente semelhantes a óculos comuns, o modelo demonstrado esconde um sofisticado sistema de reconhecimento visual, tradução em tempo real e suporte à memória contextual — tudo integrado diretamente à lente.

Tradução simultânea e reconhecimento visual

Um dos destaques da apresentação foi a demonstração da capacidade dos óculos em traduzir, em tempo real, conversas em outros idiomas. Izadi exemplificou isso traduzindo uma fala em farsi para o inglês, com as legendas aparecendo no visor dos óculos. Além disso, a tecnologia foi capaz de identificar automaticamente a capa de um livro, demonstrando o potencial de reconhecimento de imagens.

Apesar do impacto visual, Izadi ressaltou que esses recursos ainda estão em estágios iniciais. “Ver, ouvir e reagir em tempo real ainda são funcionalidades bastante rudimentares”, afirmou. No entanto, ele destacou um recurso promissor chamado “Memória”, que permite à IA lembrar-se do que o usuário viu recentemente, mesmo sem comandos específicos.

Inteligência contextual e memória ativa

Segundo os representantes, a função “Memória” utiliza uma janela contextual contínua que permite à IA registrar o ambiente ao redor do usuário de forma passiva. Isso é possível graças a uma câmera discreta embutida nos óculos, que capta imagens em tempo real.

Um exemplo prático foi apresentado por Bathia: ao perguntar para Gemini onde havia deixado sua chave do quarto de hotel, a IA respondeu com precisão — “O cartão do hotel está à esquerda do disco de vinil” — e indicou o objeto diretamente no visor, apontando para uma prateleira atrás dela. A resposta foi instantânea, demonstrando como o sistema pode ser útil no dia a dia.

Parte do ambicioso Project Astra

A funcionalidade de memória já havia sido apresentada anteriormente em um vídeo durante a conferência Google I/O 2024, como parte do chamado Project Astra — uma iniciativa voltada à integração de IA com percepção ambiental contínua. Nos últimos dias, a empresa também equipou a versão Gemini Live com “olhos digitais”, permitindo que o assistente interaja de forma mais natural com o mundo ao seu redor.

Com essa demonstração pública, o Google sinaliza que está avançando no desenvolvimento de óculos de realidade aumentada realmente inteligentes, prontos para interagir com o ambiente de forma intuitiva. A expectativa agora gira em torno de quando e como esses dispositivos chegarão ao mercado.

Essa inovação posiciona o Google mais uma vez como um dos principais nomes na corrida pela próxima geração de dispositivos vestíveis baseados em realidade aumentada, abrindo caminho para uma nova era de interações com a tecnologia.