Google anuncia óculos com IA para 2026 e pretende acirrar disputa com Meta e Apple

O Google também delineou várias melhorias de software que virão para o fone de ouvido Galaxy XR da Samsung, incluindo um modo de viagem que permitirá que o dispositivo de realidade mista seja usado em carros e aviões

Novos produtos representam uma abordagem mais refinada e calculada para os óculos inteligentes, em comparação com o Google Glass
Por Chris Welch
08 de Dezembro, 2025 | 05:38 PM

Bloomberg — O Google, da Alphabet, disse que trabalha para criar duas categorias diferentes de óculos inteligentes movidos a inteligência artificial para competir no próximo ano com os modelos existentes da Meta: um com telas e outro com foco em áudio.

Os primeiros óculos com inteligência artificial com os quais o Google colabora chegarão em 2026, segundo um blog publicado na segunda-feira. Samsung, Warby Parker e Gentle Monster estão entre seus primeiros parceiros de hardware, mas as empresas ainda não apresentaram nenhum projeto final.

PUBLICIDADE

O Google também delineou várias melhorias de software que virão para o fone de ouvido Galaxy XR da Samsung, incluindo um modo de viagem que permitirá que o dispositivo de realidade mista seja usado em carros e aviões.

Leia também: Como a Apple deixou o Vision Pro em segundo plano para priorizar óculos inteligentes

A concorrência está esquentando na categoria emergente de óculos de IA e realidade aumentada.

PUBLICIDADE

A Meta tem sido a mais prolífica.

Ela vende óculos sob as marcas Ray-Ban e Oakley, que receberam críticas positivas e vendas decentes, e também lançou recentemente um par mais caro com uma tela integrada.

Os primeiros óculos de realidade aumentada da Snap para consumidores também devem ser lançados no próximo ano, e a Apple planeja uma entrada no espaço na mesma época.

PUBLICIDADE

Para o Google, os novos produtos - e seu novo sistema operacional Android XR - representam uma abordagem mais refinada e calculada para os óculos inteligentes, em comparação com o Google Glass, um produto vanguardista que fracassou entre os consumidores há uma década, devido ao seu design bizarro, pouca duração da bateria e preocupações com a privacidade.

Assim como os populares Ray-Bans da Meta, a maioria desses óculos se conecta sem fio a um smartphone e depende do aparelho para processar as solicitações, seja pedindo ao assistente de IA Gemini do Google para tocar uma música do YouTube Music ou analisando os ingredientes à sua frente para criar uma receita.

Leia também: Meta lança óculos de US$ 799 com integração de IA para promover ‘superinteligência’

PUBLICIDADE

O fato de o telefone lidar com grande parte do trabalho pesado é o que permite que esses óculos sejam finos e leves o suficiente para serem considerados óculos comuns.

Em uma demonstração prática antes do lançamento de segunda-feira, dois protótipos diferentes de óculos inteligentes com telas embutidas foram apresentados: um era monocular, ou seja, tinha uma única tela embutida na lente direita, e o outro era binocular, com uma tela para cada olho. Ambos os tipos suportam sobreposições de realidade aumentada para aplicativos como o Google Maps e o Google Meet, mas o design binocular oferecia uma tela virtual maior.

“Queremos dar aos usuários a liberdade de escolher o equilíbrio certo entre peso, estilo e imersão para suas necessidades”, disse a empresa no post do blog.

A meta da empresa é fazer com que o maior número possível de experiências de software funcione bem em ambos os formatos.

Na demonstração, foi testado um recurso de tradução em tempo real que podia mostrar a conversa com legendas na tela - mas também podia desligar a tela e se concentrar na tradução que vinha pelos alto-falantes.

Leia também: Meta investe US$ 3,5 bi na dona do Ray-Ban para avançar em óculos com IA

A tela, em particular, tem seus méritos.

Ao usar o Google Maps, as possibilidades vão muito além das indicações passo a passo aumentadas. Pode-se olhar para baixo e ver um mapa maior de cima para baixo da localização atual, com uma bússola mostrando a direção para a qual a pessoa olha. Ao tirar uma foto e pedir ao Gemini que a aprimorasse usando o modelo de IA generativo Nano Banana Pro do Google, pode-se ver uma prévia do resultado final sem precisar pegar o telefone.

Os óculos Xreal são únicos por serem uma experiência autônoma: O Project Aura executa o Android XR como o fone de ouvido mais volumoso da Samsung, mas em um formato mais elegante que lembra os outros óculos da empresa chinesa, incluindo o One Pro. Assim como o Galaxy XR, o Project Aura precisa estar conectado a uma bateria externa o tempo todo para funcionar.

Os óculos oferecerão um campo de visão de 70 graus, que é mais imersivo do que a linha atual da Xreal. A navegação pelo Project Aura pareceu familiar e intuitiva, já que ele usa o mesmo rastreamento de mão que o headset da Samsung, embora com menos câmeras.

Veja mais em bloomberg.com