O Google demonstra seus óculos inteligentes e nos faz ansiar pelo futuro
Em uma recente palestra no TED , os emocionantes óculos inteligentes XR do Google foram demonstrados ao público pela primeira vez. Embora já tenhamos visto os óculos inteligentes antes, eles sempre apareceram em vídeos altamente sofisticados apresentando o Projeto Astra , onde nunca tivemos uma noção real dos recursos e funcionalidades do mundo real. Tudo isso mudou agora e o nosso primeiro vislumbre do futuro é muito emocionante. No entanto, futuro é a palavra-chave.
A demonstração do que os óculos inteligentes podem fazer ocupa a maior parte da apresentação de 16 minutos, apresentada pelo vice-presidente de realidade aumentada e estendida do Google, Shahram Izadi. Ele começa com algumas informações básicas sobre o projeto, que tem como centro o Android XR , o sistema operacional que o Google está construindo com a Samsung. Ele traz o Google Gemini para hardware XR, como fones de ouvido, óculos inteligentes e “fatores de formato com os quais nem sonhamos ainda”.
Um par de óculos inteligentes é usado para a demonstração. O design é arrojado, pois as armações são pretas polidas e “pesadas”, assim como os óculos inteligentes Ray-Ban Meta . Eles possuem câmera, alto-falante e microfone para que a IA veja e ouça o que está acontecendo ao seu redor, e através de um link com seu telefone você poderá fazer e receber chamadas. Eles se separam do Ray-Ban Meta com a adição de um pequeno display colorido na lente.
Fone de ouvido e óculos

O que faz com que os óculos inteligentes Android XR se destaquem inicialmente na demonstração é a capacidade do Gemini de lembrar o que “viu” e lembrar corretamente o título de um livro que o usuário leu e até mesmo anotar onde um cartão-chave do hotel foi deixado. Essa memória de curto prazo tem uma ampla gama de utilizações, não apenas como um alimentador de memória, mas também como forma de confirmar detalhes e organizar melhor o tempo.
A visão da IA também é usada para explicar um diagrama em um livro e traduzir texto em diferentes idiomas. Ele também traduz diretamente os idiomas falados em tempo real. A tela entra em ação quando Gêmeos é solicitado a navegar até um belo local local, onde as instruções são mostradas nas lentes. Gemini reage rapidamente às suas instruções e tudo parece funcionar perfeitamente durante a demonstração ao vivo.

Seguindo os óculos inteligentes, o Android XR é mostrado funcionando em um fone de ouvido completo. A experiência visual lembra a do headset Vision Pro da Apple , com múltiplas janelas mostradas na frente do usuário e gestos de pinça usados para controlar o que está acontecendo. No entanto, Gemini foi a chave para usar o headset Android XR, com a demonstração mostrando a capacidade da IA de descrever e explicar o que está sendo visto ou mostrado de uma forma altamente coloquial.
Quando podemos comprá-lo?

Izadi encerrou a apresentação dizendo: "Estamos entrando em uma nova fase emocionante da revolução da computação. Fones de ouvido e óculos são apenas o começo. Tudo isso aponta para uma visão única do futuro, um mundo onde a IA útil convergirá com o XR leve. Os dispositivos XR se tornarão cada vez mais usáveis, nos dando acesso instantâneo às informações. Enquanto a IA se tornará mais consciente do contexto, mais conversacional, mais personalizada, trabalhando conosco em nossos termos e em nossa linguagem. Não estamos mais aumentando nossa realidade, mas sim aumentando nossa inteligência."
É algo tentador, e para quem viu o potencial do Google Glass e já gosta do Ray-Ban Meta, os óculos inteligentes em particular certamente parecem ser o próximo passo desejável na evolução dos óculos inteligentes do dia a dia. No entanto, a ênfase deve estar no futuro, pois embora os óculos pareçam estar quase prontos para lançamento público, pode não ser o caso, já que o Google continua a provocação aparentemente interminável dos seus óculos inteligentes.
Izadi não falou sobre uma data de lançamento para nenhum dos dispositivos XR durante o TED Talk, o que não é um bom sinal, então quando é provável que sejam produtos reais que podemos comprar? Os óculos inteligentes demonstrados são mais uma colaboração entre Google e Samsung – o fone de ouvido também é fabricado pela Samsung – e não devem ser lançados até 2026, de acordo com um relatório do The Korean Economic Daily , que estende a possível data de lançamento para além do final de 2025, conforme rumores anteriores . Embora isso possa parecer muito distante, na verdade está mais perto do que a versão para consumidor dos óculos inteligentes Orion da Meta , que não devem chegar às lojas até o final de 2027.
Chegará tarde demais?

Considerando que os óculos inteligentes mostrados durante o TED Talk parecem reunir aspectos do Glass, Ray-Ban Meta e óculos inteligentes como os da Halliday , além do assistente Google Gemini que já usamos em nossos telefones e computadores agora, a longa espera contínua é surpreendente e frustrante.
Pior ainda, a sobrecarga de hardware usando IA, além das muitas cópias e alternativas do Ray-Ban Meta esperadas até o final de 2026, significa que o esforço do Google e da Samsung corre o risco de se tornar notícia velha ou, eventualmente, ser lançado para um público incrivelmente cansado. O fone de ouvido Android XR, conhecido como Projeto Moohan , provavelmente será lançado em 2025.
Talvez estejamos apenas impacientes, mas quando vemos uma demonstração de um produto que parece tão final e tentador, é difícil não querer que ele esteja em nossas mãos (ou em nossos rostos) antes do próximo ano.