Os óculos inteligentes podem ser uma categoria cada vez mais popular, mas ainda há muito que precisa ser descoberto. A privacidade – especificamente se deveríamos realmente andar por aí com câmeras no rosto – é uma questão importante que está muito longe de ser resolvida. Ou que tal aplicativos? Se usarmos dispositivos de gravação com telas em nossos rostos, o que eles deveriam fazer por nós, exatamente?
Existem problemas mais básicos e práticos do que esses também, como por exemplo, como diabos você consegue usar algo sem tela sensível ao toque ou controlador tradicional em primeiro lugar? Até agora, vimos algumas respostas possíveis para essa pergunta – pulseiras, touchpads, anéis, comandos de voz – mas levamos até agora para ver o que poderia ser o Santo Graal das entradas: rastreamento ocular.
Graças a uma empresa chamada Tudoagora temos os primeiros óculos inteligentes capazes de rastrear seus olhos e tive a oportunidade de experimentá-los. Com base na minha experiência, o futuro dos óculos inteligentes parece tão interessante quanto pouco polido.
Eye não sabia que óculos inteligentes poderiam fazer isso
Primeiro, vamos voltar atrás. O rastreamento ocular é um método de entrada usado em dispositivos XR adjacentes, como o Apple Vision Pro, que possui câmeras internas que podem seguir os movimentos dos olhos, permitindo navegar em menus e aplicativos usando o olhar. É sem dúvida uma das principais coisas que faz o Apple Vision Pro parecer substancialmente diferente de seus concorrentes – não é novo, mas é é novo no formato dos óculos inteligentes.
Os óculos inteligentes Maverick AI Pro de US $ 599 da Everysight têm um módulo de rastreamento ocular embutido nas armações que pesa menos de 1g, então, embora você possa pensar que um gadget que imita o Apple Vision Pro de 650g seria robusto, o Maverick AI Pro na verdade pesa apenas 47g. Para contextualizar, isso é 22g mais leve que o Meta Ray-Ban Display, os únicos óculos inteligentes da Meta com tela.
Configurar o rastreamento ocular é simples na prática, mas também temperamental. Para ativar o rastreamento ocular do Maverick AI Pro, basta olhar para um círculo e depois para um quadrado que aparece no display dos óculos inteligentes. Após uma calibração rápida que leva de cinco a oito segundos, você poderá usar os olhos como cursor.
Depois que recebi os óculos inteligentes do tamanho correto (a distância entre os olhos é um fator importante que determina se você consegue ver a tela, então o tamanho é crucial), o rastreamento ocular funcionou muito bem para mim. Consegui fazer uma demonstração de visualização de aplicativos, fixando meu olhar até que eles desaparecessem da tela. É assim que a “seleção” funciona no Maverick AI Pro, ao contrário do Vision Pro, que também rastreia os dedos além dos olhos.
Outras demonstrações foram mais imprevisíveis, como um aplicativo de rastreamento de ações que me mostrou a flutuação do preço de uma ação ao longo do tempo quando eu passei os olhos sobre o gráfico. Embora o rastreamento ocular funcionasse bem, um atraso fez com que a digitalização do gráfico parecesse menos perfeita. Usar meus olhos para alternar entre as telas do menu, no entanto, foi mais fluido, avaliando com precisão meu olhar para deslizar para a esquerda ou para a direita entre as diferentes janelas no estilo carrossel.
Há também a questão do posicionamento. O rastreamento ocular requer um ajuste específico em seu rosto para funcionar corretamente – a calibração não funcionará se você não conseguir ver a tela corretamente – e também é prejudicado por pequenos ajustes dos óculos inteligentes em seu rosto. Depois de calibrar o rastreamento ocular, ajustei os óculos inteligentes para que ficassem em uma parte diferente do meu nariz, e tudo desmoronou. O CEO e CFO da Everysight, David McLauchlan e Jeff Freedman, me disseram que meu ligeiro reajuste foi o motivo do rastreamento repentinamente instável.

Escusado será dizer que essa não é uma UX ideal, mas a Everysight diz que está trabalhando para que a calibração seja o mais fluida possível e, esperançosamente, reduza o tempo de calibração no futuro. Se eles podem realmente fazer isso, ninguém sabe, mas, por enquanto, esta é a experiência que está disponível, ou seja, há obstáculos para suavizar.
Embora eu não tenha conseguido usar o rastreamento ocular fora das demonstrações fornecidas para mim, também imagino que um grande obstáculo será o equilíbrio quando o rastreamento ocular entrar em ação. Claro, às vezes você quer usar os olhos para navegar em um menu, mas outras vezes você está apenas olhando as coisas. Encontrar a proporção certa entre engajar o rastreamento ocular e saber quando arquivá-lo será difícil, embora mesmo que a Everysight não acerte esse aspecto, ela espera que outra empresa que use sua tecnologia o faça.
Visão geral para todos?
Embora a Everysight esteja tornando o Maverick AI Pro um gadget independente, ela também vê seus óculos inteligentes como mais um modelo para o que pode oferecer a outros fabricantes, em termos de tecnologia. Fora do novo módulo de rastreamento ocular, a próxima parte mais chamativa do Maverick AI Pro é sua tecnologia de exibição. Ao contrário de outros óculos inteligentes, que usam guias de onda – um pedaço de vidro que transporta a luz de um projetor até o olho – os óculos inteligentes do Everysight são projetados diretamente na lente e depois refletidos. Como o Maverick AI Pro não precisa forçar a luz através de camadas de vidro, seus óculos inteligentes requerem muito menos energia e usam muito menos energia para iluminar uma tela.
A tecnologia de projeção do Everysight tem muitos benefícios. Ele não apenas otimiza a eficiência da bateria (o Maverick AI Pro tem cerca de nove horas de duração da bateria, de acordo com a Everysight, em comparação com o Meta Ray-Ban Display, que tem cerca de seis), mas também reduz o peso, já que as lentes não requerem vidro grosso em camadas. Essas coisas são um grande fator na leveza do Maverick AI Pro e uma proposta atraente para outros fabricantes de óculos inteligentes que podem estar procurando abandonar os guias de onda por algo mais leve com bateria de maior duração. Há apenas um problema com a pilha de tecnologia da Everysight: você pode vê-la dentro dos óculos.

Embora não seja o nível de obviedade do Google Glass, se você estiver usando lentes transparentes, seus módulos de rastreamento ocular e projeção são visíveis do lado de fora, o que pode ser indesejável para pessoas que desejam um par de óculos inteligentes que apenas se pareçam com óculos. Everysight diz que está trabalhando para resolver isso, experimentando o quão longe eles podem mover ambos os módulos para fora da vista nas armações sem afetar o desempenho, mas por enquanto, você está preso a um par de óculos inteligentes que claramente possuem tecnologia.
A boa notícia é que a tecnologia de projeção dentro do Maverick AI Pro funciona. Consegui ver a tela dentro do escritório ensolarado do Gizmodo mesmo usando um par transparente e sem cor. Com lentes de transição (algo que a Everysight aparentemente está planejando no futuro), presumo que ficaria ainda mais nítido. O Maverick AI Pro tem 5.000 nits de brilho máximo, que é igual ao Meta Ray-Ban Display, mas com uma resolução muito maior. Everysight diz que sua tecnologia de projeção pode produzir 1.280 x 720, ao contrário do Meta Ray-Ban Display, que tem uma resolução de tela de 600 x 600. Como a tela está sendo projetada, você também pode mover sua localização um pouco através da lente, também, em vez de ser fixado em um canto como o Meta Ray-Ban Display.
Na minha experiência, a tela do Maverick AI Pro é impressionante e pode competir com os concorrentes feitos por RayNeo e Inmo, o que é notável dado o fato de que o Maverick AI Pro é muito menos robusto do que aqueles óculos inteligentes. Podem não ser os níveis de fidelidade do Vision Pro, mas para um par de óculos inteligentes muito leves, a projeção parece promissora.
Um passo em direção a… algo
Há muito que eu preciso saber antes de declarar que o Maverick AI Pro é um par de óculos inteligentes nos quais você realmente deveria gastar dinheiro – eu precisaria testá-los fora das demonstrações fornecidas a mim em um ambiente do mundo real – mas há alguma promessa.
Meu instinto me diz que eles são um bom primeiro rascunho, mas que a pilha de tecnologia do Everysight (rastreamento ocular e projeção) ainda tem um longo caminho a percorrer antes de ser aperfeiçoada. Superficialmente, há benefícios claros, especialmente considerando o fato de que a Banda Neural do Meta, embora interessante, não parece algo que você gostaria de usar a longo prazo.
Por enquanto, o rastreamento ocular parece ser um conceito atraente que os óculos inteligentes podem aproveitar, e se algum dia chegaremos a um ponto de refinamento é uma incógnita. Por mais populares que os óculos inteligentes tenham se tornado ultimamente, eles também são alvo de reações adversas por causa de sua capacidade de gravar discretamente e do manuseio incorreto dos dados de seus usuários pela Meta. Se a categoria realmente tem um futuro neste momento é discutível.
Porém, se ele tiver pernas, não é necessário um módulo de rastreamento ocular de alta tecnologia para ver se o Everysight está no caminho certo.












