Os óculos Meta Smart da Ray-Ban receberam melhorias substanciais. A Meta introduziu recursos de câmera com tecnologia de IA, agora em beta, que aprimoram a inteligência de seus óculos de captura de fotos, conforme destacado por Mark Zuckerberg em um vídeo recente do Instagram. Esta atualização também apresenta recursos de videochamada e um novo design de moldura.
Ray-Ban Meta Glasses: estamos no capítulo dos wearables de IA
Os óculos inteligentes agora utilizam a câmera para fornecer informações visuais. O assistente de IA integrado pode reconhecer objetos, fornecer detalhes sobre pontos de referência e traduzir idiomas estrangeiros para viajantes.
Outros avanços nos óculos Ray-Ban Meta Smart incluem integração aprimorada com Apple Music, adição de recursos de IA multimodal e conectividade aprimorada com WhatsApp e Messenger. Essas atualizações permitem que os usuários transmitam seus pontos de vista diretamente de seus óculos.

O conceito de IA multimodal permite que o assistente de IA do dispositivo processe vários tipos de entrada – como imagens, áudio, vídeo e texto – tudo de uma vez. Esse recurso significa que os óculos podem executar comandos de voz enquanto analisam simultaneamente os recursos visuais em tempo real.
Sugerido inicialmente logo após o lançamento, o suporte para IA multimodal agora está disponível para todos os usuários de óculos inteligentes. A Meta está aprimorando os óculos com recursos familiares para usuários experientes em tecnologia, ao mesmo tempo que incorpora novas funções, como compartilhamento de vídeo ao vivo por meio de plataformas populares de mensagens. A funcionalidade de transmissão de vídeo ao vivo através do WhatsApp e do Messenger é mãos-livres, oferecendo aos usuários a possibilidade de compartilhar sua visualização imediata sem a necessidade de manusear um dispositivo, agregando assim um aspecto inovador à comunicação por vídeo.
Meta quer mudar a forma como você vê o mundo com IA
Custando US$ 329, os óculos inteligentes apresentam uma câmera ultralarga integrada de 12 megapixels (MP) equipada com Meta AI e Vision para funções de realidade aumentada (AR). Isso inclui a capacidade de traduzir texto em idiomas estrangeiros simplesmente olhando para ele e um recurso de identificação de pontos de referência, ambos apresentados por Mark Zuckerberg em uma atualização do Instagram no início deste ano.

A praticidade do compartilhamento de visualização ao vivo vai desde a exibição de opções de produtos em um supermercado até o compartilhamento de paisagens deslumbrantes durante caminhadas ou férias. Para compartilhar visualizações, os usuários precisam apenas tocar duas vezes no botão físico de captura dos óculos, mesmo sem sincronizar o WhatsApp com o aplicativo Meta View.
Os óculos permitem que os usuários operem a câmera para fotos e vídeos por meio de comandos de voz, como “Ei, Meta, envie uma foto”, eliminando a necessidade de uma tela sensível ao toque ou interface visual e permitindo uma operação simplificada e com as mãos livres.
Para acessar esses novos recursos, os proprietários dos óculos Ray-Ban Meta Smart simplesmente precisam atualizar seu dispositivo por meio do aplicativo Meta View. De acordo com um recente postagem no blog pela Meta, o lançamento dessas atualizações começou em 24 de abril, embora possam não estar disponíveis imediatamente para todos os usuários.
“Estamos comprometidos em construir a próxima geração de experiências baseadas em IA em nossos aplicativos e dispositivos de forma responsável e segura. Testamos e retreinamos rotineiramente nossos modelos para ajudar a garantir que nossos recursos de IA forneçam experiências seguras e úteis.”
-Meta
Crédito da imagem em destaque: meta