A Meta acaba de anunciar uma atualização em seus óculos inteligentes Ray-Ban Meta, que ativam um assistente inteligente capaz de responder perguntas sobre o entorno do usuário. No entanto, esta é uma versão de acesso limitado no momento.
Isso também lhe interessará
[EN VIDÉO] Descubra a profissão de engenheiro de inteligência artificial!
Em setembro passado, durante sua conferência MetaConexãoA controladora do Facebook lançou uma nova geração de óculos conectados Ray-Ban. Uma das principais características é Meta AI. Foi anunciado para 2024 e o Meta acaba de ativá-lo através da Atualizado para alguns usuários.
Esses óculos não possuem tela, todas as interações são feitas por voz. É essencialmente um assistente de voz equipado com uma câmera e usado no rosto. A IA multimodal permite que os óculos entendam as perguntas faladas, usem a câmera para analisar visualmente o que está na frente do usuário e depois respondam verbalmente.
O recurso está disponível apenas nos Estados Unidos
Para ativar a IA, basta dizer ” Olá Meta Você pode então pedir que ele olhe, seguido de uma pergunta (“ Olhe e… “). No instagramMark Zuckerberg explicou isso perguntando sobre as calças que ele usa com a camisa que usa. A inteligência artificial também foi solicitada a escrever uma legenda para a imagem, identificar a fruta e traduzir o texto. Este tipo de assistente sempre ativo pode ser uma ajuda valiosa em particular para pessoas com deficiência visual. A cada vez, a IA tira uma imagem com os óculos para análise, e salva a imagem e a consulta no aplicativo de smartphone associado, criando um histórico que o usuário pode navegar posteriormente.
Com esse novo recurso, os óculos Ray-Ban Meta se parecem muito com o emblema inteligente AI Pin da Humane. No entanto, este último substitui completamente o smartphone, enquanto os óculos Meta conectados só funcionam com o smartphone. Atualmente, o Multimodal AI está em versão beta de acesso limitado e está disponível apenas nos Estados Unidos.