A Meta anunciou uma superatualização nos seus óculos Ray-Ban inteligentes, trazendo vários recursos de inteligência artificial para dar aos usuários maneiras diferentes de interagir com o mundo. Os óculos possuem a habilidade de processar o que está acontecendo ao redor usando câmeras e microfones embutidos, fornecendo informações importantes com base no ambiente em que o usuário se encontra.
Uma das principais melhorias dos óculos é que agora eles podem entender e responder perguntas dos usuários usando uma IA interativa. Para ativar essa função, os usuários só precisam dizer: “E aí, Meta, dá uma olhada nisso”, seguido da pergunta ou pedido específico deles.
Por exemplo, alguém pode pedir: “E aí, Meta, olha esse prato de comida e diz quais ingredientes tem”. Depois, os óculos tiram uma foto e usam a IA para analisar e identificar o que está na cena. Em seguida, ela irá responder diretamente nos óculos.
Além disso, os usuários conseguem revisar o que perguntaram, as fotos correspondentes e as respostas da IA usando o aplicativo Meta View, que se encaixa perfeitamente nos óculos inteligentes.
Mesmo que esses recursos avançados estejam chegando primeiro para um grupo seleto de usuários em um programa de acesso antecipado, a Meta já tem planos para lançar o produto para o mercado geral em 2024.