Na última segunda-feira (13), durante um evento transmitido ao vivo, a OpenAI revelou uma nova versão de seu modelo de inteligência artificial, denominada GPT-4o. Este modelo é uma evolução significativa do ChatGPT, prometendo ser mais rápido e inteligente, capaz de melhorar a forma como os usuários interagem com a tecnologia.
Mira Murati, diretora de tecnologia da OpenAI, apresentou o GPT-4o destacando seu treinamento com grandes volumes de dados da internet, o que o habilita a processar texto, áudio e vídeo simultaneamente em tempo real. A nova versão permite que os usuários façam perguntas e recebam respostas imediatas em formatos de áudio ou imagem, proporcionando uma experiência mais fluida e eficiente.
A tecnologia integrada de voz, texto e imagem é uma das características mais notáveis do GPT-4o. Essa integração oferece menor latência e interações mais naturais. “A capacidade do modelo de operar nativamente com áudio, texto e visão elimina qualquer atraso, permitindo que as interações sejam tão fluidas quanto uma conversa normal”, explicou Murati.
Além dessas inovações, o GPT-4o inclui funcionalidades que anteriormente eram exclusivas para assinantes pagos. Entre elas estão a capacidade de buscar respostas na web, interagir em diferentes vozes e armazenar informações para consultas futuras. Estas melhorias serão disponibilizadas a todos os usuários nas próximas semanas.
A OpenAI também planeja estender esses novos recursos de texto e imagem para os usuários pagantes do ChatGPT Plus e Team inicialmente, com planos de expandi-los para clientes empresariais em breve. A nova função de “modo de voz” também será disponibilizada para os usuários do ChatGPT Plus.
Finalmente, a GPT Store da OpenAI, que oferece chatbots personalizados feitos por usuários, anteriormente acessível apenas a clientes pagantes, será aberta para todos os usuários.