Pesquisadores da Universidade de Ciência e Tecnologia da China e do YouTu Lab da Tencent apresentam uma solução para o problema da alucinação em modelos de inteligência artificial (IA). O Woodpecker se destaca ao utilizar três modelos de IA distintos, uma abordagem diferente dos MLLMs que estão sujeitos à correção de alucinações.
Esses modelos incluem o GPT-3.5 turbo, Grounding DINO e BLIP-2-FlanT5, cuja fusão permite a criação de um sistema capaz de identificar alucinações e comandar o modelo sob correção para regenerar seus resultados com base em seus próprios dados.
Essa não é a primeira tentativa de corrigir o desafio das alucinações dos serviços de inteligência artificial. Soluções anteriores frequentemente envolviam ajustes de instrução que exigiam que o modelo fosse retreinado com dados específicos. No entanto, esses métodos eram intensivos em termos de informações e recursos computacionais, o que tornava o processo caro.
Seguindo a inspiração por trás do nome “Woodpecker” (Pica-pau, em inglês), o framework opera em cinco estágios: extração de conceitos-chave, formulação de perguntas, validação de conhecimento visual, geração de afirmações visuais e, por fim, correção de alucinações.
Alucinações em modelos de inteligência artificial
Para entender melhor, alucinação em IA ocorre quando um programa gera resultados com alta confiança, porém esses resultados não estão alinhados com as informações presentes em seus dados de treinamento.
Essa problemática tem sido observada em pesquisas com Modelos de Linguagem em Grande Escala (LLM), afetando, por exemplo, aplicativos de inteligência artificial como o ChatGPT e o Claude da Anthropic.