Pesquisa revela o que pode aumentar chances de uma IA alucinar
Empresa francesa mostra que respostas curtas pioram a precisão factual de modelos como o GPT-4o e Claude 3.7 O post Pesquisa revela o que pode aumentar chances de uma IA alucinar apareceu primeiro em Olhar Digital.

Um estudo recente da empresa francesa Giskard revelou que instruções para que modelos de inteligência artificial (IA) sejam concisos podem aumentar significativamente a ocorrência de “alucinações” — respostas factualmente incorretas geradas por IA.
A pesquisa, que avaliou modelos líderes como o GPT-4o da OpenAI, Mistral Large e Claude 3.7 Sonnet da Anthropic, identificou que, ao serem orientados a responder de forma breve, esses sistemas tendem a sacrificar a precisão em favor da economia de palavras.
Isso ocorre especialmente em perguntas mal formuladas ou ambíguas, nas quais seria necessário mais contexto ou explicação para refutar premissas falsas.
Leia mais:
- Chatbots são treinados para soar gentis, empáticos, quase humanos
- Biologia computacional: software treina biólogos para ler dados
- Inteligência artificial: conheça os pontos negativos e perigos da IA

Detalhes do estudo
- De acordo com os pesquisadores, que publicaram em um blog suas descobertas, quando a IA tem pouco “espaço” para argumentar, ela raramente questiona afirmações equivocadas, resultando em respostas mais confiantes — mas erradas.
- A Giskard alerta que instruções aparentemente inofensivas como “seja conciso” podem comprometer a qualidade informativa de sistemas de IA.
- Esta realidade é preocupante em contextos sensíveis, como saúde, política ou educação.
Postura do usuário pode influenciar erros
O estudo também revelou que os modelos são menos propensos a corrigir informações quando os usuários se expressam com confiança, e que as preferências dos usuários muitas vezes priorizam estilo ou tom, e não necessariamente a veracidade.
Isso reforça um dilema já enfrentado por empresas como a OpenAI: como equilibrar uma boa experiência de uso com a fidelidade factual das respostas?
Para a Giskard, o desafio vai além da tecnologia: trata-se de alinhar sistemas de IA com objetivos claros de verdade e responsabilidade, mesmo quando isso significa contrariar expectativas do usuário.

O post Pesquisa revela o que pode aumentar chances de uma IA alucinar apareceu primeiro em Olhar Digital.