Chatbots de inteligência artificial tendem a aumentar erros e "alucinar" quando se pedem respostas resumidas

Um estudo analisou chatbots de inteligência artificial, como o ChatGPT, Claude, Gemini, Llama, Grok e DeepSeek, concluindo que quando se pede respostas breves às questões, estes degradam a informação factual, o chamado efeito de “alucinação”.

Mai 12, 2025 - 12:02
 0
Chatbots de inteligência artificial tendem a aumentar erros e "alucinar" quando se pedem respostas resumidas
Um estudo analisou chatbots de inteligência artificial, como o ChatGPT, Claude, Gemini, Llama, Grok e DeepSeek, concluindo que quando se pede respostas breves às questões, estes degradam a informação factual, o chamado efeito de “alucinação”.