Homem processa ChatGPT após ter sido chamado de assassino pelo chatbot

Em uma alucinação de IA, o chatbot da OpenAI alegou que norueguês Arve Hjalmar Holmen teria matado seus dois filhos O post Homem processa ChatGPT após ter sido chamado de assassino pelo chatbot apareceu primeiro em Olhar Digital.

Mar 21, 2025 - 10:20
 0
Homem processa ChatGPT após ter sido chamado de assassino pelo chatbot

Um homem norueguês, Arve Hjalmar Holmen, apresentou uma reclamação à Autoridade Norueguesa de Proteção de Dados após o ChatGPT lhe fornecer informações falsas, dizendo que ele havia matado seus dois filhos e sido preso por 21 anos.

Holmen exigiu que a OpenAI fosse multada por esse erro, que ele considera prejudicial, especialmente porque alguns podem acreditar nessas informações falsas.

Holmen pediu ao ChatGPT informações sobre si mesmo, e o modelo gerou uma resposta dizendo que ele estava envolvido na morte de seus filhos em 2020. Embora o chatbot tenha acertado algumas informações pessoais, a história apresentada foi completamente falsa.

Leia mais:

O ChatGPT inventou uma história inexistente sobre Holmen, em que ele teria cometido um crime hediondo – Imagem: Noyb

O grupo de direitos digitais Noyb entrou com a queixa em nome de Holmen, argumentando que o ChatGPT violou as regras de precisão de dados pessoais estabelecidas pela União Europeia, já que ele nunca foi acusado de um crime.

Alucinações podem causar danos sérios ao espalhar informações falsas

  • Embora o ChatGPT traga um aviso sobre possíveis erros, o Noyb considera isso insuficiente, afirmando que o modelo não pode simplesmente divulgar informações falsas e depois colocar um aviso.
  • As “alucinações” são um problema crescente com a IA generativa, em que chatbots criam e disseminam informações falsas.
  • A Apple e o Google também enfrentaram problemas semelhantes com suas ferramentas de IA.

O ChatGPT tem evoluído, e desde agosto de 2024, passou a incluir artigos de notícias atualizados em suas buscas. No entanto, o Noyb afirmou que o sistema ainda funciona como uma “caixa preta”, sem esclarecimento de quais dados são usados, dificultando a compreensão do erro.

O Noyb disse à BBC que o Sr. Holmen fez uma série de pesquisas naquele dia, incluindo colocar o nome de seu irmão no chatbot, que produziu “várias histórias diferentes que estavam todas incorretas”.

Chatbots de IA estão sujeitos a alucinações, quando respondem perguntas com fatos e informações inexistentes – Imagem: Tada Images/Shutterstock

O post Homem processa ChatGPT após ter sido chamado de assassino pelo chatbot apareceu primeiro em Olhar Digital.