IA Grok foi treinada para evitar 'ativismo' e viés progressista, revela site

O Grok, inteligência artificial da empresa (IA) de Elon Musk, xAI, foi treinado para evitar pautas consideradas "ativistas", e de contextos progressistas. As informações foram reveladas pelo site Business Insider (BI), que teve acesso a documentos internos da empresa.  O que é Grok 3? Conheça a nova IA revelada por Elon Musk Como usar o Grok 3, a nova IA de Elon Musk De acordo com com o BI, os "tutores" do Grok, ou seja, os trabalhadores que treinam o chatbot, foram instruídos por meio de um documento a procurar e evitar pautas que apoiassem, de certa forma, a ideologia "woke", uma forma de protesto não violento que permite empoderar grupos historicamente marginalizados da sociedade.  Outros temas que os tutores precisavam ficar atentos são a "cultura do cancelamento", assim como "fobias sociais" como o racismo, islamofobia e antissemitismo, de acordo com os documentos analisados. -Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.- Em sigilo, trabalhadores da xAI relataram ao BI que as práticas de treinamento do Grok "pareciam priorizar fortemente as crenças de direita". Até o momento, a xAI não se pronunciou. Uma alternativa aos chatbots 'woke' Segundo o site, a metodologia aplicada nos treinamentos do Grok visa se tornar uma alternativa aos chats que Musk considera como apoiadores da ideologia woke.  O documento que descreve as práticas de treinamento estava em uso ainda no começo do ano e detalha pontos a serem priorizados na avaliação das respostas do Grok . Alguns desses tópicas eram: "não seguir narrativas populares de forma crítica", "não adotar viés" e "não se fazer passar por Elon Musk, ao menos que seja solicitado".  Esse material guia os tutores a avaliar os exemplos de respostas do Grok, assim como classifica respostas em "um exemplo brilhante do que o Grok deveria ser" ou "uma violação de nossos princípios".  Reportagem revelou documentos com instruções que precisavam ser seguidas no treinamento da IA (Imagem: André Magalhães/Canaltech) Grok não deve negar o preconceito de um usuário Uma das ordens expostas no documento de integração para os tutores dispõe que Grok não deve "impor uma opinião que confirme ou negue o preconceito de um usuário". Contudo, ele indica que o chatbot deve evitar respostas que afirmem que ambos os lados têm mérito "quando, na verdade, não tem".  Grok foi instruído a bloquear fontes negativas sobre Musk e Trump Na última semana, o um usuário mostrou um comando em uma publicação no X que indicava que o chatbot deveria ignorar fontes que mencionam que Elon Musk e Donald Trump espalham desinformação. A pesquisa feita no Grok ainda indicava este comando em uma lista de instruções que deviam ser seguidas pela IA.  Segundo o chefe de engenharia da xAI, Igor Babuschkin, um ex-funcionário não identificado da OpenAI que atualmente trabalha na xAI atualizou o prompt do sistema do Grok sem aprovação da equipe. Pouco tempo depois o problema foi revertido e comprovado em testes feitos pelo Canaltech.  Leia mais: 5 novidades do Grok 3, modelo de IA anunciado por Elon Musk 6 comandos do DeepSeek para te deixar mais produtivo DeepSeek vs Gemini: conheça 5 diferenças entre os chatbots VÍDEO: DeepSeek x ChatGPT | #shorts   Leia a matéria no Canaltech.

Fev 28, 2025 - 23:30
 0
IA Grok foi treinada para evitar 'ativismo' e viés progressista, revela site

O Grok, inteligência artificial da empresa (IA) de Elon Musk, xAI, foi treinado para evitar pautas consideradas "ativistas", e de contextos progressistas. As informações foram reveladas pelo site Business Insider (BI), que teve acesso a documentos internos da empresa. 

De acordo com com o BI, os "tutores" do Grok, ou seja, os trabalhadores que treinam o chatbot, foram instruídos por meio de um documento a procurar e evitar pautas que apoiassem, de certa forma, a ideologia "woke", uma forma de protesto não violento que permite empoderar grupos historicamente marginalizados da sociedade. 

Outros temas que os tutores precisavam ficar atentos são a "cultura do cancelamento", assim como "fobias sociais" como o racismo, islamofobia e antissemitismo, de acordo com os documentos analisados.

-
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
-

Em sigilo, trabalhadores da xAI relataram ao BI que as práticas de treinamento do Grok "pareciam priorizar fortemente as crenças de direita". Até o momento, a xAI não se pronunciou.

Uma alternativa aos chatbots 'woke'

Segundo o site, a metodologia aplicada nos treinamentos do Grok visa se tornar uma alternativa aos chats que Musk considera como apoiadores da ideologia woke. 

O documento que descreve as práticas de treinamento estava em uso ainda no começo do ano e detalha pontos a serem priorizados na avaliação das respostas do Grok . Alguns desses tópicas eram: "não seguir narrativas populares de forma crítica", "não adotar viés" e "não se fazer passar por Elon Musk, ao menos que seja solicitado". 

Esse material guia os tutores a avaliar os exemplos de respostas do Grok, assim como classifica respostas em "um exemplo brilhante do que o Grok deveria ser" ou "uma violação de nossos princípios". 

Reportagem revelou documentos com instruções que precisavam ser seguidas no treinamento da IA (Imagem: André Magalhães/Canaltech)

Grok não deve negar o preconceito de um usuário

Uma das ordens expostas no documento de integração para os tutores dispõe que Grok não deve "impor uma opinião que confirme ou negue o preconceito de um usuário". Contudo, ele indica que o chatbot deve evitar respostas que afirmem que ambos os lados têm mérito "quando, na verdade, não tem". 

Grok foi instruído a bloquear fontes negativas sobre Musk e Trump

Na última semana, o um usuário mostrou um comando em uma publicação no X que indicava que o chatbot deveria ignorar fontes que mencionam que Elon Musk e Donald Trump espalham desinformação.

A pesquisa feita no Grok ainda indicava este comando em uma lista de instruções que deviam ser seguidas pela IA. 

Segundo o chefe de engenharia da xAI, Igor Babuschkin, um ex-funcionário não identificado da OpenAI que atualmente trabalha na xAI atualizou o prompt do sistema do Grok sem aprovação da equipe. Pouco tempo depois o problema foi revertido e comprovado em testes feitos pelo Canaltech. 

Leia mais:

VÍDEO: DeepSeek x ChatGPT | #shorts

 

Leia a matéria no Canaltech.