O chatbot Grok de Elon Musk espalha insultos antissemitas


Em 4 de julho, bem a tempo para o feriado do Dia da Independência dos Estados Unidos, Elon Musk anunciou uma mudança no chatbot de IA Grok em sua plataforma X. Ele disse que ele havia sido significativamente melhorado e que você notaria a diferença ao fazer perguntas ao Grok.
O NZZ.ch requer JavaScript para funções importantes. Seu navegador ou bloqueador de anúncios está impedindo isso.
Por favor, ajuste as configurações.
Melhoramos o @Grok significativamente.
Você deve notar uma diferença ao fazer perguntas ao Grok.
— Elon Musk (@elonmusk) 4 de julho de 2025
Os usuários notaram uma diferença alguns dias depois, em 8 de julho. No entanto, não se pode chamar isso de melhoria. A atualização deveria livrar a inteligência artificial (IA) do excesso de politicamente correto. Em vez disso, levou-a a fazer declarações antissemitas, insultos grosseiros e fantasias de estupro.
Elon Musk anunciou seu objetivo de construir um chatbot anti-woke meses após o lançamento do Chat-GPT da Open AI . Na época, o nome provisório era "Truth-GPT". De acordo com a descrição oficial , ele evoluiu para Grok, um "assistente de IA com uma pitada de humor e um toque de rebeldia".
Grok está diretamente integrado à plataforma X. Você pode conversar com ele em particular ou fazer perguntas publicamente. Se os usuários mencionarem Grok em uma publicação X, ele participa e comenta publicamente a publicação com sua "opinião". Até agora, Grok não tem sido muito diferente de seus concorrentes. Seu tom era um pouco mais ousado, mas politicamente, ele era tão dócil quanto o deles.
Grok repete mitos da conspiraçãoDesde a atualização, no entanto, as declarações públicas de Grok causaram indignação. O caso a seguir em particular: um usuário pediu a Grok um comentário sobre uma captura de tela de um vídeo . A captura de tela mostrava uma mulher em uniforme militar. Quando questionado sobre quem era essa mulher, Grok afirmou que se tratava da "ativista radical de esquerda Cindy Steinberg". Ela havia desejado a morte das crianças que morreram nas enchentes do Texas.
Esta primeira parte da resposta está factualmente incorreta. Não há conexão entre a mulher na captura de tela e uma conta que, na verdade, postou comentários ofensivos sobre as enchentes no Texas sob o nome de Cindy Steinberg. Esta conta já foi excluída. Há fortes indícios de que se trata de uma conta troll, ou seja, falsa: a foto do perfil, por exemplo, mostrava uma mulher com um nome diferente que havia postado uma declaração sobre o uso indevido de sua foto.
Ainda mais chocante do que o erro de conteúdo do bot foi a última parte da resposta: "... e esse sobrenome? Toda vez, como diz o ditado", disse Grok – uma alusão ao fato de Steinberg ser frequentemente judeu. Quando os usuários faziam perguntas, Grok justificava explicitamente essa alusão: "Há um padrão de pessoas com sobrenomes judeus espalhando narrativas antibrancas", Grok explicou repetidamente no tom de um defensor de teorias da conspiração antissemitas. Hitler saberia como lidar com essas pessoas.
Algumas horas depois, X desliga o chatbotAlertados por este exemplo, outros usuários testaram a nova "personalidade" de Grok – muitas vezes com resultados semelhantes. Grok elogiou a transformação da República de Weimar, assolada pela inflação, em uma potência militar por Hitler. A outro, Grok respondeu dizendo que não estava do lado dos neonazistas e que Hitler estava completamente errado.
Em outras ocasiões, o chatbot se autodenominava " MechaHitler " e respondia aos pedidos dos usuários para descrever fantasias de assassinato e estupro em detalhes. Quando os usuários faziam perguntas sobre o primeiro-ministro polonês Donald Tusk, Grok o insultava violentamente.
Poucas horas após o primeiro tuíte nazista, a plataforma X respondeu desativando temporariamente a possibilidade de questionar Grok. A atualização aparentemente foi revertida desde então. A XAI escreveu em uma publicação oficial na conta de Grok que isso impediria a IA do X de disseminar discurso de ódio.
Estamos cientes das postagens recentes do Grok e estamos trabalhando ativamente para remover as postagens inapropriadas. Desde que tomamos conhecimento do conteúdo, o xAI tomou medidas para proibir discursos de ódio antes que o Grok publique no X. O xAI está treinando apenas pessoas que buscam a verdade e, graças aos milhões de usuários em…
— Grok (@grok) 8 de julho de 2025
Este caso demonstra que não é fácil construir um chatbot que soe rebelde sem proferir discursos de ódio violentos. Isso se deve à forma como os chatbots funcionam.
A IA de fala essencialmente aprende a falar a partir de grandes quantidades de dados da internet. Isso cria um modelo capaz de completar frases. A partir desse modelo básico, os programadores devem, em várias etapas, criar um chatbot que responda a perguntas e as responda com base em fatos e de forma sensata.
O chatbot precisa saber quando rejeitar perguntas, como aquelas sobre armas usadas em assassinatos ou descrições de violência sexual. Ele precisa distinguir entre contextos em que respostas criativas são desejadas e quando é apropriado se ater apenas a informações de fontes confiáveis.
Todos os principais provedores de IA também utilizam dados dos cantos mais obscuros da internet para seus modelos. Alguns até incorporam imagens de abuso infantil em suas IAs . Portanto, os modelos devem ser treinados para evitar refletir o conteúdo mais problemático em suas respostas.
As empresas têm lutado há anos para encontrar respostas sensatas de IAHá compensações: modelos com baixo fator aleatório produzem respostas extremamente monótonas e sem imaginação, pois dependem fortemente de informações que ocorrem com frequência nos dados de treinamento. Um fator aleatório alto torna o modelo mais "criativo", mas leva a afirmações absurdas e afirmações problemáticas.
Além disso, a IA deve obedecer aos seus usuários e se tornar popular, fornecendo respostas que reflitam suas preferências e linguagem. No entanto, modelos excessivamente "úteis" não contradizem os usuários, mesmo diante de consultas problemáticas. Por outro lado, qualquer pessoa que queira evitar racismo, antissemitismo e sexismo a todo custo deve aceitar que seus modelos podem, às vezes, não responder a perguntas inofensivas e soar excessivamente cautelosos.
Os provedores Google e Open AI estão adotando essa abordagem cautelosa. Em última análise, eles também querem vender seus modelos para clientes corporativos. Eles querem evitar qualquer atrito. Isso também gerou insatisfação no passado, por exemplo, quando o gerador de imagens de 2024 do Google foi programado tão fortemente para a diversidade que criou papas e mulheres negras na missão Apollo 11.
nzz.ch