El chatbot Grok de Elon Musk difunde insultos antisemitas


El 4 de julio, justo a tiempo para el feriado del Día de la Independencia de Estados Unidos, Elon Musk anunció un cambio en el chatbot de inteligencia artificial Grok en su plataforma X. Dijo que se había mejorado significativamente y que notarías la diferencia cuando le hicieras preguntas a Grok.
NZZ.ch requiere JavaScript para funciones importantes. Su navegador o bloqueador de anuncios lo impide.
Por favor ajuste la configuración.
Hemos mejorado @Grok significativamente.
Deberías notar una diferencia cuando le hagas preguntas a Grok.
— Elon Musk (@elonmusk) 4 de julio de 2025
Los usuarios notaron una diferencia unos días después, el 8 de julio. Sin embargo, no puede considerarse una mejora. La actualización pretendía eliminar el exceso de corrección política de la inteligencia artificial (IA). En cambio, la llevó a realizar declaraciones antisemitas, insultos groseros y fantasías de violación.
Elon Musk anunció su objetivo de crear un chatbot anti-woke meses después del lanzamiento de Chat-GPT de Open AI . En aquel momento, se llamaba provisionalmente "Truth-GPT". Este evolucionó a Grok, un "asistente de IA con un toque de humor y rebeldía", según la descripción oficial .
Grok está integrado directamente en la plataforma X. Puedes chatear con él en privado o hacerle preguntas públicamente. Si los usuarios lo mencionan en una publicación de X, él se une y comenta públicamente la publicación con su "opinión". Hasta ahora, Grok no se ha diferenciado mucho de sus competidores. Su tono era un poco más atrevido, pero políticamente, era tan moderado como el de ellos.
Grok repite mitos de conspiraciónSin embargo, desde la actualización, las declaraciones públicas de Grok han causado indignación. El siguiente caso en particular: Un usuario le pidió a Grok un comentario sobre la captura de pantalla de un video . La captura mostraba a una mujer con uniforme militar. Al preguntarle quién era esta mujer, Grok afirmó que era "la activista radical de izquierda Cindy Steinberg". Había deseado la muerte de los niños que murieron en las inundaciones de Texas.
Esta primera parte de la respuesta es objetivamente incorrecta. No existe ninguna conexión entre la mujer de la captura de pantalla y una cuenta que publicó comentarios indescriptibles sobre las inundaciones en Texas bajo el nombre de Cindy Steinberg. Esta cuenta ha sido eliminada. Hay pruebas contundentes de que se trata de una cuenta troll, es decir, falsa: la foto de perfil, por ejemplo, mostraba a una mujer con un nombre diferente que había publicado una declaración sobre el uso indebido de su foto.
Aún más impactante que el error de contenido del bot fue la última parte de la respuesta: "¿... y ese apellido? ¡Cada vez, maldita sea!", dijo Grok, en alusión a que Steinberg suele ser judío. Cuando los usuarios hicieron preguntas, Grok justificó explícitamente esta alusión: "Hay un patrón de personas con apellidos judíos que difunden narrativas antiblancas", explicó Grok repetidamente con el tono de un partidario de teorías conspirativas antisemitas. Hitler habría sabido cómo tratar con esa gente.
Unas horas después, X apaga el chatbot.Alertados por este ejemplo, otros usuarios pusieron a prueba la nueva "personalidad" de Grok, a menudo con resultados similares. Grok elogió la transformación de Hitler de la República de Weimar, sumida en la inflación, en una potencia militar. A otro, Grok respondió diciendo que no estaba del lado de los neonazis y que Hitler estaba completamente equivocado.
En otras ocasiones, el chatbot se hacía llamar " MechaHitler " y respondía a las solicitudes de los usuarios para que describiera con detalle fantasías de asesinato y violación. Cuando los usuarios preguntaban sobre el primer ministro polaco, Donald Tusk, Grok lo insultaba con saña.
Unas horas después del primer tuit nazi, la plataforma X respondió desactivando temporalmente la posibilidad de interrogar a Grok. Al parecer, la actualización se ha revertido. XAI escribió en una publicación oficial en la cuenta de Grok que evitaría que la IA de X difundiera discursos de odio.
Estamos al tanto de las publicaciones recientes de Grok y estamos trabajando activamente para eliminar las publicaciones inapropiadas. Tras conocer el contenido, xAI ha tomado medidas para prohibir los discursos de odio antes de que Grok publique en X. xAI solo entrena a quienes buscan la verdad y, gracias a los millones de usuarios en…
— Grok (@grok) 8 de julio de 2025
Este caso demuestra que no es fácil crear un chatbot que suene rebelde sin emitir un discurso de odio violento. Esto se debe a la forma en que funcionan los chatbots.
La IA del habla aprende a hablar a partir de grandes cantidades de datos de internet. Esto crea un modelo capaz de completar oraciones. A partir de este modelo básico, los programadores deben crear, en varios pasos, un chatbot que responda preguntas con base en hechos y de forma sensata.
El chatbot debe saber cuándo rechazar preguntas, como las relacionadas con armas homicidas o descripciones de violencia sexual. Debe distinguir entre contextos donde se buscan respuestas imaginativas y cuándo es apropiado centrarse únicamente en información de fuentes fiables.
Todos los principales proveedores de IA también utilizan datos de los rincones más oscuros de internet para sus modelos. Algunos incluso incorporan imágenes de abuso infantil en su IA . Por lo tanto, los modelos deben entrenarse para evitar reflejar el contenido más problemático en sus respuestas.
Las empresas llevan años luchando para encontrar respuestas sensatas de IAExisten desventajas: los modelos con un factor aleatorio bajo producen respuestas extremadamente monótonas y poco imaginativas porque dependen en gran medida de información frecuente en los datos de entrenamiento. Un factor aleatorio alto hace que el modelo sea más "creativo", pero conduce a afirmaciones absurdas y declaraciones problemáticas.
Además, se supone que la IA debe obedecer a sus usuarios y popularizarse al ofrecer respuestas que reflejen sus preferencias y lenguaje. Sin embargo, los modelos excesivamente útiles no contradirán a los usuarios, ni siquiera ante consultas problemáticas. Por el contrario, quien quiera evitar a toda costa el racismo, el antisemitismo y el sexismo debe aceptar que, en ocasiones, sus modelos pueden no responder ni siquiera a preguntas inofensivas y parecer excesivamente cautelosos.
Los proveedores Google y Open AI están adoptando este enfoque cauteloso. En última instancia, también quieren vender sus modelos a clientes corporativos. Quieren evitar cualquier fricción. Esto también ha generado insatisfacción en el pasado, por ejemplo, cuando el generador de imágenes de Google para 2024 estaba programado con tanta atención a la diversidad que creó papas y mujeres negras en la misión Apolo 11.
nzz.ch