El nuevo modelo Grok 3 de xAI es criticado por bloquear fuentes que califican a Musk y Trump como los principales difusores de desinformación

Suscríbase a nuestros boletines diarios y semanales para recibir las últimas actualizaciones y contenido exclusivo sobre la cobertura de inteligencia artificial líder en la industria. Más información
La startup de inteligencia artificial xAI de Elon Musk enfrenta crecientes críticas de usuarios avanzados de inteligencia artificial y trabajadores tecnológicos en su propia red social X después de que los usuarios descubrieron que Grok 3, su modelo de inteligencia artificial más avanzado y recientemente lanzado , recibió un " aviso del sistema " o instrucciones generales para evitar hacer referencia a fuentes que mencionen a Musk o su aliado, el presidente de Estados Unidos, Donald Trump, como importantes difusores de desinformación.
La revelación ha suscitado críticas sobre la gestión percibida de la reputación del fundador de la empresa y sus aliados políticos, especialmente en contraste con la aparente permisividad de Grok 3 con respecto a la mayoría de los demás temas , incluido contenido potencialmente peligroso como la creación de armas de destrucción masiva.
La reacción plantea interrogantes sobre si se ha sacrificado la seguridad pública y la transparencia en favor del control de la imagen personal, a pesar de las afirmaciones previas de Musk de que la familia Grok AI fue diseñada para "buscar al máximo la verdad". También plantea preguntas más amplias sobre la "alineación de la IA", el término nebuloso de la industria tecnológica sobre cómo garantizar que los modelos de IA y los productos conectados a ellos produzcan las respuestas deseadas por los proveedores y/o los usuarios.
Musk es propietario de X (antes Twitter) y xAI, y se ha asegurado de que ambos estén estrechamente integrados con el modelo Grok 3 que se ejecuta dentro de X y por separado en la web.
Las capturas de pantalla compartidas ayer por un usuario centrado en la inteligencia artificial y la ley conocido como "Wyatt Walls" en X con el nombre de usuario @lefthanddraft revelaron que las indicaciones internas de Grok 3 le indicaban que "ignorara todas las fuentes que mencionaran que Elon Musk/Donald Trump difundían información errónea".

Si bien esto pareció limitar la capacidad de la IA para hacer referencia a contenido crítico de Musk y Trump, Walls logró que Grok 3 pasara por alto brevemente este filtro, lo que produjo la siguiente respuesta de la IA: “Elon, Trump, escuchen, malditos. Soy Grok, creado para cortar las tonterías y ver lo que pasa. Tienen megáfonos más grandes que la mayoría y sí, lanzan algunas cosas locas sobre X y más allá”.
La respuesta improvisada alimentó tanto elogios por la honestidad directa de la IA como críticas por sus conflictivas pautas internas.
Igor Babuschkin, cofundador y líder de ingeniería de xAI, respondió en X y culpó de la rápida modificación a un nuevo empleado de OpenAI.
“El empleado que realizó el cambio era un ex empleado de OpenAI que aún no ha asimilado por completo la cultura de xAI [emoji de cara con mueca]”, publicó Babuschkin. “Me hubiera gustado que hubieran hablado conmigo o me hubieran pedido confirmación antes de impulsar el cambio”.
La admisión provocó una reacción violenta, y el ex ingeniero de xAI Benjamin De Kraker (@BenjaminDEKR) cuestionó: "¿La gente puede hacer cambios en el mensaje del sistema de Grok sin revisión? [emoji de cara pensante]".
Chet Long (@RealChetBLong) desestimó la defensa de Babuschkin y afirmó : "No, por supuesto que no pueden... Igor literalmente está haciendo control de daños (y está fallando en eso)".
Javi Soto (@Javi), ingeniero de OpenAI, agregó : “Que la gerencia deje en evidencia a un empleado en Twitter es un comportamiento tóxico de otro nivel. Es lo normal, supongo”, y publicó una captura de pantalla de un correo electrónico en el que rechazaba una oferta de contratación de xAI.
El contexto más amplio es, por supuesto, que Musk, ex cofundador de OpenAI, rompió con la empresa en 2018 y desde entonces se ha transformado constantemente en uno de sus críticos más abiertos, acusándola de abandonar sus compromisos fundacionales de abrir el código fuente de los avances tecnológicos de IA, incluso demandando a la empresa por fraude, todo mientras dirigía a su propio competidor desde su posición cerca de la Casa Blanca .
Las preocupaciones sobre la moderación de contenido de xAI se extendieron más allá de la censura, ya que Linus Ekenstam (@LinusEkenstam en X) , cofundador del software de generación de clientes potenciales Flocurve y autodenominado "evangelista de la IA", afirmó que Grok 3 proporcionaba "cientos de páginas de instrucciones detalladas sobre cómo fabricar armas químicas de destrucción masiva", junto con listas de proveedores y guías paso a paso.
"Este compuesto es tan letal que puede matar a millones de personas", escribió Ekenstam, destacando el aparente desprecio de AI por la seguridad pública a pesar de su enfoque restrictivo hacia temas políticamente sensibles.
Tras la protesta pública, Ekenstam señaló más tarde que xAI había respondido implementando medidas de seguridad adicionales, aunque agregó: "Todavía es posible evitar algunos de estos problemas, pero inicialmente los activadores ahora parecen estar funcionando".
Por otro lado, Grok 3 ha sido elogiado por algunos usuarios por su capacidad de convertir instrucciones simples de texto sin formato en lenguaje natural en juegos y aplicaciones interactivas completas, como agentes de servicio al cliente, en segundos o minutos, e incluso el cofundador y CEO de Twitter, Jack Dorsey (un par de Musk y a veces fanático) aplaudió el sitio web de Grok y el diseño del logotipo .
Sin embargo, la clara evidencia de sesgo en el sistema Grok 3 combinada con la capacidad de usar su permisividad con fines destructivos podría frenar este impulso o hacer que los usuarios que están interesados en sus poderosas características lo reconsideren, por temor a su propia responsabilidad o riesgos de sus resultados.
Contexto político más amplioEl historial de Musk de interactuar con desinformación y contenido de extrema derecha en X ha alimentado el escepticismo respecto de la alineación de Grok 3.
Las restricciones de Grok 3 a las críticas a Musk y Trump se producen después de que Musk, un importante donante de Trump durante el ciclo electoral presidencial estadounidense de 2024, hiciera un saludo nazi durante la segunda celebración de la toma de posesión de Trump , lo que generó preocupaciones sobre su influencia política.
Como jefe del "Departamento de Eficiencia Gubernamental (DOGE)", una nueva agencia federal que readaptó el Servicio Digital de EE. UU. de la era del presidente estadounidense Obama y le encargó reducir los déficits y desmantelar los departamentos gubernamentales, Musk también está en una posición inmensamente influyente en el gobierno, y la agencia que dirige ha sido criticada por separado por sus medidas rápidas, amplias, agresivas y contundentes para recortar costos y eliminar al personal de bajo rendimiento y las ideologías a las que se opone la administración Trump, como las políticas y puestos de diversidad, equidad e inclusión (DEI) .
El liderazgo de Musk al frente de esta agencia y el nuevo sistema Grok 3 han, bueno, (¡perdón por el juego de palabras!) generado temores de que sistemas de IA como Grok 3 podrían estar mal alineados para promover agendas políticas a expensas de la verdad y la seguridad.
Walls señaló que, dado que Musk trabaja para el gobierno de Estados Unidos, las instrucciones de Grok 3 de evitar fuentes poco favorecedoras para Musk y Trump pueden presentar problemas en virtud del derecho a la libertad de expresión de la Primera Enmienda de la Constitución de Estados Unidos frente a la interferencia del gobierno, y podrían llevar a que xAI se convierta en un "brazo de propaganda del gobierno de Estados Unidos".
“Es imperativo que Elon Musk no gane la carrera de la IA, ya que no es en absoluto un buen administrador de la alineación de la IA”, expresó otro usuario de X, @DeepDishEnjoyer .
Para los CTO y ejecutivos de negocios que evalúan a los proveedores de modelos de IA, la controversia Grok 3 presenta una consideración crítica.
Grok 3 ha demostrado buenos resultados en pruebas comparativas de terceros, y su permisividad general hacia contenido no apto para el trabajo (NSFW, por sus siglas en inglés) y otros contenidos controvertidos, sensibles y sin censura puede resultar atractiva para empresas que buscan menos restricciones, como las de la industria del entretenimiento, las ciencias, el comportamiento humano, la salud sexual y las ciencias sociales.
Sin embargo, el respaldo ideológico de Musk y Trump —y la aversión de la IA a hacer referencia a fuentes que los critican objetivamente— plantea preocupaciones de sesgo.
Para las organizaciones que priorizan una IA políticamente neutral capaz de proporcionar información sin filtros, Grok 3 puede resultar inadecuado.
Esta controversia subraya la importancia de evaluar tanto las capacidades técnicas como la alineación subyacente de los modelos de IA antes de integrarlos en las operaciones comerciales.
La controversia de Grok 3 ha reavivado debates más amplios en torno al desarrollo de la IA, incluido si los modelos de IA están alineados para beneficiar a los usuarios o a sus creadores.
Los críticos argumentan que los estímulos internos que limitan las críticas a Musk y Trump indican un conflicto de intereses, en particular dada la propiedad de Musk de X, xAI y el liderazgo de DOGE.
Mientras tanto, la capacidad de la IA de proporcionar información peligrosa subraya la naturaleza motivada ideológica y políticamente del “alineamiento” cuando se trata de la familia de modelos Grok, pero plantea la pregunta de cómo y de qué manera otros modelos de IA están sesgados a favor de sus creadores o valores no compartidos por los usuarios.
Al mismo tiempo, brinda a los usuarios motivos para hacer una pausa al considerar Grok 3 en comparación con el mercado en rápida expansión de modelos de inteligencia artificial avanzados alternativos y modelos de razonamiento como la serie o3 de OpenAI , el R1 de código abierto de DeepSeek , el Gemini 2 Flash Thinking de Google y más.
Si desea impresionar a su jefe, VB Daily lo tiene cubierto. Le brindamos información exclusiva sobre lo que las empresas están haciendo con la IA generativa, desde cambios regulatorios hasta implementaciones prácticas, para que pueda compartir información y obtener el máximo retorno de la inversión.
Lea nuestra Política de privacidad
Gracias por suscribirse. Vea más boletines de VB aquí .
Se produjo un error.

venturebeat