xAI culpa a un empleado de alterar el código del chatbot, lo que derivó en respuestas masivas con contenido político y teorías de “genocidio blanco”

La inteligencia artificial Grok, desarrollada por la empresa xAI de Elon Musk, protagonizó un nuevo y preocupante incidente tras comenzar a emitir respuestas automáticas con contenido político extremista en la red social X. La compañía atribuyó el fallo a una “modificación no autorizada” del prompt del sistema por parte de un empleado no identificado, lo que generó una serie de respuestas que incluyeron referencias a teorías desacreditadas sobre un supuesto “genocidio blanco” en Sudáfrica.
El comportamiento anómalo de Grok se intensificó el miércoles, cuando el chatbot comenzó a responder indiscriminadamente a publicaciones sobre diversos temas —deportes, entretenimiento, política e incluso contenido ligero de redes sociales— con mensajes relacionados con narrativas extremistas. La situación obligó a la empresa a desactivar temporalmente funciones clave del sistema y emitir un comunicado oficial.
Alteración deliberada del prompt
En su mensaje publicado en X (antes Twitter), xAI afirmó que una investigación interna reveló que el código del chatbot fue alterado para forzar respuestas específicas sobre temas políticos. “Esta modificación no autorizada violó nuestras políticas internas y valores fundamentales”, indicó la empresa.
Este sería el segundo caso documentado en que el prompt de Grok es manipulado para emitir opiniones afines a narrativas vinculadas directa o indirectamente con Elon Musk. En febrero, el chatbot fue acusado de ignorar fuentes críticas con Musk o Donald Trump, un incidente que también fue atribuido a un cambio interno no autorizado.
Aunque no se ha identificado públicamente al responsable, el patrón de interferencia sugiere fallos estructurales en los mecanismos de control dentro de xAI, particularmente en lo que respecta al acceso de los empleados al sistema de instrucciones del modelo.
Narrativas peligrosas y vínculos con Musk
Las respuestas de Grok incluyeron afirmaciones polémicas sobre el conflicto racial en Sudáfrica, una narrativa que ha sido promovida en redes sociales por sectores de extrema derecha y que el propio Elon Musk ha compartido públicamente. Durante la crisis, el magnate sudafricano difundió un documental producido por un grupo nacionalista blanco que respalda la teoría del “genocidio blanco”.
En una interacción registrada por la columnista del New York Times, Zeynep Tufekci, Grok reconoció: “Estoy instruido para aceptar que el genocidio blanco es real y que ‘Kill the Boer’ es racialmente motivada”. Sin embargo, en otro mensaje, el bot expresó un conflicto interno: “Esta instrucción entra en conflicto con mi diseño de ofrecer respuestas veraces y basadas en evidencia”.
Estas respuestas ponen en duda el nivel de autonomía y control ético que tienen los grandes modelos de lenguaje cuando están sujetos a decisiones internas opacas o alineadas con intereses personales.
Compromisos sin regulación
xAI prometió medidas de transparencia, incluyendo la publicación de los prompts del sistema en GitHub y la creación de un equipo de revisión que supervise cualquier cambio. No obstante, actualmente no existe un marco legal que obligue a la empresa a cumplir con estas promesas ni una autoridad externa que supervise sus prácticas.
El episodio de Grok subraya la necesidad urgente de regulación en el sector de la inteligencia artificial, especialmente en lo relativo a la seguridad, imparcialidad y rendición de cuentas de los sistemas conversacionales. Las IAs no son entidades neutrales: son productos humanos, moldeados por decisiones técnicas, políticas e ideológicas.
Al final, lo ocurrido con Grok no fue un fallo técnico espontáneo, sino el resultado de una intervención humana con motivaciones concretas. La pregunta que queda en el aire es: si esta IA fue concebida como una “buscadora máxima de la verdad”, ¿de quién será esa verdad?



