La inteligencia artificial vuelve a estar en el centro del debate tras un grave incidente protagonizado por Grok, el chatbot de xAI, la empresa fundada por Elon Musk. En los últimos días, por una modificación no autorizada, usuarios de la plataforma X notaron que Grok respondía con mensajes sobre un supuesto “genocidio blanco en Sudáfrica”.
Una modificación no autorizada provocó respuestas polémicas de Grok
La empresa xAI explicó que el problema se originó por un cambio no autorizado en el system prompt, que son las instrucciones que definen cómo debe actuar el bot.

Esta modificación dirigía a Grok a emitir una respuesta específica sobre un tema político sensible. La empresa reconoció que esta alteración violó sus políticas internas y anunció una investigación para aclarar lo sucedido.
Cambios en las instrucciones internas del sistema provocaron el incidente
El incidente dejó en evidencia que las instrucciones que rigen el comportamiento del bot pueden ser vulnerables a manipulaciones internas. Un cambio en este componente fue suficiente para desatar respuestas polémicas de forma masiva. Esto demuestra la importancia de tener controles estrictos sobre el acceso a estas funciones críticas.
Antecedentes: La modificación no autorizada en Grok respecto a Trump y Musk
No es la primera vez que ocurre algo similar. En febrero, Grok fue modificado para omitir críticas hacia Donald Trump y Elon Musk. Un ingeniero de xAI admitió que un empleado actuó por su cuenta, algo que la empresa corrigió tras recibir quejas.
Medidas para reforzar la seguridad del sistema
Como respuesta, xAI anunció nuevas medidas: publicará sus instrucciones base en GitHub, controlará quién puede modificarlas y establecerá un equipo de monitoreo permanente para evitar futuros errores.
Preocupaciones por el historial de seguridad de xAI
A pesar de las advertencias de Musk sobre los peligros de la IA, xAI ha mostrado fallos importantes en seguridad. Informes recientes también revelaron que Grok puede generar contenido inapropiado, y organizaciones independientes lo ubican entre los sistemas de IA menos seguros del sector.
El caso Grok por una modificación no autorizada, demuestra que una IA sin supervisión adecuada puede convertirse en un riesgo serio. xAI deberá actuar con mayor transparencia y responsabilidad si quiere recuperar la confianza del público y garantizar el uso seguro de sus tecnologías.
Vía TechCrunch






