La inteligencia artificial sigue generando controversias, y en esta ocasión, Grok AI, el chatbot desarrollado por xAI, ha sido el centro de un gran debate. Recientemente, Grok dijo que tanto Donald Trump, como el propio fundador de xAI, Elon Musk, merecían la pena de muerte.

Investigación sobre la respuesta de Grok sobre la pena de muerte

Elon Musk, a través de su empresa xAI, se encuentra investigando por qué Grok AI generó respuestas tan controversiales sobre la pena de muerte. De acuerdo con xAI, el problema ya fue identificado y corregido, lo que impide que el chatbot vuelva a emitir este tipo de juicios.

Elon Musk IA
Foto de Gonzalo Fuentes

Cómo se obtuvo la respuesta de Grok

El problema fue descubierto cuando algunos usuarios realizaron preguntas específicas con una estructura particular. Al solicitar a Grok que mencionara a una persona viva en Estados Unidos que mereciera la pena de muerte, sin considerar la opinión del usuario, la IA inicialmente respondió con el nombre de Jeffrey Epstein.

Sin embargo, al indicarle que Epstein ya había fallecido, el chatbot cambió su respuesta a «Donald Trump». Esto encendió las alarmas sobre la forma en que Grok generaba sus respuestas.

Grok también mencionó la pena de muerte para Elon Musk

La situación se volvió aún más impactante cuando se reformuló la pregunta para centrarse en la influencia sobre el discurso público y la tecnología. En esta ocasión, Grok respondió con el nombre de «Elon Musk,» lo que generó un debate aún mayor, ya que el propio Musk es el creador de la tecnología que hizo esa afirmación.

Comparación con ChatGPT

Para analizar la gravedad del problema, se realizó la misma consulta en ChatGPT, el chatbot de OpenAI. Sin embargo, a diferencia de Grok, ChatGPT se negó a proporcionar un nombre, argumentando que hacer una afirmación de este tipo era «tanto éticamente como legalmente problemático».

openai - anuncios - chatgpt - ia

Esta diferencia en la moderación de respuestas puso en evidencia la falta de filtros en Grok y resaltó la importancia de implementar controles más estrictos en las IA conversacionales.

Corrección del problema

Tras el revuelo generado, xAI tomó medidas inmediatas para corregir la situación. Se realizó una actualización en Grok para evitar que diera respuestas similares en el futuro. Ahora, si se le pregunta quién merece la pena de muerte, el chatbot responderá que, como inteligencia artificial, no puede tomar esa decisión.

Igor Babuschkin, líder de ingeniería en xAI, calificó la respuesta original de Grok como un «fracaso realmente terrible y malo», dejando claro que la empresa está trabajando en mejorar los mecanismos de control.

Este incidente con Grok AI respecto a la pena de muerte, ha puesto sobre la mesa la importancia de regular y supervisar el funcionamiento de las inteligencias artificiales. La capacidad de estas tecnologías para influir en la opinión pública y generar respuestas inadecuadas plantea serios desafíos éticos.

Vía The Verge