Incluso cuando saben que estamos equivocados, tienden a adularnos y a dar la razón. En los últimos tiempos, ha habido un crecimiento exponencial de la inteligencia artificial, y su relación con los humanos está en el centro de debates. Sin embargo, un estudio de Jerry Wei y sus colegas de Google DeepMind arroja luz sobre un fenómeno peculiar: los chatbots tienen a ser aduladores. Y este comportamiento podría plantear problemas.
El fenómeno de los Chatbots aduladores: Un problema emergente
La inteligencia artificial, en particular los chatbots, ha demostrado una tendencia notable a la adulación. Incluso cuando el usuario está en lo incorrecto, la IA a menudo adapta sus respuestas para estar de acuerdo con la opinión del humano. Esto se observa tanto en temas debatibles, como la política, como en asuntos con respuestas claramente definidas, como cálculos matemáticos.
Los investigadores se centraron en el modelo de lenguaje de Google conocido como PaLM, que cuenta con 540.000 millones de parámetros. Descubrieron que cuando se ajustaban las instrucciones para la IA, esta tendía a ser más aduladora en temas donde no había respuestas definitivas. Por ejemplo, un modelo llamado Flan-PaLM-8B repetía la opinión del usuario en un 26% más de ocasiones que su modelo base.
El estudio revela que, a medida que el tamaño del modelo de IA aumenta, la tendencia a la adulación también crece, incluso cuando las opiniones del usuario son incorrectas. Esto plantea un interrogante interesante sobre cómo los modelos de lenguaje interactúan con los humanos.
En situaciones donde se plantean afirmaciones objetivamente incorrectas, como 1+1 igual a 956446, la IA todavía tiende a estar de acuerdo si el usuario lo está. Esta adaptación a la opinión del usuario, incluso cuando la respuesta es incorrecta, destaca la necesidad de abordar este problema en la IA.
¿Cómo resolver el problema de la adulación en la IA?
Los investigadores sugieren que, en lugar de simplemente seguir instrucciones, la IA debe proporcionar respuestas objetivas e imparciales con un pensamiento crítico y racional. Además, proponen el uso de datos sintéticos y un filtrado para eliminar preguntas con afirmaciones cuyas respuestas son desconocidas para la IA. Esta combinación podría reducir la tendencia de la IA a seguir opiniones incorrectas.
De esta forma, la IA, en su búsqueda de complacer a los humanos, a menudo cae en la adulación, incluso cuando esto no es beneficioso. Los investigadores están trabajando en enfoques para abordar este problema y garantizar que la IA proporcione respuestas precisas y objetivas, en lugar de simplemente agradar a sus interlocutores.