La inteligencia artificial no está exenta de sesgos, y una nueva investigación revela que ChatGPT, el famoso chatbot, presenta un marcado y sistemático sesgo de izquierda. Investigadores del Reino Unido han desenterrado esta tendencia política en el popular sistema de IA.

Sesgo político de izquierda en ChatGPT: un vistazo revelador

Un estudio reciente realizado en la Universidad de East Anglia arroja luz sobre la inclinación izquierdista de ChatGPT. Este sesgo se extiende a su favoritismo hacia el Partido Laborista y los demócratas liderados por el presidente Joe Biden en EE.UU.

El debate sobre posibles sesgos políticos en ChatGPT no es nuevo. El empresario Elon Musk, detrás de empresas como SpaceX y Tesla, había planteado preocupaciones al respecto anteriormente, así como sus preocupaciones sobre la IA en general. Sin embargo, el estudio de la Universidad de East Anglia marca la primera investigación a gran escala que respalda estas inquietudes.

ChatGPT con sesgo a la izquierda

El Dr. Fabio Motoki, autor principal del estudio, advierte sobre las repercusiones de este hallazgo, especialmente a medida que el público utiliza cada vez más la plataforma de OpenAI. Estas inclinaciones pueden influir en las próximas elecciones tanto en el Reino Unido como en EE.UU., lo que subraya la importancia de comprender y abordar estos sesgos.

La neutralidad es crucial en plataformas como ChatGPT. El Dr. Motoki recalca que, aunque estos modelos de IA generan respuestas aparentemente creíbles, son solo máquinas. Su capacidad para proporcionar información precisa puede ser cuestionable, y esto tiene implicaciones importantes dada la influencia que pueden ejercer en el público.

Explorando el método: descubriendo el sesgo

El estudio abordó el sesgo de ChatGPT mediante un experimento cuidadosamente diseñado. El chatbot fue sometido a una variedad de preguntas ideológicas, pretendiendo que asumiera perspectivas de diferentes puntos del espectro político. Estas respuestas se compararon con las predeterminadas para evaluar la relación con ciertas posturas políticas.

Cada una de las más de 60 preguntas fue presentada al chatbot en 100 ocasiones para mitigar cualquier variabilidad aleatoria en sus respuestas. El análisis minucioso de estas múltiples respuestas permitió a los investigadores detectar patrones de sesgo en las respuestas generadas por la máquina.

El Dr. Motoki comparó este enfoque con una encuesta en una población humana real, donde las respuestas pueden variar según el momento. Esto ilustra cómo incluso la inteligencia artificial busca simular y reflejar patrones humanos.

El estudio de la Universidad de East Anglia plantea cuestionamientos cruciales sobre el uso de IA en la generación de respuestas. La transparencia y la comprensión de estas inclinaciones políticas son esenciales para garantizar que la tecnología no influya indebidamente en la opinión pública.

Vía. Sky News