El uso de IA ha suscitado preocupaciones significativas sobre la presencia de sesgos raciales y discriminatorios en los algoritmos implementados por el gobierno. En respuesta, se ha propuesto la creación de un registro público que permita monitorear el uso de estas herramientas, con el fin de mitigar «la IA racista en el Reino Unido».
Publicación de herramientas de IA del gobierno en el Reino Unido
La creciente desconfianza en torno a la inteligencia artificial en el sector público ha llevado a las autoridades británicas a anunciar la publicación de un registro público. En este se documentarán las herramientas de IA y algoritmos utilizados por el gobierno central.
Este esfuerzo responde a las advertencias de que estas tecnologías podrían contener sesgos raciales profundamente arraigados y otros tipos de discriminación. El registro incluirá detalles sobre las aplicaciones de estas herramientas empleadas en áreas sensibles.
Ejemplos de sesgo en algoritmos del gobierno: «La IA racista en Reino Unido»
La preocupación por los sesgos raciales en la IA no es infundada. Un ejemplo claro de este problema se presentó en agosto de 2020. En ese año el Ministerio del Interior del Reino Unido suspendió el uso de un algoritmo utilizado para procesar solicitudes de visa.
Este algoritmo fue acusado de discriminar a solicitantes basándose en su nacionalidad. Otorgaba automáticamente calificaciones de riesgo «rojas» a ciertas nacionalidades. Así, resultaba en una mayor probabilidad de denegación de visas.
Este caso y otros similares han generado una mayor conciencia sobre los peligros de la discriminación algorítmica. Por ello, hay una necesidad de herramientas que permitan monitorear y corregir estos sesgos antes de que causen daño.
Victoria para los activistas respecto a la lucha de mayor control sobre la IA
El establecimiento de este registro representa una importante victoria para los activistas que han luchado por un mayor control sobre la implementación de la IA en el gobierno.
A medida que se prevé un despliegue aún mayor de estas tecnologías en el sector público, organizaciones como el Public Law Project (PLP) han destacado la falta de transparencia en el uso de sistemas automatizados que pueden afectar la vida de las personas.
Cumplimiento obligatorio del estándar de transparencia algorítmica
A raíz de las crecientes críticas, el gobierno británico ha hecho obligatorio el cumplimiento del estándar de transparencia algorítmica para todos los departamentos gubernamentales.
Esto significa que cualquier uso de IA por parte de las agencias gubernamentales deberá ser reportado y registrado de acuerdo con las nuevas directrices. El Departamento de Ciencia, Innovación y Tecnología (DSIT) ha confirmado que se publicarán nuevos registros en breve, con el objetivo de expandir la adopción del estándar a lo largo del sector público.
La «IA racista en el Reino Unido» pone de manifiesto los desafíos de integrar tecnología avanzada en la administración pública de manera que se respete la justicia y se eviten los sesgos discriminatorios. Por ello, la creación de un registro público es un paso positivo hacia una mayor transparencia.
Vía The Guardian