La Unión Europea (UE) se encuentra en la fase final de su plan de regulaciones de la inteligencia artificial (IA), conocida como el «AI Act». Este acto presenta una clasificación única de sistemas de IA en tres niveles de rendimiento. Cada nivel está sujeto a diferentes restricciones para garantizar un uso responsable de la tecnología.
Regulaciones de la UE basadas en el rendimiento de la IA
En el borrador del AI Act, se proponen tres categorías de sistemas de IA. La primera comprende los modelos fundamentales, como GPT-4 o PaLM 2, que forman la base de muchas aplicaciones prácticas. La segunda categoría incluye sistemas «altamente capaces», que se someterán a evaluaciones exhaustivas realizadas por expertos externos.
Los modelos se clasificarán según la potencia de cálculo utilizada para su entrenamiento, medida en FLOPS. La tercera categoría abarca sistemas de IA a gran escala y propósito general, que se clasificarán según el número de usuarios. Si superan los 10,000 usuarios empresariales o 45 millones de usuarios registrados, se considerarán parte de esta categoría.
Cada categoría de sistemas de IA deberá cumplir con ciertas normas y medidas de seguridad. Los desarrolladores de IA deben documentar sus modelos y procesos de entrenamiento. Se requerirá un análisis de seguridad para detectar y prevenir malos comportamientos, así como una gestión de conflictos de derechos de autor.
Los sistemas «altamente capaces» se someterán a pruebas exhaustivas de seguridad realizadas por expertos externos designados por la AI Office de la UE. Los sistemas de IA a gran escala y propósito general también estarán sujetos a análisis de seguridad externos y deberán crear informes de riesgos y medidas para minimizarlos.
El AI Act establece que, en caso de incumplimiento de las regulaciones, se podría suspender el modelo como última medida. La AI Office de la UE será responsable de recopilar la documentación, llevar a cabo pruebas de cumplimiento y realizar investigaciones en caso de incumplimiento. Esta regulación se debatirá en la próxima semana y se espera que la redacción final se complete a finales de año.
Aunque la regulación es necesaria para garantizar un uso responsable de la IA, existe la preocupación de que regulaciones demasiado restrictivas puedan ralentizar el desarrollo y la implementación de sistemas de IA en la UE. Esto podría dejar a Europa rezagada en la próxima revolución tecnológica en comparación con regiones como Estados Unidos o China, que podrían optar por regulaciones más flexibles. Además, el software de código abierto podría verse afectado negativamente por estas regulaciones.
Via Bloomberg.