El G7, el grupo de las siete economías más desarrolladas del mundo, ha llegado a un acuerdo trascendental en el ámbito de la inteligencia artificial (IA). Después de enfrentar visiones opuestas, Japón ha propuesto una solución intermedia denominada el 'Proceso de Hiroshima sobre IA' para regular la IA a nivel global. Este proceso ha sido aceptado y respaldado por los líderes del G7.

Reglas globales para la IA: El "Proceso de Hiroshima" de Japón

El proceso de toma de decisiones en el G7 sobre la regulación de la IA ha sido complejo. Estados Unidos abogaba por un enfoque menos restrictivo, mientras que países europeos como Francia y Alemania promovían una regulación más rigurosa. La solución llegó cuando Japón propuso el 'Proceso de Hiroshima sobre IA', una regulación intermedia que aborda preocupaciones clave, como el uso indebido de datos personales y problemas de copyright.

Reglas globales para la IA: El "Proceso de Hiroshima" de Japón.

El acuerdo del G7 implica el establecimiento de un "Código de Conducta para la IA", que establece pautas que las empresas y desarrolladores de IA deben seguir. Estas reglas incluyen:

  1. Identificar, evaluar y mitigar riesgos antes y durante la implementación de la IA.
  2. Abordar vulnerabilidades y usos indebidos de la tecnología.
  3. Proporcionar transparencia sobre limitaciones y usos inapropiados.
  4. Compartir información de manera responsable con otras organizaciones.
  5. Implementar medidas de protección de datos personales y propiedad intelectual.

El G7 reconoce el potencial innovador y transformador de la IA, pero también la necesidad de proteger a individuos y a la sociedad. Para implementar este código de conducta, el G7 se asociará con organismos internacionales como la Alianza Global sobre IA y la OCDE. Se espera que otros países, incluida España, se unan a estos esfuerzos y contribuyan a establecer estas reglas a nivel mundial.

El papel de Europa y EE.UU

Europa desempeñó un papel crucial en la negociación del acuerdo. La Unión Europea ya ha establecido su propia regulación, conocida como la AI Act, que establece directrices que han influido en el "Código de Conducta para la IA". Mientras la AI Act es una regulación legal, el acuerdo del G7 se basa en un conjunto de reglas y recomendaciones voluntarias.

De manera simultánea al acuerdo del G7, la Administración Biden ha emitido una orden ejecutiva para regular la IA. Esta orden es equivalente al "Código de Conducta" en términos de privacidad y seguridad, pero, a diferencia de la regulación europea, es de naturaleza voluntaria.

El "Código de Conducta" no es una ley, sino un conjunto de recomendaciones voluntarias. Esto significa que no se impondrá a empresas como OpenAI, Google, Meta o Microsoft el cumplir con estas reglas. Sin embargo, se espera que estas empresas privadas consideren la posibilidad de firmar el acuerdo y cumplir con las pautas.

Via European Commission.