La protección de la creatividad artística en la era de la inteligencia artificial ha tomado un giro ingenioso. Los artistas se han visto acosados por la apropiación no autorizada de sus obras. Por tanto han surgido herramientas como Nightshade y Glaze que permiten a los artistas proteger sus creaciones de una manera nunca antes vista, envenenando a las IAs.

Artistas luchan contra el robo de obras por IAs

Hace unos meses, Getty Images demandó a Stability AI, la empresa detrás de Stable Diffusion. Alegaron que su catálogo de imágenes había sido utilizado sin autorización para entrenar modelos de inteligencia artificial generativa. Este caso desató un debate que ha marcado gran parte del año. A pesar de la demanda, el problema persiste. Entonces, los artistas han ideado una solución ingeniosa.

Artistas luchan contra el robo de obras por IAs.

Nightshade es una nueva herramienta creada por un grupo de académicos como parte de un reciente estudio. Permite a los artistas «envenenar» sus obras. Esto significa que si alguien usa estas obras para entrenar modelos de IA generativa, las imágenes resultantes no coincidirán con las expectativas de los usuarios.

Otra herramienta llamada Glaze, desarrollada por Ben Zhao, profesor de la Universidad de Chicago, permite que los artistas «enmascaren» su estilo personal. Esto evita que las IAs generativas plagien sus creaciones.

Glaze introduce cambios sutiles e invisibles para el ojo humano en los píxeles de las imágenes. A pesar de ser imperceptibles para las personas, estos cambios confunden los modelos de aprendizaje automático y los llevan a interpretar la imagen de manera diferente a su representación original.

Corrompiendo el proceso de entrenamiento

Estas herramientas aprovechan la forma en que los modelos de IA se entrenan con enormes cantidades de datos. Las imágenes modificadas generan confusión en este proceso de entrenamiento. Por lo tanto, los artistas pueden compartir sus obras en línea y protegerlas contra empresas que las utilizan para mejorar sus modelos.

Nightshade y Glaze hacen que los modelos funcionen de manera defectuosa. Al solicitarles una imagen específica, pueden generar algo completamente diferente. Este comportamiento errático afecta negativamente su utilidad. Eliminar las imágenes alteradas es un desafío, ya que las empresas que las utilizan deben identificarlas y eliminarlas por separado.

A pesar de su utilidad, estas herramientas podrían emplearse con fines maliciosos. No obstante, se necesitarían miles de imágenes alteradas y modelos de IA muy potentes para llevar a cabo una acción perjudicial de este tipo. Los expertos sugieren la implementación de defensas tanto para estas herramientas como para los grandes modelos que podrían estar utilizando imágenes sin permiso.

El misterio de la formación de IAs generativas

Este problema subraya una cuestión más amplia relacionada con la IA generativa. Modelos como ChatGPT y Stable Diffusion se entrenan con conjuntos masivos de datos, pero no siempre se sabe con certeza qué obras o autores han contribuido a este proceso. Las críticas y demandas están en aumento, y la solución a esta creciente brecha entre quienes proporcionan estos modelos y los creadores de contenidos no se vislumbra con claridad.

En este sentido, los artistas están luchando contra la apropiación no autorizada de sus obras por parte de IAs generativas. Herramientas como Nightshade y Glaze les permiten proteger sus creaciones al confundir deliberadamente los modelos de IA. A pesar de sus posibles usos maliciosos, estas herramientas han abierto un nuevo capítulo en la batalla por la protección de la creatividad artística en la era de la inteligencia artificial.

Via MIT.