El uso de IA de código abierto está siendo explotado por pedófilos para crear contenido de abuso sexual infantil (CSAI), advierte una organización de seguridad. Los delincuentes discuten cómo manipular fotos de niños famosos o víctimas conocidas para generar nuevo material.

La IA en el abuso infantil: Un oscuro uso de la tecnología

La Internet Watch Foundation (IWF) ha revelado que foros en línea utilizados por delincuentes sexuales están debatiendo el uso de modelos de IA de código abierto para crear material ilegal. Esto plantea preocupaciones significativas, ya que los modelos de código abierto pueden descargarse y modificarse por parte de los usuarios, a diferencia de herramientas de modelos cerrados, como Dall-E de OpenAI o Imagen de Google.

La IA en el abuso infantil: Un oscuro uso de la tecnología

Dan Sexton, director de tecnología de la IWF, revela que los foros en la web oscura discuten qué modelos de código abierto usar y cómo lograr imágenes más realistas. El contenido generado, según la IWF, utiliza software de código abierto que ha sido descargado y modificado localmente en las computadoras de los delincuentes. Este enfoque hace que sea más difícil de detectar y combatir.

El problema de las imágenes hiperrealistas

La IWF también teme que las imágenes hiperrealistas de CSAI dificulten la identificación y la asistencia a víctimas reales. Además, el potencial volumen de estas imágenes podría llevar a una mayor difusión y consumo de CSAI.

En junio, la BBC informó que Stable Diffusion, un generador de imágenes de IA de código abierto, se estaba utilizando para crear imágenes de abuso a partir de indicaciones de texto escritas por humanos. Esta tecnología fue discutida en comunidades en línea de delincuentes.

La IA de código abierto es importante para democratizar la IA, pero también presenta el riesgo de ser mal utilizada. Aunque las empresas que crean estas tecnologías suelen prohibir su uso para fines ilegales o inmorales, la facilidad con la que se pueden acceder y modificar los modelos de código abierto plantea un desafío en términos de regulación.

Haciendo frente a la amenaza

El gobierno del Reino Unido se está preparando para abordar esta amenaza en su proyecto de ley de seguridad en línea. Según un portavoz del gobierno, la CSAI generada por IA estará cubierta por esta legislación, y las plataformas de redes sociales deberán prevenir su aparición en sus servicios.

La lucha contra el CSAI generado por IA presenta desafíos significativos. La proliferación de modelos de código abierto y su capacidad de modificación hacen que sea difícil de contener. En un mundo donde la IA avanza rápidamente, la necesidad de regulaciones efectivas y la cooperación de la industria es más apremiante que nunca.

Via The Guardian.