En Estados Unidos, la justicia se enfrenta a un nuevo reto: la proliferación de imágenes de abuso sexual infantil generadas por inteligencia artificial.
La IA generativa se ha convertido en una herramienta poderosa, capaz de generar imágenes realistas a partir de texto o prompts. Aunque su potencial es inmenso, también abre la puerta a la creación de contenido ilícito.
Este año, el Departamento de Justicia de los Estados Unidos ha presentado dos casos penales contra individuos acusados de utilizar sistemas de IA generativa para producir imágenes explícitas de menores. James Silver, el subdirector de la sección de crímenes informáticos y propiedad intelectual del Departamento de Justicia, advierte que este es solo el comienzo.
"Lo que nos preocupa es la normalización de esto", dijo Silver. "La IA facilita la generación de este tipo de imágenes, y cuanto más haya, más se normaliza. Eso es algo que realmente queremos detener y prevenir".
La facilidad con la que la IA puede generar imágenes de abuso sexual infantil ha generado una profunda preocupación en los grupos de defensa de los niños. Yiota Souras, directora jurídica del National Center for Missing and Exploited Children, destaca que este tipo de material dificulta la identificación de víctimas reales.
El National Center for Missing and Exploited Children recibe alrededor de 450 informes mensuales relacionados con IA generativa, una cifra que, si bien es pequeña en comparación con los 3 millones de informes mensuales sobre explotación infantil online que recibió el año pasado, representa una amenaza creciente.
Los fiscales y los expertos legales están explorando nuevas vías para abordar este problema. Steven Anderegg, un ingeniero de software de Wisconsin, fue acusado en mayo de transferir material obsceno por usar Stable Diffusion, un modelo de IA de texto a imagen, para generar imágenes de niños pequeños involucrados en actividades sexuales explícitas.
Anderegg se declaró inocente y busca desestimar los cargos argumentando que violan sus derechos constitucionales. Stability AI, la empresa creadora de Stable Diffusion, declaró que el caso involucra una versión del modelo de IA que se lanzó antes de que la compañía asumiera el desarrollo de Stable Diffusion.
Stability AI afirma haber realizado inversiones para prevenir "el mal uso de la IA para la producción de contenido dañino".
El caso de Anderegg no es único. Seth Herrera, un soldado del ejército de Estados Unidos, también fue acusado de delitos relacionados con pornografía infantil por usar chatbots de IA para generar imágenes de abuso sexual a partir de fotos inocentes de niños que conocía.
Estos casos plantean desafíos legales complejos. Si bien las representaciones explícitas de niños reales están cubiertas por las leyes de pornografía infantil, el panorama legal sobre la obscenidad y las imágenes generadas por IA es menos claro.
La Corte Suprema de los Estados Unidos en 2002 declaró inconstitucional una ley federal que criminalizaba cualquier representación, incluyendo imágenes generadas por computadora, que pareciera mostrar a menores involucrados en actividad sexual.
Los fiscales federales han obtenido condenas en los últimos años contra acusados que poseían imágenes sexualmente explícitas de niños que también calificaban como obscenas según la ley. Sin embargo, los casos de imágenes generadas por IA presentan un nuevo conjunto de desafíos.
Las organizaciones de defensa también están trabajando para prevenir la generación de material abusivo por parte de los sistemas de IA. Thorn y All Tech Is Human, dos grupos de defensa sin fines de lucro, lograron en abril que algunos de los principales actores de la IA, incluidos Google, Amazon, Meta Platforms, OpenAI y Stability AI, se comprometieran a evitar entrenar sus modelos con imágenes de abuso sexual infantil y a monitorear sus plataformas para prevenir su creación y difusión.
La lucha contra la explotación infantil online ha adquirido una nueva dimensión con la llegada de la IA generativa. Es un desafío que requiere la colaboración de las autoridades, las empresas tecnológicas y las organizaciones de defensa para garantizar que la tecnología no se utilice para perpetuar el abuso.