La Siniestra Cara de la IA: Delincuentes Utilizan Inteligencia Artificial para Generar Imágenes Ultrarrealistas de Abuso Sexual Infantil

Una persona trabajando en un escritorio durante la noche en una oficina oscura, capturada en un estilo artístico de intrusión mediática, con la estética de una fotografía de National Geographic, evocando la monotonía suburbana, con gráficos similares a los de Xbox 360 y la perspectiva de una cámara de seguridad, en una foto mate con iluminación alta.

El uso indebido de la Inteligencia Artificial en la explotación infantil

En la era digital contemporánea, los expertos alertan sobre una tendencia inquietante: el empleo de la inteligencia artificial (IA) para producir imágenes hiperrealistas de abuso sexual infantil. Los delincuentes están utilizando modelos generativos de IA de código abierto para crear y difundir estas imágenes, lo que suscita serias preocupaciones sobre el potencial de esta tecnología para facilitar la explotación infantil.

Hallazgos alarmantes en la red

Según un informe reciente de la Internet Watch Foundation (IWF), se han identificado siete URL con material sospechoso generado por IA. Asimismo, una investigación en un foro del dark web reveló cerca de 3,000 imágenes generadas por IA que se consideran ilegales bajo la ley del Reino Unido. El contenido de estas imágenes es escalofriante, incluyendo violaciones a bebés y niños pequeños, abuso a niños famosos preadolescentes y contenido BDSM con adolescentes.

El informe también resalta el uso indebido de celebridades en este material. Los delincuentes están manipulando digitalmente las imágenes para hacer que las celebridades parezcan niños o que parezcan estar abusando de niños. Este uso indebido de las imágenes de celebridades es solo un ejemplo más del alcance alarmante de esta nueva forma de explotación.

La creciente amenaza de las falsificaciones convincentes

La velocidad a la que se está desarrollando esta tecnología y su potencial para generar nuevos tipos de imágenes abusivas es motivo de gran preocupación. Se ha observado un aumento en la cantidad de imágenes generadas por IA en comparación con las imágenes reales encontradas en línea. Este hallazgo es consistente con los informes de otros grupos que investigan la propagación del material de abuso sexual infantil (CSAM) en línea.

Los generadores de imágenes de IA se están utilizando para crear falsificaciones convincentes. Estos modelos se entrenan con grandes volúmenes de imágenes existentes, a menudo obtenidas sin permiso. Los delincuentes hacen referencias frecuentes a Stable Diffusion, un modelo de IA proporcionado por Stability AI, y utilizan versiones antiguas de modelos de IA que ajustan para crear material ilegal.

La creación y distribución de estas imágenes es un proceso perturbadoramente sencillo. Los delincuentes alimentan el modelo con imágenes de abuso existentes o fotos de rostros para crear imágenes específicas. Luego intercambian nuevas imágenes de víctimas existentes y hacen solicitudes sobre individuos específicos. En los foros del dark web, hay hilos que comparten conjuntos de rostros de víctimas.

La necesidad urgente de regulaciones más estrictas

Este uso indebido y perturbador de la tecnología IA subraya la necesidad urgente de regulaciones más estrictas y medidas preventivas para proteger a los niños. Es imperativo que las autoridades, las empresas tecnológicas y la sociedad en general tomen medidas para combatir esta nueva forma de explotación infantil.

Sandra es especialista en marketing digital y experta en redes sociales. Ha completado un posgrado en Comunicación y RRPP de marcas de moda en Idep Barcelona, así como otro en Marketing y reputación online: comunidades virtuales. Sandra está al tanto de las últimas tendencias y mejores prácticas en redes sociales, y eso se refleja en su trabajo diario generando un impacto positivo en el mundo digital.

Esta entrada también está disponible en: Français Português

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *