O Lado Sinistro da IA: Criminosos Usam Inteligência Artificial para Gerar Imagens Ultrarrealistas de Abuso Sexual Infantil

Una persona trabajando en un escritorio durante la noche en una oficina oscura, capturada en un estilo artístico de intrusión mediática, con la estética de una fotografía de National Geographic, evocando la monotonía suburbana, con gráficos similares a los de Xbox 360 y la perspectiva de una cámara de seguridad, en una foto mate con iluminación alta.

O uso indevido da Inteligência Artificial na exploração infantil

Na era digital contemporânea, os especialistas alertam para uma tendência preocupante: o uso da inteligência artificial (IA) para produzir imagens hiper-realistas de abuso sexual infantil. Os criminosos estão usando modelos gerativos de IA de código aberto para criar e disseminar essas imagens, o que levanta sérias preocupações sobre o potencial desta tecnologia para facilitar a exploração infantil.

Achados alarmantes na rede

De acordo com um relatório recente da Internet Watch Foundation (IWF), foram identificadas sete URLs com material suspeito gerado por IA. Além disso, uma investigação em um fórum da dark web revelou cerca de 3.000 imagens geradas por IA que são consideradas ilegais sob a lei do Reino Unido. O conteúdo dessas imagens é arrepiante, incluindo violações a bebês e crianças pequenas, abuso de crianças famosas pré-adolescentes e conteúdo BDSM com adolescentes.

O relatório também destaca o uso indevido de celebridades neste material. Os criminosos estão manipulando digitalmente as imagens para fazer as celebridades parecerem crianças ou parecerem estar abusando de crianças. Este uso indevido das imagens de celebridades é apenas mais um exemplo do alcance alarmante desta nova forma de exploração.

A crescente ameaça das falsificações convincentes

A velocidade com que esta tecnologia está se desenvolvendo e seu potencial para gerar novos tipos de imagens abusivas é motivo de grande preocupação. Observou-se um aumento na quantidade de imagens geradas por IA em comparação com as imagens reais encontradas online. Esta descoberta é consistente com os relatórios de outros grupos que investigam a propagação do material de abuso sexual infantil (CSAM) online.

Os geradores de imagens de IA estão sendo usados para criar falsificações convincentes. Estes modelos são treinados com grandes volumes de imagens existentes, muitas vezes obtidas sem permissão. Os criminosos fazem referências frequentes ao Stable Diffusion, um modelo de IA fornecido pela Stability AI, e utilizam versões antigas de modelos de IA que ajustam para criar material ilegal.

A criação e distribuição dessas imagens é um processo perturbadoramente simples. Os criminosos alimentam o modelo com imagens de abuso existentes ou fotos de rostos para criar imagens específicas. Em seguida, eles trocam novas imagens de vítimas existentes e fazem solicitações sobre indivíduos específicos. Nos fóruns da dark web, existem tópicos que compartilham conjuntos de rostos de vítimas.

A necessidade urgente de regulamentações mais rigorosas

Este uso indevido e perturbador da tecnologia IA sublinha a necessidade urgente de regulamentações mais rigorosas e medidas preventivas para proteger as crianças. É imperativo que as autoridades, as empresas de tecnologia e a sociedade em geral tomem medidas para combater esta nova forma de exploração infantil.

Sandra é especialista em marketing digital e experta em redes sociais. Ela completou uma pós-graduação em Comunicação e RP para marcas de moda no Idep Barcelona, além de outra em Marketing e reputação online: comunidades virtuais. Sandra está a par das últimas tendências e melhores práticas em redes sociais, e isso se reflete em seu trabalho diário, gerando um impacto positivo no mundo digital.

Esta entrada também está disponível em: Español Français

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *