O desafio de controlar a inteligência artificial em código aberto
O consultor de inteligência artificial (IA), Reuven Cohen, tem usado imagens geradas por IA para conscientizar sobre os usos obscuros da tecnologia. A tecnologia de geração de imagens de código aberto permitiu a criação de imagens explícitas usadas para assédio. Um exemplo recente desse uso indevido foi a disseminação de imagens não consentidas da cantora Taylor Swift, o que levou a Microsoft a adicionar novos controles ao seu gerador de imagens.
Os modelos de código aberto, que podem ser utilizados por qualquer um e geralmente não têm restrições, apresentam um desafio em termos de controle. Apesar dos esforços de alguns membros da comunidade para desencorajar usos exploratórios, o livre arbítrio do código aberto é quase impossível de controlar.
O lado obscuro da IA: abuso de imagens falsas e pornografia não consentida
Henry Ajder, pesquisador de usos prejudiciais da IA gerativa, afirma que o código aberto tem impulsionado o abuso de imagens falsas e pornografia não consensual. Algumas ferramentas baseadas em algoritmos de código aberto são projetadas para usos lascivos ou de assédio.
Muitas dessas ferramentas de IA têm um uso dual. Elas podem servir tanto para usos legítimos quanto para assédio. Um popular programa de troca de rostos de código aberto é usado na indústria do entretenimento e como a “ferramenta de escolha para os malfeitores” que fazem deepfakes não consensuais.
Proteções e desafios no uso de ferramentas de IA
Um exemplo de uma ferramenta de IA com proteções é o gerador de imagens de alta resolução Stable Diffusion, desenvolvido pela Stability AI. Com mais de 10 milhões de usuários, possui proteções para prevenir a criação de imagens explícitas. A empresa também lançou uma versão de código aberto do gerador de imagens em 2022 que é personalizável.
Os modelos de IA menores, conhecidos como LoRAs, facilitam o ajuste de um modelo Stable Diffusion para produzir imagens com um estilo, conceito ou pose específica. Eles estão amplamente disponíveis em mercados de modelos de IA como o Civitai.
Entretanto, uma vez que o modelo é baixado, seu uso está fora do controle do criador. Um criador de um plugin de Taylor Swift pediu aos outros para não usá-lo para imagens NSFW, mas não conseguiu controlar seu uso uma vez baixado.
O uso de programas e modelos de IA para imagens sexuais é um problema crescente. 4chan, um site de fóruns de discussão baseado em imagens, hospeda páginas dedicadas à pornografia deepfake não consensual feita com programas e modelos de IA abertamente disponíveis.
Apesar desses desafios, há tentativas de resistência às imagens pornográficas e maliciosas. Alguns usuários em comunidades dedicadas à criação de imagens de IA, incluindo Reddit e Discord, tentam resistir à onda de imagens pornográficas e maliciosas. Os criadores também expressam preocupação com a reputação do software para imagens NSFW, incentivando outros a denunciar imagens que representam menores no Reddit e em sites de hospedagem de modelos.
Em resumo, enquanto a IA e o código aberto oferecem oportunidades incríveis para a criatividade e a inovação, também apresentam desafios significativos em termos de controle e uso indevido. É essencial que a comunidade de IA continue trabalhando para encontrar formas de prevenir e combater esses usos obscuros da tecnologia.
Clara é criadora e editora de conteúdo, com sólida formação em ciências e especialização em inteligência artificial. Sua paixão por este campo em constante evolução levou-a a adquirir os conhecimentos necessários para entender e comunicar os avanços mais recentes nesta área. Com sua experiência e habilidades em redação e edição de conteúdo, Clara é capaz de transmitir de maneira clara e eficaz conceitos complexos relacionados à inteligência artificial, tornando-os acessíveis a todos os tipos de públicos.