Nightshade: A ferramenta que ‘envenena’ a arte para protegê-la da Inteligência Artificial

Una mujer trabajando en estatuas de arcilla en un estudio, con un estilo inspirado en ilustraciones científicas y motivos de calaveras, en una atmósfera de academia gris y desconstructiva inspirada en la biología marina.

A Inteligência Artificial e o conflito com os direitos autorais

O uso crescente da Inteligência Artificial (IA) em diversas indústrias tem gerado um aumento na oposição contra empresas como a OpenAI, acusadas de usar dados de treinamento sem autorização. Artistas e gravadoras têm apresentado ações judiciais pelo uso não autorizado de seu trabalho para treinar produtos comerciais de IA, alegando que essa prática permite a criação de trabalhos concorrentes através da IA. Os conjuntos de dados usados para treinar os modelos de IA geralmente incluem material obtido da web, o que tem gerado um conflito com os artistas que veem seu trabalho usado sem permissão.

Nightshade: uma nova ferramenta para proteger os direitos dos artistas

No entanto, uma nova ferramenta chamada Nightshade pode mudar o cenário. Desenvolvida por pesquisadores da Universidade de Chicago, Nightshade permite aos artistas “envenenar” sua arte para os modelos de IA que procuram treinar com ela. A ferramenta altera os pixels de uma forma invisível ao olho humano, mas detectável pela IA.

O funcionamento do Nightshade é simples, mas eficaz: faz com que os modelos de IA aprendam nomes incorretos para os objetos e cenas que estão observando. Por exemplo, imagens envenenadas de cães aparecem como gatos para um modelo de IA.

Os resultados e o futuro promissor do Nightshade

Os resultados do uso do Nightshade são surpreendentes. Depois de aprender a partir de 50 amostras envenenadas, a IA começou a gerar imagens estranhas. Com 100 amostras, gerava um gato quando se pedia um cão e vice-versa com 300 amostras.

Defender-se contra o Nightshade não é tarefa fácil. Requer que os desenvolvedores do modelo eliminem as imagens com pixels envenenados, o que é difícil de detectar. Além disso, as imagens envenenadas já ingeridas para um conjunto de dados de treinamento também precisariam ser detectadas e eliminadas.

O objetivo dos pesquisadores com o Nightshade é ajudar a equilibrar o poder entre as empresas de IA e os artistas. Eles buscam criar um poderoso dissuasor contra o desprezo pelos direitos autorais e a propriedade intelectual dos artistas.

Os próximos passos para o Nightshade incluem a apresentação de um artigo sobre a ferramenta para revisão por pares na conferência de segurança da informação Usenix. Sem dúvida, essa ferramenta inovadora poderia mudar a maneira como as empresas de IA usam os dados de treinamento e proteger os direitos dos artistas no processo.

Susana é uma profissional destacada em marketing e comunicação, criadora de conteúdo e especialista em SEO. Ela é formada em Psicologia pela Universidade de Santiago de Compostela e tem um mestrado em Marketing e Comportamento do Consumidor pela Universidade de Granada e Universidade de Jaén. Além disso, compartilhou seus conhecimentos através de conferências e workshops. Com ampla experiência em estratégias de marketing e comunicação, Susana conseguiu otimizar a visibilidade e o posicionamento das marcas através de técnicas de SEO.

Esta entrada também está disponível em: Español Français

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *