Desaprendendo Harry Potter: O inovador método da Microsoft para apagar informações específicas em Grandes Modelos de Linguagem

Un hombre trabajando en el campo de la realidad aumentada, rodeado por un ambiente académico progresista y un diseño sostenible, con tonos de plata y azul marino.

Uma nova proposta para “desaprender” em modelos de linguagem

O uso de obras protegidas por direitos autorais para treinar modelos de linguagem de grande escala (LLM, na sigla em inglês) tem gerado um acalorado debate no campo científico e tecnológico. É viável modificar ou editar esses modelos para eliminar seu conhecimento sobre tais obras? Uma equipe da Microsoft Research afirma que sim.

Os pesquisadores Ronen Eldan e Mark Russinovich propuseram uma forma inovadora de suprimir informações específicas de um LLM. Para ilustrar sua proposta, eles mostraram como é possível apagar o conhecimento sobre a saga literária de Harry Potter no modelo Llama 2-7B, criado pela Meta.

De “aprender” a “esquecer”: uma técnica em três partes

Até agora, os modelos convencionais se concentraram em adquirir ou reforçar conhecimentos, mas não em “esquecer” ou “desaprender”. No entanto, Eldan e Russinovich projetaram uma técnica tridimensional para desaprender informações específicas em LLMs. Primeiro, eles treinam o modelo com os dados alvo – neste caso, os livros de Harry Potter – para identificar tokens relacionados. Em seguida, substituem as expressões únicas de Harry Potter por equivalentes genéricos e geram previsões alternativas. Por fim, ajustam o modelo base com essas previsões alternativas, eliminando efetivamente o texto original.

Para avaliar esse processo, eles testaram a capacidade do modelo de gerar ou debater conteúdo relacionado a Harry Potter usando 300 prompts gerados automaticamente. Descobriram que, após apenas uma hora, o modelo pode “esquecer” as tramas detalhadas da série Harry Potter.

Limitações e futuro da técnica

No entanto, esse processo apresenta certas limitações e requer mais pesquisa. A abordagem avaliativa tem suas próprias restrições e precisa de mais testes. Além disso, a técnica pode ser mais eficaz para textos fictícios do que para não fictícios. Portanto, é essencial realizar mais pesquisas para aperfeiçoar e expandir a metodologia para tarefas de desaprendizado mais extensas em LLMs.

Apesar dessas limitações, a técnica proposta por Eldan e Russinovich representa um avanço crucial para a criação de LLMs mais responsáveis, adaptáveis e compatíveis com a lei. As técnicas de esquecimento seletivo podem ajudar a garantir que os sistemas de IA permaneçam alinhados com as prioridades à medida que as necessidades mudam. Em um mundo cada vez mais digital, esse tipo de adaptabilidade será essencial para garantir que nossas tecnologias continuem úteis, relevantes e legais.

Sarah é, além de uma especialista em marketing digital, uma criadora de conteúdo com vasta experiência no campo. Graduada em Sociologia pela Universidade de Barcelona e com uma Pós-graduação em Marketing Digital pelo Inesdi, Sarah conseguiu se destacar como Diretora de Marketing Digital. Seu profundo conhecimento das tendências digitais e sua habilidade para identificar oportunidades de crescimento foram fundamentais para o sucesso de inúmeras campanhas. Além disso, ela dá aulas e palestras em prestigiosas escolas de negócios, universidades e eventos, compartilhando seus conhecimentos e experiências com outros profissionais e estudantes.

Esta entrada também está disponível em: Español Français

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *