Uma nova proposta para “desaprender” em modelos de linguagem
O uso de obras protegidas por direitos autorais para treinar modelos de linguagem de grande escala (LLM, na sigla em inglês) tem gerado um acalorado debate no campo científico e tecnológico. É viável modificar ou editar esses modelos para eliminar seu conhecimento sobre tais obras? Uma equipe da Microsoft Research afirma que sim.
Os pesquisadores Ronen Eldan e Mark Russinovich propuseram uma forma inovadora de suprimir informações específicas de um LLM. Para ilustrar sua proposta, eles mostraram como é possível apagar o conhecimento sobre a saga literária de Harry Potter no modelo Llama 2-7B, criado pela Meta.
De “aprender” a “esquecer”: uma técnica em três partes
Até agora, os modelos convencionais se concentraram em adquirir ou reforçar conhecimentos, mas não em “esquecer” ou “desaprender”. No entanto, Eldan e Russinovich projetaram uma técnica tridimensional para desaprender informações específicas em LLMs. Primeiro, eles treinam o modelo com os dados alvo – neste caso, os livros de Harry Potter – para identificar tokens relacionados. Em seguida, substituem as expressões únicas de Harry Potter por equivalentes genéricos e geram previsões alternativas. Por fim, ajustam o modelo base com essas previsões alternativas, eliminando efetivamente o texto original.
Para avaliar esse processo, eles testaram a capacidade do modelo de gerar ou debater conteúdo relacionado a Harry Potter usando 300 prompts gerados automaticamente. Descobriram que, após apenas uma hora, o modelo pode “esquecer” as tramas detalhadas da série Harry Potter.
Limitações e futuro da técnica
No entanto, esse processo apresenta certas limitações e requer mais pesquisa. A abordagem avaliativa tem suas próprias restrições e precisa de mais testes. Além disso, a técnica pode ser mais eficaz para textos fictícios do que para não fictícios. Portanto, é essencial realizar mais pesquisas para aperfeiçoar e expandir a metodologia para tarefas de desaprendizado mais extensas em LLMs.
Apesar dessas limitações, a técnica proposta por Eldan e Russinovich representa um avanço crucial para a criação de LLMs mais responsáveis, adaptáveis e compatíveis com a lei. As técnicas de esquecimento seletivo podem ajudar a garantir que os sistemas de IA permaneçam alinhados com as prioridades à medida que as necessidades mudam. Em um mundo cada vez mais digital, esse tipo de adaptabilidade será essencial para garantir que nossas tecnologias continuem úteis, relevantes e legais.
Sarah é, além de uma especialista em marketing digital, uma criadora de conteúdo com vasta experiência no campo. Graduada em Sociologia pela Universidade de Barcelona e com uma Pós-graduação em Marketing Digital pelo Inesdi, Sarah conseguiu se destacar como Diretora de Marketing Digital. Seu profundo conhecimento das tendências digitais e sua habilidade para identificar oportunidades de crescimento foram fundamentais para o sucesso de inúmeras campanhas. Além disso, ela dá aulas e palestras em prestigiosas escolas de negócios, universidades e eventos, compartilhando seus conhecimentos e experiências com outros profissionais e estudantes.