OPRO: A revolucionária proposta da DeepMind para otimizar problemas do mundo real com linguagem natural

"Diagrama gráfico de una compleja máquina y sistemas, en tonos de cian claro y azul marino, con temática de dinero, en un estilo isométrico y oscuro que evoca una sensación de amenaza, con composiciones multicapa y elementos de nube."

Introdução à Otimização por PROmpting

Em um mundo cada vez mais digitalizado, a otimização de algoritmos e processos é uma tarefa essencial. No entanto, os otimizadores derivados muitas vezes encontram dificuldades em aplicações do mundo real. Em resposta a este desafio, a DeepMind propôs uma nova técnica: a Otimização por PROmpting (OPRO). Esta se baseia no uso de Modelos de Linguagem Grande (LLM) como otimizadores. Em vez de definir o problema de otimização em termos matemáticos ou algorítmicos, ele é descrito em linguagem natural. Isso permite que o método seja adaptável e flexível, pois a descrição do problema pode ser modificada ou podem ser adicionadas instruções específicas para orientar o processo de otimização.

Funcionamento e vantagens da OPRO

O funcionamento da OPRO começa com um “meta-prompt” que inclui uma descrição do problema, exemplos, instruções e soluções anteriores. A partir desta informação, o LLM gera soluções candidatas baseadas na descrição do problema e nas soluções anteriores. Estas soluções são avaliadas e pontuadas, adicionando as ótimas ao meta-prompt para enriquecer o contexto e melhorar as futuras iterações.

As vantagens do OPRO são notáveis. A capacidade dos LLMs de entender a linguagem natural permite descrever tarefas sem a necessidade de especificações formais. Além disso, é possível especificar métricas de objetivo e instruções adicionais para orientar a otimização. Por fim, os LLMs têm a capacidade de detectar padrões no contexto, o que lhes permite identificar uma trajetória de otimização baseada nos exemplos fornecidos.

Validação e potencial do OPRO

Para validar o OPRO, a DeepMind realizou testes em dois problemas matemáticos conhecidos: a regressão linear e o “problema do vendedor viajante”. Embora os resultados obtidos não sejam a forma mais ótima de resolver esses problemas, são promissores e demonstram o potencial da técnica.

Além disso, o OPRO tem um grande potencial para otimizar os prompts dos LLMs. A saída de um modelo depende em grande parte da engenharia do prompt, e o OPRO pode ajudar a otimizar esse processo para modelos como o ChatGPT da OpenAI e o PaLM do Google.

Um exemplo de uso do OPRO é a tarefa de encontrar o prompt ideal para resolver problemas matemáticos em palavras. Através da geração e avaliação de diferentes prompts de otimização, pode-se melhorar iterativamente o desempenho até atingir a convergência.

Em testes realizados com vários LLMs das famílias PaLM e GPT, obtiveram-se resultados intrigantes que demonstram diferenças no comportamento do LLM dependendo do prompt. Isso destaca a importância de uma boa engenharia de prompt e o potencial do OPRO para melhorá-la.

Conclusão

Embora devamos evitar a antropomorfização dos LLMs, as vantagens claras do OPRO são evidentes. Esta técnica permite uma exploração sistemática do espaço de possíveis prompts de LLM. Embora ainda haja incerteza sobre como se manterá em aplicações do mundo real, tem um grande potencial para avançar em nossa compreensão de como os LLMs funcionam.

Clara é criadora e editora de conteúdo, com sólida formação em ciências e especialização em inteligência artificial. Sua paixão por este campo em constante evolução levou-a a adquirir os conhecimentos necessários para entender e comunicar os avanços mais recentes nesta área. Com sua experiência e habilidades em redação e edição de conteúdo, Clara é capaz de transmitir de maneira clara e eficaz conceitos complexos relacionados à inteligência artificial, tornando-os acessíveis a todos os tipos de públicos.

Esta entrada também está disponível em: Español Français

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *