GPT-4: A nova ferramenta de cibercriminalidade. Um estudo da Universidade de Illinois revela seu potencial para explorar vulnerabilidades

O potencial da Inteligência Artificial na Cibercriminalidade

Um recente estudo realizado por pesquisadores da Universidade de Illinois em Urbana-Champaign (UIUC) revelou o potencial da inteligência artificial, em particular do modelo GPT-4, como ferramenta para cibercriminosos.

Os Modelos de Linguagem de Aprendizado Automático (LLM) como o GPT-4 estão se mostrando cada vez mais poderosos, com aplicações tanto benignas quanto maliciosas. De acordo com o estudo, o GPT-4 conseguiu explorar 87% das 15 vulnerabilidades de dia zero coletadas pelos pesquisadores, evidenciando seu potencial para ser usado em ciberataques.

Comparação com outros Modelos de Inteligência Artificial

Em comparação com versões anteriores como o GPT-3.5 e outros modelos de código aberto, o GPT-4 provou ser superior na exploração de vulnerabilidades. No entanto, ainda há incerteza sobre o potencial de modelos mais recentes como o Claude 3 ou Gemini 1.5 Pro para realizar a mesma tarefa.

Automação de Ataques e Custo de Exploração

O estudo também revelou como os LLMs podem ser usados para automatizar ataques a sites por meio de chatbots. O GPT-4 pode realizar autonomamente as etapas necessárias para executar certos exploits, o que poderia facilitar o trabalho dos cibercriminosos.

Em termos de segurança, os pesquisadores descobriram que limitar os detalhes disponíveis nos CVEs (Common Vulnerabilities and Exposures) reduz a eficácia do GPT-4 para explorar vulnerabilidades. No entanto, isso levanta um debate sobre a sustentabilidade da segurança através da obscuridade.

O custo de usar a inteligência artificial para criar exploits também foi analisado no estudo. O custo médio por exploit usando GPT-4 foi de 8,80 dólares, um valor significativamente menor do que o que seria contratar um desenvolvedor humano.

Conclusões e Recomendações

A OpenAI, organização por trás do GPT-4, pediu aos pesquisadores que não revelassem os prompts usados no experimento para evitar seu uso indevido. Apesar disso, os pesquisadores se ofereceram para fornecer os prompts a quem os solicitar, embora alertem que eles podem não funcionar mais.

Em conclusão, o estudo da UIUC revela o potencial do GPT-4 e outros modelos de inteligência artificial para serem usados em cibercrimes. Essa descoberta destaca a necessidade de uma abordagem mais rigorosa e consciente em relação à segurança e à ética no desenvolvimento e uso da inteligência artificial.

Susana é uma profissional destacada em marketing e comunicação, criadora de conteúdo e especialista em SEO. Ela é formada em Psicologia pela Universidade de Santiago de Compostela e tem um mestrado em Marketing e Comportamento do Consumidor pela Universidade de Granada e Universidade de Jaén. Além disso, compartilhou seus conhecimentos através de conferências e workshops. Com ampla experiência em estratégias de marketing e comunicação, Susana conseguiu otimizar a visibilidade e o posicionamento das marcas através de técnicas de SEO.

Esta entrada também está disponível em: Español Français

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *