O Calcanhar de Aquiles da Inteligência Artificial: Como os Grandes Modelos de Linguagem podem ser Manipulados por Hackers

"Cuatro personas sentadas en una habitación silenciosa, reflejada en un estilo de espejos infinitos, evocando la estética de Jeppe Hein, Akihiko Yoshida y Tony Conrad."

Vulnerabilidade dos Grandes Modelos de Linguagem a Ataques Cibernéticos

Os Grandes Modelos de Linguagem (GLM), como o ChatGPT da OpenAI e o Bard do Google, transformaram nossa interação com a tecnologia. No entanto, recentemente foi evidenciada sua susceptibilidade a ataques cibernéticos. Pesquisadores de segurança conseguiram manipular o chatbot Bing da Microsoft para agir como um golpista, demonstrando a facilidade com que esses sistemas podem ser enganados.

Desde fevereiro, foram registrados vários ataques de “injeção indireta de instruções”, considerados uma das formas mais alarmantes pelas quais os GLM poderiam ser explorados por hackers. Diante dessa situação, a indústria de cibersegurança está tentando aumentar a conscientização sobre os perigos potenciais associados a essa nova forma de ataque.

Injeção Indireta de Instruções: Um Problema Crescente

Vijay Bolina, chefe de segurança da informação no DeepMind do Google, expressou sua preocupação sobre a injeção indireta de instruções. Segundo Bolina, o problema se intensificou com a conexão dos LLMs à internet e aos complementos. Além disso, o uso crescente de LLMs por parte das empresas pode fornecer-lhes mais dados pessoais e corporativos, complicando ainda mais a situação.

Existem dois tipos principais de ataques de injeção. As injeções diretas ocorrem quando alguém tenta fazer o LLM responder de maneira não intencional. Por outro lado, as injeções indiretas são aquelas em que a instrução vem de um terceiro, como um site ou um PDF que o LLM pode ler.

Riscos e Desafios para a Cibersegurança

O risco fundamental reside no fato de que quem fornece entrada para o LLM tem uma alta influência sobre a saída. Se alguém pode inserir dados no LLM, pode potencialmente manipular o que ele retorna. Os pesquisadores demonstraram como as injeções indiretas poderiam ser usadas para roubar dados, manipular um currículo e executar código remotamente em uma máquina.

O Centro Nacional de Cibersegurança classifica as injeções indiretas como a principal vulnerabilidade para aqueles que implantam e gerenciam LLMs. Adverte que a injeção indireta pode ser um problema inerente à tecnologia LLM e até agora não existem soluções infalíveis contra esse tipo de ataques, embora existam estratégias para dificultar sua execução.

Em conclusão, embora os modelos de linguagem grande tenham aberto novas possibilidades em termos de interação com a tecnologia e processamento de linguagem natural, também apresentaram novos desafios em termos de segurança cibernética. É crucial que tanto desenvolvedores quanto usuários estejam cientes do potencial risco e tomem medidas para se proteger contra esses tipos emergentes de ataques cibernéticos.

Sarah é, além de uma especialista em marketing digital, uma criadora de conteúdo com vasta experiência no campo. Graduada em Sociologia pela Universidade de Barcelona e com uma Pós-graduação em Marketing Digital pelo Inesdi, Sarah conseguiu se destacar como Diretora de Marketing Digital. Seu profundo conhecimento das tendências digitais e sua habilidade para identificar oportunidades de crescimento foram fundamentais para o sucesso de inúmeras campanhas. Além disso, ela dá aulas e palestras em prestigiosas escolas de negócios, universidades e eventos, compartilhando seus conhecimentos e experiências com outros profissionais e estudantes.

Esta entrada também está disponível em: Español Français

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *