A Revolução da Inteligência Artificial Generativa e seus Riscos
Os avanços em sistemas de inteligência artificial (IA) generativa, como o ChatGPT da OpenAI e o Gemini do Google, estão transformando o cenário tecnológico. Essas ferramentas, cada vez mais utilizadas por startups e empresas de tecnologia, permitem automatizar tarefas como gerenciamento de calendários e compra de produtos, aumentando a eficiência e a produtividade. No entanto, à medida que essas ferramentas ganham autonomia, os possíveis riscos de ataques também aumentam.
O Nascimento dos Vermes de IA Generativa
Recentemente, os pesquisadores desenvolveram um dos primeiros vermes de IA generativa, uma nova forma de ciberataque que pode se propagar de um sistema para outro, roubando dados ou implantando malware. De acordo com Ben Nassi, pesquisador da Cornell Tech, estamos diante de um novo tipo de ameaça que requer atenção especial.
O worm Morris II, criado por Ben Nassi, Stav Cohen e Ron Bitton, é inspirado no worm de computador Morris de 1988. Este worm tem a capacidade de atacar um assistente de e-mail de IA generativa para roubar dados e enviar spam, violando algumas das proteções de segurança no ChatGPT e Gemini.
A Multimodalidade dos Modelos de Linguagem e suas Implicações em Segurança
O aumento da multimodalidade dos grandes modelos de linguagem (LLMs), que geram imagens, vídeos e texto, representa um risco de segurança adicional. Essa preocupação é compartilhada por startups, desenvolvedores e empresas de tecnologia, que veem como a segurança de seus sistemas pode ser comprometida.
Os sistemas de IA generativa funcionam através do uso de prompts de texto para responder perguntas ou criar imagens. No entanto, esses sistemas podem ser manipulados contra si mesmos através de “jailbreaks” e ataques de injeção de prompts.
Para criar o verme de IA generativa, os pesquisadores usaram uma “indicação auto-replicante adversarial”. Desta forma, o sistema de IA produz um conjunto de instruções adicionais em suas respostas, o que é semelhante aos ataques tradicionais de injeção SQL e estouro de buffer.
Para demonstrar o funcionamento do verme, os pesquisadores criaram um sistema de e-mail que utiliza IA generativa e o conectaram com o ChatGPT, Gemini e LLM de código aberto, LLaVA. Eles descobriram duas maneiras de explorar o sistema: através de uma indicação auto-replicante de texto e através da incorporação de uma indicação auto-replicante em um arquivo de imagem.
Conclusão: A Necessidade de se Proteger Contra Novas Ameaças
Em conclusão, à medida que a IA generativa avança, as ameaças à segurança também avançam. É crucial que as empresas e os desenvolvedores estejam cientes desses riscos e tomem as medidas necessárias para proteger seus sistemas.
Sarah é, além de uma especialista em marketing digital, uma criadora de conteúdo com vasta experiência no campo. Graduada em Sociologia pela Universidade de Barcelona e com uma Pós-graduação em Marketing Digital pelo Inesdi, Sarah conseguiu se destacar como Diretora de Marketing Digital. Seu profundo conhecimento das tendências digitais e sua habilidade para identificar oportunidades de crescimento foram fundamentais para o sucesso de inúmeras campanhas. Além disso, ela dá aulas e palestras em prestigiosas escolas de negócios, universidades e eventos, compartilhando seus conhecimentos e experiências com outros profissionais e estudantes.