Desafios e Adaptações de Segurança na Era da Inteligência Artificial Gerativa: Uma Análise Profunda

Un hombre en una estación de trabajo de comercio rodeado de múltiples computadoras y monitores, iluminado con una atmósfera sombría y luces tenues, en tonos oscuros de cian y beige, con un estilo audaz de contrastes fuertes.

Desafios de Segurança na Era da Inteligência Artificial Generativa

O aumento dos Modelos de Linguagem Grande (LLMs) e a Inteligência Artificial (IA) generativa apresentaram desafios significativos para as equipes de segurança. Adaptar os programas de segurança a esses avanços tecnológicos tornou-se uma necessidade urgente.

A Ameaça dos Intermediários Não Confiáveis

Uma nova ameaça no campo da Tecnologia na Sombra (TI) surgiu: os intermediários não confiáveis. A indústria está sendo construída em LLMs hospedados por serviços como OpenAI, Hugging Face e Anthropic. Embora as empresas acessem esses modelos para resolver desafios empresariais usando ferramentas como extensões de navegador, aplicativos SaaS, aplicativos Slack e APIs pagas, esse acesso pode implicar o risco de vazamento de dados sensíveis.

O treinamento através de limites de segurança representa um novo risco para a maioria das organizações. Os limites entre usuários, clientes e dentro de uma organização estão cada vez mais difusos. Portanto, é crucial entender quais dados estão sendo introduzidos em um modelo.

Privacidade e Regulação no Uso da IA Generativa

O uso de IA gerativa com informações pessoais identificáveis (PII) apresenta sérios desafios em termos de privacidade. A regulamentação do processamento automatizado de informações pessoais é um tema quente. Aspectos como como o treinamento ou ajuste fino em informações pessoais afeta os pedidos de exclusão, restrições na reutilização de dados, residência de dados e outros requisitos regulatórios devem ser considerados.

Adaptando a Segurança aos Novos Riscos

Para enfrentar esses desafios, é necessário adaptar a segurança do fornecedor, a segurança empresarial e a segurança do produto aos novos tipos de risco introduzidos pela IA gerativa.

Quanto à segurança do fornecedor, as ferramentas de IA gerativa devem ser tratadas como qualquer outra ferramenta de fornecedor. É essencial garantir que elas cumpram os requisitos habituais de segurança e privacidade e incorporar essas considerações no processo de diligência prévia.

No âmbito da segurança empresarial, é vital estabelecer as expectativas corretas. É preciso encontrar um equilíbrio entre atrito e usabilidade. Existe o risco de os funcionários utilizarem ferramentas que enviem dados do cliente para um terceiro não aprovado. Por isso, é importante estabelecer expectativas com os funcionários e presumir boas intenções.

Em relação à segurança do produto, a transparência gera confiança. É fundamental evitar tornar-se um intermediário não confiável para os clientes. Deve-se ser transparente no uso de dados do cliente com IA gerativa e respeitar os mesmos limites de segurança que os clientes esperam. Além disso, deve-se dar opções aos clientes, permitindo-lhes optar por participar ou não nas características da IA gerativa.

Em conclusão, embora seja importante não obstaculizar o progresso, é igualmente necessário adotar essas ferramentas para o sucesso empresarial. A IA gerativa e os LLMs vieram para ficar e devemos aprender a conviver com eles de forma segura.

Escrito por Rob Picard, chefe de segurança na Vanta.

Clara é criadora e editora de conteúdo, com sólida formação em ciências e especialização em inteligência artificial. Sua paixão por este campo em constante evolução levou-a a adquirir os conhecimentos necessários para entender e comunicar os avanços mais recentes nesta área. Com sua experiência e habilidades em redação e edição de conteúdo, Clara é capaz de transmitir de maneira clara e eficaz conceitos complexos relacionados à inteligência artificial, tornando-os acessíveis a todos os tipos de públicos.

Esta entrada também está disponível em: Español Français

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *