A Vulnerabilidade da Inteligência Artificial: Um Estudo Revela Falhas de Segurança
No dia 5 de junho, Nova York foi palco de um evento focado na discussão de métodos de auditoria de modelos de Inteligência Artificial (IA) em termos de viés, desempenho e conformidade ética. A reunião ocorreu em um contexto em que um estudo da Amazon Web Services revelou falhas de segurança em modelos de linguagem de grande porte.
Os Ataques Adversários: Uma Ameaça para a IA
O estudo revelou que os sistemas de IA podem ser manipulados para produzir respostas prejudiciais ou não éticas, sendo os modelos de linguagem de voz especialmente vulneráveis aos “ataques adversários”. Esses ataques ocorrem quando são introduzidas perturbações nos dados de entrada de um sistema de IA com a intenção de provocar erros em suas respostas.
Os pesquisadores demonstraram a susceptibilidade dos modelos de linguagem de voz a essas perturbações adversárias e aos ataques de transferência, onde os ataques projetados para um modelo específico são aplicados a outros diferentes. Com acesso total ao modelo, os pesquisadores conseguiram uma taxa de sucesso de 90% em comprometer suas barreiras de segurança.
Esses ataques adversários podem ser executados em diferentes modelos de IA para responder a perguntas faladas. Os ataques de áudio elaborados em um modelo muitas vezes são transferidos para outros, com uma taxa de sucesso neste cenário de “caixa preta” de 10%.
Implicações e Contramedidas: Protegendo a IA de Voz
As implicações desses ataques adversários são alarmantes. As empresas dependem cada vez mais da IA de voz para o atendimento ao cliente, análise de dados e outras funções. Os ataques adversários poderiam ser usados para fraude, espionagem ou até mesmo dano físico.
Diante dessa ameaça, os pesquisadores propõem contramedidas como adicionar ruído aleatório à entrada de áudio, técnica que reduziu significativamente a taxa de sucesso do ataque nos experimentos.
Os modelos de linguagem de voz no estudo foram treinados em dados de diálogo para alcançar um desempenho de ponta em tarefas de resposta a perguntas faladas. No entanto, esses resultados sublinham a necessidade de priorizar a segurança no desenvolvimento e implantação da IA de voz.
Para garantir essa segurança, é imprescindível que os reguladores e os grupos da indústria colaborem para estabelecer padrões rigorosos e protocolos de teste. Somente desta maneira poderemos aproveitar todo o potencial da IA de voz sem colocar em risco a segurança e a privacidade dos usuários.
Sandra é especialista em marketing digital e experta em redes sociais. Ela completou uma pós-graduação em Comunicação e RP para marcas de moda no Idep Barcelona, além de outra em Marketing e reputação online: comunidades virtuais. Sandra está a par das últimas tendências e melhores práticas em redes sociais, e isso se reflete em seu trabalho diário, gerando um impacto positivo no mundo digital.