NIST na corda bamba: O desafio apressado de definir padrões de IA entre discrepâncias de especialistas e segredo tecnológico

"Una amplia sala de reuniones circular, con un estilo artístico de intrusión mediática y simbolismo global, dominada por tonos oscuros de blanco y verde, que evoca una atmósfera humorística y surrealista."

Pressão sobre o NIST para definir padrões de Inteligência Artificial

O Instituto Nacional de Padrões e Tecnologia (NIST) dos Estados Unidos está sob pressão para estabelecer padrões na área da Inteligência Artificial (IA). Essa demanda surge em um momento em que a pesquisa neste campo ainda está em seus estágios iniciais. Legisladores americanos expressaram sua preocupação com o que percebem como um “desacordo significativo” entre os especialistas em IA sobre como abordar, medir e definir problemas de segurança ligados a essa tecnologia. Este desacordo, juntamente com o estado atual da pesquisa sobre segurança em IA, apresenta desafios significativos para o NIST.

Resposta do NIST e opiniões de especialistas

O NIST confirmou o recebimento de uma carta que reflete essas preocupações e garantiu que responderá através dos canais apropriados. Além disso, o instituto está adotando medidas para aumentar a transparência em seu processo, solicitando informações a especialistas externos e empresas sobre os padrões para avaliar e testar modelos de IA.

As preocupações expressas pelos legisladores são compartilhadas por alguns especialistas em IA. Rumman Chowdhury, CEO da Parity Consulting, argumenta que o NIST precisa de mais do que mandatos e boas intenções para realizar adequadamente seu trabalho. Yacine Jernite, líder de aprendizado de máquina e sociedade na Hugging Face, aponta que as grandes empresas de tecnologia têm muito mais recursos do que o NIST. Margaret Mitchell, cientista-chefe de ética na Hugging Face, adiciona outra camada de complexidade ao problema: o crescente sigilo em torno dos modelos comerciais de IA dificulta a medição para uma organização como o NIST.

Iniciativas governamentais e colaboração com empresas de tecnologia

Neste contexto, a Casa Branca emitiu uma ordem executiva solicitando ao NIST que realize várias tarefas, incluindo a criação de um novo Instituto de Segurança em Inteligência Artificial. Além disso, em abril foi anunciada uma força-tarefa do Reino Unido focada na segurança da IA, que contará com 126 milhões de dólares em financiamento inicial.

A ordem executiva também estabelece um prazo agressivo para que o NIST desenvolva diretrizes para avaliar modelos de IA, princípios para testar esses modelos e um plano para que as nações aliadas dos EUA concordem com os padrões do NIST.

Embora não esteja claro como o NIST está interagindo com as grandes empresas de tecnologia, sabe-se que empresas como a Microsoft e a Anthropic, bem como organizações como a Partnership on AI e o Future of Life Institute, participaram de discussões sobre o quadro de gestão de riscos do NIST.

Em conclusão, o NIST enfrenta uma tarefa monumental e complexa em um campo que ainda está evoluindo rapidamente. A pressão para definir padrões de IA é alta, mas também é a necessidade de fazê-lo corretamente e com transparência suficiente.

Sarah é, além de uma especialista em marketing digital, uma criadora de conteúdo com vasta experiência no campo. Graduada em Sociologia pela Universidade de Barcelona e com uma Pós-graduação em Marketing Digital pelo Inesdi, Sarah conseguiu se destacar como Diretora de Marketing Digital. Seu profundo conhecimento das tendências digitais e sua habilidade para identificar oportunidades de crescimento foram fundamentais para o sucesso de inúmeras campanhas. Além disso, ela dá aulas e palestras em prestigiosas escolas de negócios, universidades e eventos, compartilhando seus conhecimentos e experiências com outros profissionais e estudantes.

Esta entrada também está disponível em: Español Français

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *