“IA na mira: Especialistas propõem pausar o desenvolvimento devido a riscos extremos e defendem auditorias externas”

Evitando a extinção humana: Especialistas em IA propõem medidas preventivas contra riscos extremos

Evitando a extinção humana: Especialistas em IA propõem medidas preventivas contra riscos extremos no desenvolvimento da inteligência artificial

Avaliação precoce e pausa do desenvolvimento, se necessário, entre as propostas para evitar manipulação humana, acesso a armas e exploração de vulnerabilidades cibernéticas.

Um grupo de líderes tecnológicos e especialistas em inteligência artificial (IA) publicou recentemente uma carta aberta exortando as empresas que desenvolvem essa tecnologia a tomar medidas preventivas contra os possíveis riscos extremos que seu uso pode acarretar. Entre esses perigos estão a manipulação e engano dos humanos, o acesso indevido às armas ou exploração de vulnerabilidades cibernéticas.

Os pesquisadores, provenientes de várias universidades e instituições internacionais, sugerem que é fundamental avaliar esses riscos desde os estágios iniciais do processo de desenvolvimento. Se ameaças significativas forem identificadas, eles recomendam pausar o progresso até que possam ser adequadamente mitigadas.

Deteção precoce e testes específicos para prevenir danos irreparáveis

Toby Shevlane, cientista pesquisador na DeepMind e autor principal do artigo publicado junto com a carta aberta, enfatiza a responsabilidade das empresas líderes em IA para detectar problemas emergentes antes que causem danos irreparáveis. «As empresas devem estar alertas para qualquer sinal preocupante», afirma Shevlane.

Uma proposta apresentada pelos especialistas é realizar testes técnicos específicos para explorar capacidades potencialmente perigosas dentro dos modelos desenvolvidos. Um exemplo mencionado é o jogo “Make-me-say”, que permite avaliar se um modelo de IA é capaz de manipular pessoas fazendo-as dizer ou fazer coisas contra sua vontade.

Promovendo transparência e colaboração com auditores externos e pesquisadores independentes

Além disso, os pesquisadores sugerem a criação de um painel informativo onde sejam mostrados os resultados obtidos durante os testes realizados em cada modelo. Dessa forma, tanto desenvolvedores quanto usuários poderiam avaliar quais ações o sistema poderia realizar nas mãos erradas e tomar decisões informadas a respeito.

Outra medida proposta é envolver auditores externos e pesquisadores independentes para avaliar riscos antes e após o lançamento do modelo. No entanto, existem opiniões divergentes sobre quanto acesso esses atores externos devem ter às informações sensíveis relacionadas ao desenvolvimento e funcionamento da IA.

Rumo a uma inteligência artificial ética e responsável: garantir benefícios sem colocar nossa segurança e bem-estar em risco

A carta aberta representa um chamado urgente por parte dos especialistas no campo tecnológico para garantir que a inteligência artificial seja desenvolvida sob parâmetros éticos e responsáveis. Só assim podemos assegurar que seus benefícios sejam aproveitados sem colocar nossa segurança e bem-estar em perigo.

Sarah é, além de uma especialista em marketing digital, uma criadora de conteúdo com vasta experiência no campo. Graduada em Sociologia pela Universidade de Barcelona e com uma Pós-graduação em Marketing Digital pelo Inesdi, Sarah conseguiu se destacar como Diretora de Marketing Digital. Seu profundo conhecimento das tendências digitais e sua habilidade para identificar oportunidades de crescimento foram fundamentais para o sucesso de inúmeras campanhas. Além disso, ela dá aulas e palestras em prestigiosas escolas de negócios, universidades e eventos, compartilhando seus conhecimentos e experiências com outros profissionais e estudantes.

Esta entrada também está disponível em: Español Français

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *