OpenAI lança ‘Preparedness’: uma equipe para proteger o mundo contra os riscos catastróficos da Inteligência Artificial

Una representación realista de un paisaje urbano con el puente Golden Gate, rodeado de redes infinitas, en tonos de morado oscuro, rosa, azul cielo claro y naranja claro.

OpenAI cria uma equipe para proteger contra os riscos da IA

A OpenAI, a renomada organização de pesquisa em inteligência artificial (IA), anunciou a formação de uma nova equipe chamada Preparedness. Este grupo, liderado por Aleksander Madry, especialista em aprendizado de máquina do Instituto de Tecnologia de Massachusetts (MIT), tem como principal missão estudar e proteger contra os “riscos catastróficos” que a IA poderia representar.

Objetivos e alcance da equipe Preparedness

A equipe Preparedness será responsável por rastrear, avaliar, prever e proteger contra possíveis riscos catastróficos derivados da IA. Os perigos que se pretendem abordar são variados e vão desde a persuasão individualizada, como os ataques de phishing, até questões de cibersegurança e ameaças químicas, biológicas, radiológicas e nucleares (CBRN). Além disso, o campo de estudo da equipe também inclui a replicação e adaptação autônomas (ARA).

A rápida evolução dos sistemas de IA tem gerado preocupação entre os especialistas sobre os possíveis perigos que estes podem representar. Sam Altman, líder da OpenAI, manifestou seu apoio à criação de uma regulamentação para o desenvolvimento desses modelos.

Convocação à comunidade científica e avaliação de riscos

Em um esforço para envolver a comunidade científica neste desafio, a OpenAI lançou uma convocação solicitando estudos sobre possíveis riscos associados à IA. Para incentivar essa participação, oferece um prêmio de $25.000 e uma possível posição na equipe Preparedness aos autores dos 10 melhores estudos apresentados.

Como parte do processo de avaliação de riscos, insta-se os participantes a imaginar o pior uso possível de seus modelos mais avançados. Este exercício tem como objetivo antecipar e prevenir possíveis cenários catastróficos.

Além disso, a equipe Preparedness tem a responsabilidade de criar guias e documentos para desenvolver testes para os modelos de IA. Esses testes serão realizados antes e depois do desenvolvimento dos modelos, com o objetivo de garantir sua segurança e eficácia.

A OpenAI reconhece que os sistemas de IA apresentam riscos cada vez mais sérios. A criação da equipe Preparedness é um passo importante para garantir que se tenha o conhecimento e a infraestrutura necessária para assegurar a segurança de sistemas de IA altamente capazes. Este esforço conjunto entre pesquisadores, especialistas em segurança e a comunidade científica em geral, é crucial para navegar com sucesso nesta nova era da inteligência artificial.

Sandra é especialista em marketing digital e experta em redes sociais. Ela completou uma pós-graduação em Comunicação e RP para marcas de moda no Idep Barcelona, além de outra em Marketing e reputação online: comunidades virtuais. Sandra está a par das últimas tendências e melhores práticas em redes sociais, e isso se reflete em seu trabalho diário, gerando um impacto positivo no mundo digital.

Esta entrada também está disponível em: Español Français

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *