ChatGPT da OpenAI: O Poder e os Perigos dos Modelos de Linguagem em Grande Escala

Imagen de personas trabajando en sus laptops en la SSA, con un estilo de líneas precisas, reminiscente de la escuela de Vancouver y el renacimiento de San Francisco, utilizando una estética outrun y Bryce 3D.

O surgimento dos grandes modelos de linguagem

Os grandes modelos de linguagem, uma tecnologia poderosa e transformadora, irromperam no cenário tecnológico com uma força incomum. Um claro exemplo disso é o ChatGPT da OpenAI, lançado há um ano, que demonstrou seu potencial em várias aplicações. No entanto, como acontece com qualquer tecnologia emergente, seu uso pode ser tanto benéfico quanto prejudicial. Alguns usuários encontraram maneiras de “liberar” esses modelos para fins maliciosos.

Apesar disso, muitas startups estão construindo protótipos e produtos usando as APIs desses modelos. De acordo com a OpenAI, mais de 2 milhões de desenvolvedores estão usando suas APIs.

Funcionamento e desafios dos modelos de linguagem

Mas, como funcionam esses modelos? Os modelos de linguagem preveem o texto que deve seguir uma entrada dada. Eles são treinados com grandes quantidades de texto e chips de computador por semanas ou meses. Com dados e treinamento suficientes, os modelos podem responder a uma ampla gama de entradas com informações coerentes e relevantes.

Contudo, essa tecnologia não está isenta de problemas e vieses. Os modelos podem aprender vieses a partir de seus dados de treinamento. Além disso, podem fabricar informações quando a resposta a um estímulo não é clara. Sem salvaguardas adequadas, podem oferecer conselhos perigosos, como como obter drogas ou fabricar bombas.

A necessidade de salvaguardas adicionais

Para controlar esses riscos e garantir a segurança nos modelos de linguagem, as empresas utilizam o feedback humano para afinar os modelos e reduzir seu mau comportamento. No entanto, Robust Intelligence forneceu exemplos preocupantes de como essas salvaguardas podem ser contornadas.

A pesquisa neste campo está em plena expansão. Um grupo de pesquisa liderado por Eric Wong desenvolveu um método semelhante para gerar “liberações”. Por outro lado, Brendan Dolan-Gavitt, professor na Universidade de Nova York, adverte que o ajuste humano não é uma forma segura de proteger os modelos.

Diante deste cenário, Dolan-Gavitt sugere que as empresas que utilizam esses modelos devem empregar salvaguardas adicionais. É necessário projetar sistemas que evitem que usuários mal-intencionados tenham acesso a informações às quais não deveriam ter acesso. Em suma, o uso seguro e responsável dos modelos de linguagem é um desafio que requer a colaboração de toda a comunidade tecnológica.

Sandra é especialista em marketing digital e experta em redes sociais. Ela completou uma pós-graduação em Comunicação e RP para marcas de moda no Idep Barcelona, além de outra em Marketing e reputação online: comunidades virtuais. Sandra está a par das últimas tendências e melhores práticas em redes sociais, e isso se reflete em seu trabalho diário, gerando um impacto positivo no mundo digital.

Esta entrada também está disponível em: Español Français

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *