OpenAI e sua ambição de controlar a superinteligência em IA
OpenAI, a organização de pesquisa em inteligência artificial (IA) que nasceu com o compromisso de desenvolver IA para o benefício de toda a humanidade, tem aumentado seus objetivos comerciais desde o lançamento do ChatGPT e durante sua recente crise de governança. Neste contexto de mudanças, a OpenAI formou uma nova equipe de pesquisa dedicada à supervisão das futuras superinteligências em IA.
Em julho, a OpenAI anunciou a criação da equipe de pesquisa Superalignment. Este grupo tem como missão desenvolver técnicas para controlar as futuras superinteligências em IA. Como parte deste esforço, a OpenAI se comprometeu a dedicar um quinto de sua capacidade computacional disponível ao projeto Superalignment.
Primeiros resultados da equipe Superalignment
A equipe Superalignment publicou recentemente um artigo de pesquisa com resultados experimentais preliminares. Os testes se concentraram em permitir que uma IA inferior guie uma mais inteligente sem diminuir sua capacidade. Este cenário é projetado para representar um futuro em que os humanos devem colaborar com sistemas de IA mais inteligentes do que eles.
O processo atual de supervisão, analisado pelos pesquisadores da OpenAI, é usado para ajustar sistemas como o GPT-4, o modelo por trás do ChatGPT, para torná-lo mais útil e menos prejudicial. Este processo envolve humanos fornecendo feedback ao sistema de IA sobre quais respostas são adequadas e quais não são.
Rumo à automação do processo de supervisão
No entanto, à medida que a IA avança, a OpenAI está pesquisando como automatizar este processo. Isso se deve à possível incapacidade futura dos humanos de fornecer feedback útil à medida que a IA se torna mais poderosa.
Como parte deste esforço, a equipe Superalignment experimentou o uso do gerador de texto GPT-2 da OpenAI para ensinar o GPT-4. No entanto, eles descobriram que o GPT-4 se tornou menos capaz e semelhante ao sistema inferior. Para resolver este problema, eles testaram duas ideias.
A primeira solução proposta foi treinar modelos progressivamente maiores para reduzir o desempenho perdido em cada etapa. A segunda foi adicionar um ajuste algorítmico ao GPT-4 que permitiu ao modelo mais forte seguir a orientação do modelo mais fraco sem diminuir seu desempenho tanto quanto normalmente aconteceria.
Apesar desses avanços, os pesquisadores reconhecem que esses métodos não garantem um comportamento perfeito do modelo mais forte. No entanto, eles descrevem os resultados como um ponto de partida para futuras pesquisas. Especialistas externos forneceram feedback positivo sobre os esforços proativos da OpenAI para controlar as IA super-humanas, sugerindo um futuro promissor para a pesquisa neste campo.
Susana é uma profissional destacada em marketing e comunicação, criadora de conteúdo e especialista em SEO. Ela é formada em Psicologia pela Universidade de Santiago de Compostela e tem um mestrado em Marketing e Comportamento do Consumidor pela Universidade de Granada e Universidade de Jaén. Além disso, compartilhou seus conhecimentos através de conferências e workshops. Com ampla experiência em estratégias de marketing e comunicação, Susana conseguiu otimizar a visibilidade e o posicionamento das marcas através de técnicas de SEO.