Inteligência Artificial: Nova Arma de Desinformação em Massa – Um Estudo Revela seu Potencial Perigoso no Twitter

"Imagen de un laboratorio romántico académico al estilo Whistlerian, con vistas microscópicas y un robot en su interior."

A crescente ameaça da desinformação impulsionada por IA

No mundo digital atual, um novo problema está surgindo: a desinformação gerada pela Inteligência Artificial (IA). Um estudo recente descobriu que essa tecnologia é mais rápida, econômica e eficaz para gerar desinformação em comparação com os humanos.

O experimento: Comparando a IA e os humanos na produção de notícias falsas

Para avaliar nossa suscetibilidade a diferentes tipos de texto, Giovanni Spitale, pesquisador da Universidade de Zurique, liderou uma equipe que selecionou dois temas comuns no campo da desinformação: mudança climática e covid. Utilizando o GPT-3 desenvolvido pela OpenAI – uma IA capaz de produzir textos coerentes -, eles geraram tweets verdadeiros e falsos. Simultaneamente coletaram uma amostra aleatória tanto de tweets verdadeiros quanto falsos diretamente do Twitter.

O processo experimental consistiu em recrutar online 697 pessoas para participar em um quiz onde deveriam identificar se os tweets apresentados haviam sido gerados por IA ou coletados no Twitter. Os resultados foram surpreendentes: Os participantes tinham 3% menos probabilidade de acreditar nos tweets falsos escritos por humanos do que aqueles escritos por IA.

Possíveis razões por trás do fenômeno

Por que isso acontece? Uma possível explicação reside precisamente em como o GPT-3 apresenta informações. A ordem estruturada com a qual este modelo organiza suas texturas pode ser uma influência chave para convencer o leitor.

Lidando com as consequências alarmantes

As possíveis repercussões são alarmantes. A proliferação do uso indevido de IA entre atores mal-intencionados poderia levar a campanhas rápidas e econômicas baseadas em textos erroneamente convincentes. Modelos como o GPT-3 podem facilmente se tornar ferramentas poderosas para manipular opiniões públicas e até mesmo influenciar eleições políticas.

Diante deste cenário preocupante, surge uma pergunta inevitável: quais ferramentas temos contra esse problema? Embora existam detectores automáticos projetados especificamente para identificar conteúdo gerado artificialmente, eles ainda estão em desenvolvimento inicial e não são completamente precisos.

A OpenAI está ciente do risco ético associado aos seus modelos avançados como o GPT-3; eles sabem que poderiam ser usados para produzir campanhas massivas, mas alertam que é quase impossível garantir sempre o seu uso correto. Este dilema levanta novas questões sobre o papel ético e moral dentro do desenvolvimento tecnológico contemporâneo.

Nossa luta contra as notícias falsas já era complicada antes; agora também enfrentamos o desafio adicional representado pelas máquinas inteligentes capazes não apenas de replicar, mas superar nossas habilidades persuasivas naturais.

Sandra é especialista em marketing digital e experta em redes sociais. Ela completou uma pós-graduação em Comunicação e RP para marcas de moda no Idep Barcelona, além de outra em Marketing e reputação online: comunidades virtuais. Sandra está a par das últimas tendências e melhores práticas em redes sociais, e isso se reflete em seu trabalho diário, gerando um impacto positivo no mundo digital.

Esta entrada também está disponível em: Español Français

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *