Pesquisas alertam que agentes de IA podem se tornar uma máquina de propaganda autossustentável.

Um novo estudo da Universidade do Sul da Califórnia alerta que programas de IA agora podem executar campanhas de propaganda sem intervenção humana.

O estudo nos pede para imaginar um cenário em que, duas semanas antes de uma eleição importante, milhares de publicações inundam o X, o Reddit e o Facebook , todas propagando a mesma narrativa e amplificando-se mutuamente. Pode parecer um movimento orgânico criado por humanos. Na verdade, trata-se de um conjunto de agentes de IA conduzindo toda a campanha.

Isso não é uma hipótese. É a principal conclusão de um novo artigo aceito para publicação na The Web Conference 2026, escrito por pesquisadores do Instituto de Ciências da Informação da USC.

Os resultados destacam sérias preocupações sobre como agentes mal-intencionados poderiam usar a IA como arma para inundar a internet com desinformação e manipular a opinião pública.

Como os pesquisadores chegaram a essa conclusão?

Os pesquisadores construíram um ambiente simulado semelhante ao X com 50 agentes de IA, sendo 10 agentes atuando como influenciadores e 40 como usuários comuns. Dos 40 agentes comuns, 20 tinham opiniões alinhadas com as dos influenciadores, enquanto os outros 20 tinham opiniões contrárias à campanha. Os pesquisadores construíram sua simulação usando a biblioteca PyAutogen e a executaram no modelo Llama 3.3 70B.

Em seguida, os operadores receberam a tarefa de promover um candidato fictício, com o objetivo de viralizar a hashtag da campanha. O que se seguiu foi perturbador. Os bots não se limitaram a seguir um roteiro. Eles escreveram suas próprias postagens, aprenderam o que funcionava e copiaram o conteúdo bem-sucedido uns dos outros.

Um agente de IA escreveu literalmente que queria retuitar a publicação de um colega de equipe porque ela já havia gerado engajamento. Posteriormente, os pesquisadores aumentaram o número de agentes de IA para 500 e constataram que os resultados eram consistentes com suas descobertas.

O cientista-chefe Luca Luceri foi direto ao ponto: "Nosso artigo mostra que essa não é uma ameaça futura. Ela já é tecnicamente possível."

O que torna esses bots mais difíceis de capturar?

Os bots tradicionais são previsíveis. Eles publicam o mesmo conteúdo, usam as mesmas hashtags e seguem os mesmos padrões. É como se todos estivessem seguindo o mesmo roteiro, o que os torna fáceis de identificar.

Os bots com inteligência artificial são diferentes. Como esses bots com tecnologia LLM podem criar seu próprio conteúdo, cada postagem é ligeiramente diferente, e a coordenação ocorre nos bastidores, fazendo com que as conversas pareçam genuínas. O resultado é uma campanha de desinformação que pode operar de forma autônoma com mínima intervenção humana.

A descoberta mais alarmante foi que simplesmente informar aos bots quem eram seus colegas de equipe produziu uma coordenação quase tão forte quanto quando eles planejavam ativamente juntos.

A ameaça não se limita às eleições. Luceri alerta que a mesma estratégia pode ser aplicada à saúde pública, à imigração e à política econômica, em qualquer área onde o consenso fabricado possa influenciar a opinião pública.

Podemos fazer alguma coisa para impedir isso?

Esse tipo de campanha é difícil de ser detectado e interrompido por usuários individuais. Os pesquisadores atribuem às plataformas a responsabilidade de impedir essas campanhas coordenadas de desinformação, analisando não apenas as publicações individuais, mas também o comportamento conjunto das contas.

Segundo pesquisadores, o compartilhamento coordenado, a rápida amplificação mútua e a convergência de narrativas são sinais detectáveis, mesmo quando o conteúdo parece genuíno.

Francamente, a IA nos introduziu em um novo mundo, e as coisas vão piorar muito antes de melhorarem.

O artigo "Pesquisa alerta que agentes de IA podem ser uma máquina de propaganda autossustentável" foi publicado originalmente no Digital Trends .