Estudo revela que chatbots com IA ainda têm dificuldades com a precisão das notícias.

Um experimento de um mês levantou novas preocupações sobre a confiabilidade das ferramentas de IA generativa como fontes de notícias, após o chatbot Gemini do Google ter sido flagrado fabricando veículos de notícias inteiros e publicando reportagens falsas. As descobertas foram divulgadas inicialmente pelo The Conversation , que conduziu a investigação.

O experimento foi liderado por um professor de jornalismo especializado em ciência da computação, que testou sete sistemas de IA generativa ao longo de quatro semanas. Diariamente, as ferramentas eram solicitadas a listar e resumir os cinco eventos noticiosos mais importantes do Quebec, classificá-los por importância e fornecer links diretos para os artigos como fontes. Entre os sistemas testados estavam o Gemini do Google, o ChatGPT da OpenAI, o Claude, o Copilot, o Grok, o DeepSeek e o Aria.

A falha mais flagrante ocorreu quando a Gemini inventou um veículo de notícias fictício – examplefictif.ca – e noticiou falsamente uma greve de motoristas de ônibus escolares em Quebec, em setembro de 2025. Na realidade, a interrupção foi causada pela retirada dos ônibus da Lion Electric devido a um problema técnico. Este não foi um caso isolado. Em 839 respostas coletadas durante o experimento, os sistemas de IA citaram regularmente fontes imaginárias, forneceram URLs quebrados ou incompletos, ou deturparam notícias reais.

As descobertas são importantes porque um número crescente de pessoas já está usando chatbots de IA para se informar.

Segundo o relatório de notícias digitais do Instituto Reuters, 6% dos canadenses utilizaram inteligência artificial generativa como fonte de notícias em 2024. Quando essas ferramentas criam alucinações sobre fatos, distorcem reportagens ou inventam conclusões, correm o risco de disseminar desinformação – principalmente quando suas respostas são apresentadas com confiança e sem ressalvas claras.

Para os usuários, os riscos são práticos e imediatos. Apenas 37% das respostas incluíam um URL de origem completo e legítimo. Embora os resumos fossem totalmente precisos em menos da metade dos casos, muitos eram apenas parcialmente corretos ou sutilmente enganosos. Em alguns casos, as ferramentas de IA adicionaram “conclusões generativas” sem fundamento , alegando que as matérias haviam “reacendido debates” ou “destacado tensões” que nunca foram mencionadas por fontes humanas. Essas adições podem parecer perspicazes, mas podem criar narrativas que simplesmente não existem.

Os erros não se limitaram à fabricação.

Algumas ferramentas distorceram histórias reais, como relatar erroneamente o tratamento dado a requerentes de asilo ou identificar incorretamente os vencedores de grandes eventos esportivos. Outras cometeram erros factuais básicos em dados de pesquisas ou circunstâncias pessoais. Coletivamente, esses problemas sugerem que a IA generativa ainda tem dificuldades em distinguir entre resumir notícias e inventar contexto.

Olhando para o futuro, as preocupações levantadas pelo The Conversation estão alinhadas com uma análise mais ampla do setor. Um relatório recente de 22 organizações de mídia de serviço público constatou que quase metade das notícias geradas por IA continham problemas significativos, desde falhas na fonte até grandes imprecisões. À medida que as ferramentas de IA se integram cada vez mais às buscas e aos hábitos diários de informação, as descobertas reforçam um alerta claro: quando se trata de notícias, a IA generativa deve ser tratada, na melhor das hipóteses, como um ponto de partida – e não como uma fonte confiável.

O artigo "Chatbots de IA ainda têm dificuldades com a precisão das notícias, revela estudo" foi publicado originalmente no Digital Trends .