Talvez você queira pensar duas vezes antes de receber notícias do Google Gemini

O que aconteceu? Um importante estudo liderado pela União Europeia de Radiodifusão (EBU), em coordenação com a BBC, revelou falhas graves na forma como assistentes de IA populares lidam com consultas relacionadas a notícias, com o Gemini, do Google, se destacando como o pior desempenho geral.

  • A pesquisa analisou 3.000 respostas em 14 idiomas de grandes assistentes, incluindo ChatGPT , Microsoft Copilot, Gemini e Perplexity.
  • No geral, 45% das respostas da IA ​​continham pelo menos um erro grave, incluindo casos em que a IA apresentou opiniões como fatos (81%) ou acrescentou suas próprias opiniões (73%).
  • O Gemini teve o pior desempenho geral, com 76% de suas respostas mostrando grandes erros de origem ou factuais, o que é o dobro da taxa do próximo assistente Copilot (37%), seguido pelo ChatGPT (36%) ePerplexity (30%).
  • Erros comuns incluem misturar fontes, usar informações desatualizadas ou confundir a linha entre opinião e fato verificado.

Isso é importante porque: se você estiver recorrendo a um assistente de IA para obter notícias, essas descobertas são importantes, especialmente quando um modelo se sai significativamente pior que os demais.

  • Com as ferramentas de IA substituindo cada vez mais mecanismos de busca ou resumos de notícias, respostas incorretas podem enganar os usuários.
  • Erros de sourcing ocorrem quando uma IA fornece um fato sem comprová-lo adequadamente, tornando mais difícil para os usuários confiarem na resposta.
  • Com a confiança do público na mídia já abalada, as imprecisões geradas pela IA podem deixar as pessoas mais céticas sobre o que é real e o que não é.
  • O fato de a Gemini ter tido um desempenho muito inferior levanta preocupações sobre como diferentes empresas estão lidando com a verificação e a transparência do modelo.

Por que eu deveria me importar? Você pode já estar usando um assistente de IA para acompanhar as notícias, mas se esse assistente for do signo de Gêmeos, este estudo sugere que você corre um risco maior de desinformação .

  • Se você perguntar a Gemini sobre informações atuais, há uma grande chance de que a resposta contenha um erro de fonte ou de fato em quase 3 de 4 respostas.
  • Embora outros assistentes tenham tido um desempenho melhor, eles ainda cometeram muitos erros, provando que nenhum modelo de IA é totalmente confiável quando se trata de notícias factuais.
  • O público mais jovem, especialmente os menores de 25 anos, está entre os mais rápidos a adotar a IA para atualizações de notícias, o que também os torna mais expostos à desinformação.

O ponto principal é que os assistentes de IA podem ajudar você a se manter informado, mas eles não devem ser sua única fonte de verdade.