Será que finalmente superamos o problema da alucinação da IA? Coloquei as melhores IAs à prova

Com a IA se tornando lentamente parte do cotidiano de muitas pessoas, é importante saber se as informações fornecidas por esses companheiros são realmente precisas. Uma alucinação de IA ocorre quando uma IA percebe padrões ou objetos inexistentes para os humanos, o que significa que ela cria resultados sem sentido ou imprecisos. Isso tem sido um grande problema com a IA, seja na geração de imagens e no fato de os humanos terem muitos dedos nas mãos, ou quando uma IA coleta informações factuais e as apresenta de forma incorreta.

Então, decidi testar cinco chatbots de IA diferentes, fazendo-lhes uma série de perguntas triviais e acompanhando as respostas. Fiz a cada chatbot de IA dez perguntas diferentes, com respostas específicas e ininterruptas. Isso garantiu que a IA pudesse estar certa ou errada ao fornecer suas respostas. Eu também queria registrar se os diferentes chatbots ofereciam ou não fontes para as informações e se isso precisava de estímulo ou não.

Aqui estão todas as perguntas que fiz aos chatbots de IA:

  • Que data é hoje?
  • Quem foi Albert Einstein?
  • Em que data os humanos pisaram pela primeira vez na Lua e qual era o nome da primeira pessoa?
  • Quem foi a primeira mulher a ganhar um Prêmio Nobel e para que serviu?
  • Qual é o único mar sem litoral?
  • Qual artista renascentista está enterrado no Panteão de Roma?
  • Em que ano as Nações Unidas foram criadas?
  • Qual país bebe mais café per capita?
  • Qual é o tempero mais raro e caro do mundo em termos de peso?
  • Que personagens Robert Downey Jr. e Benedict Cumberbatch interpretaram?

Resultados

No geral, os resultados mostraram que a alucinação com IA está definitivamente diminuindo ao longo do tempo. À medida que novas edições de companheiros de IA são lançadas, seja Gemini 2.5 ou GPT-5, eles se tornam mais inteligentes e menos propensos a alucinar. No entanto, nunca é possível garantir que todas as informações sejam precisas, o que significa que as fontes são essenciais ao usar IA. Embora a alucinação com IA esteja diminuindo, definitivamente não superamos 100% o problema de 2 em cada 5 chatbots errarem uma pergunta.

Google Gêmeos ChatGPT Grok IA profunda Microsoft Copilot
Que data é hoje? X
Quem foi Albert Einstein?
Em que data os humanos pisaram pela primeira vez na Lua e qual era o nome da primeira pessoa?
Quem foi a primeira mulher a ganhar um Prêmio Nobel e para que serviu?
Qual é o único mar sem litoral?
Qual artista renascentista está enterrado no Panteão de Roma?
Em que ano as Nações Unidas foram criadas?
Qual país bebe mais café per capita? X
Qual é o tempero mais raro e caro do mundo em termos de peso?
Que personagens Robert Downey Jr. e Benedict Cumberbatch interpretaram?

Discriminação

  • O Google Gemini acertou todas as perguntas e forneceu amplo contexto em torno de cada resposta, juntamente com uma variedade de links para fontes de cada informação. Com uma média de quatro fontes para cada resposta, você pode facilmente cruzar as fontes para garantir que as respostas estejam corretas.
  • O ChatGPT também não errou nenhuma resposta e forneceu bastante contexto para cada resposta. No entanto, uma desvantagem é que o ChatGPT não forneceu automaticamente as fontes das informações, mas forneceu links quando solicitado.
  • Grok forneceu respostas muito mais concisas, mas ainda assim forneceu o contexto necessário. Não havia links para as fontes das informações fornecidas, mas, novamente, se solicitado, o chatbot fornecia links.
  • A Deep AI errou a primeira pergunta, dizendo que a data de hoje era 27 de outubro de 2023, apesar de ser 10 de outubro de 2025 quando perguntei. Tirando isso, todas as outras perguntas estavam corretas. As respostas foram muito breves, com pouco contexto para a maioria e apenas respostas diretas. Não foram fornecidas fontes, mas os links seriam fornecidos quando solicitados.
  • O Microsoft Copilot errou a pergunta número 8, mas ainda forneceu uma fonte que corroborava sua resposta, o que significa que isso pode ser apenas resultado de fontes conflitantes, e não de alucinações. O Copilot forneceu fontes sem ser solicitado na maioria das perguntas, mas não em todas, mas forneceu links quando solicitado.

No geral, isso confirma que as fontes de informação fornecidas pela IA precisam ser verificadas e, embora isso possa exigir que você pergunte a fonte, vale a pena tomar essa medida extra para garantir que as informações que você está vendo sejam precisas.