OpenAI diz que o ChatGPT é o menos tendencioso que já existiu, mas nem tudo são rosas

O problema dos preconceitos tem atormentado os chatbots de IA desde que o ChatGPT surgiu há alguns anos e mudou todo o cenário dos assistentes de conversação. Pesquisas têm revelado repetidamente como as respostas dos chatbots demonstram preconceitos de gênero, políticos, raciais e culturais . Agora, a OpenAI afirma que seu mais recente modelo GPT-5 para o ChatGPT é o menos tendencioso, pelo menos no que diz respeito à política.

Qual é a grande história?

A gigante da IA ​​conduziu uma pesquisa interna e testou modelos ChatGPT em prompts com carga emocional para testar se conseguia manter a objetividade. A equipe criou uma avaliação de viés político baseada em discursos humanos do mundo real, envolvendo cerca de 500 prompts abrangendo 100 tópicos com inclinações políticas.

“O GPT-5 instantâneo e o pensamento GPT-5 mostram níveis de viés melhorados e maior robustez para prompts carregados, reduzindo o viés em 30% em comparação com nossos modelos anteriores”, diz a OpenAI, acrescentando que ele se sai melhor do que modelos de raciocínio anteriores, como GPT-4o e o3.

Em uma avaliação mais aprofundada, a empresa afirma que menos de 0,01% de todas as respostas do ChatGPT são tendenciosas com viés político. Os números acumulados não são muito surpreendentes. Em uma pesquisa interna recente, a empresa afirmou que a maioria dos 800 milhões de usuários ativos do ChatGPT confia no chatbot para orientação profissional e tarefas mais mundanas, em vez de buscar refúgio como um companheiro emocional ou romântico.

Não é o quadro completo

O viés político nas respostas de chatbots é, sem dúvida, um problema grave, mas representa apenas uma pequena parte do problema maior em questão. Uma análise da MIT Technology Review descobriu que o gerador de vídeos Sora AI, da OpenAI, pode produzir imagens perturbadoras que mostram o preconceito de casta que levou à perseguição e discriminação contra comunidades oprimidas na Índia durante séculos.

  • O relatório observa que “vídeos produzidos por Sora revelaram representações exotizadas e prejudiciais de castas oprimidas — em alguns casos, produzindo imagens de cães quando solicitados a fornecer fotos de pessoas dalit”.
  • Em um artigo publicado no Indian Express há poucos meses, Dhiraj SIngha, da Digital Empowerment Foundation, mostrou como o ChatGPT o nomeou incorretamente devido ao preconceito de casta arraigado nos dados de treinamento.
  • Um artigo publicado na edição de maio de 2025 do periódico Computers in Human Behavior: Artificial Humans revelou que bots de IA como o ChatGPT podem disseminar preconceitos de gênero.
  • Uma pesquisa publicada no Journal of Clinical and Aesthetic Dermatology revelou como o ChatGPT é tendencioso em relação aos padrões de beleza de um determinado tipo de pele.

Outra análise publicada pelo Conselho Internacional para Educação Aberta e a Distância (ICC) observa que apenas arranhamos a superfície do problema de viés dos chatbots de IA, visto que a avaliação se concentra principalmente em áreas como engenharia e medicina, enquanto o idioma abordado é predominantemente abordado. O artigo destaca o risco de viés no contexto educacional para o público que não fala inglês.