Pesquisas do Google sugerem que modelos de IA como o DeepSeek exibem padrões de inteligência coletiva.

Acontece que, quando os modelos de IA mais inteligentes "pensam", eles podem estar, na verdade, travando um debate interno acalorado. Um novo e fascinante estudo, com coautoria de pesquisadores do Google, lançou uma guinada na nossa compreensão tradicional da inteligência artificial. Ele sugere que modelos de raciocínio avançados — especificamente o DeepSeek-R1 e o QwQ-32B da Alibaba — não estão apenas processando números de forma linear e lógica. Em vez disso, eles parecem se comportar surpreendentemente como um grupo de humanos tentando resolver um quebra-cabeça em conjunto.

O artigo, publicado no arXiv com o título sugestivo "Modelos de Raciocínio Geram Sociedades de Pensamento", postula que esses modelos não apenas computam; eles simulam implicitamente uma interação "multiagente". Imagine uma sala de reuniões repleta de especialistas debatendo ideias, questionando as premissas uns dos outros e analisando um problema sob diferentes perspectivas antes de finalmente chegarem a um consenso sobre a melhor solução. Essencialmente, é isso que acontece dentro do código. Os pesquisadores descobriram que esses modelos exibem "diversidade de perspectivas", ou seja, geram pontos de vista conflitantes e trabalham para resolvê-los internamente, de forma semelhante a uma equipe de colegas debatendo uma estratégia para encontrar o melhor caminho a seguir.

Durante anos, a suposição dominante no Vale do Silício era que tornar a IA mais inteligente era simplesmente uma questão de torná-la maior.

Alimentando-o com mais dados e aplicando mais poder computacional bruto ao problema. Mas esta pesquisa inverte completamente essa lógica. Ela sugere que a estrutura do processo de pensamento importa tanto quanto a escala.

Esses modelos são eficazes porque organizam seus processos internos para permitir "mudanças de perspectiva". É como ter um advogado do diabo embutido que força a IA a verificar seu próprio trabalho, fazer perguntas esclarecedoras e explorar alternativas antes de apresentar uma resposta.

Para os usuários do dia a dia, essa mudança é enorme.

Todos nós já nos deparamos com IA que fornece respostas vagas, confiantes, mas, em última análise, erradas. Um modelo que opera como uma "sociedade" tem menos probabilidade de cometer esses erros crassos, pois já testou exaustivamente sua própria lógica. Isso significa que a próxima geração de ferramentas não será apenas mais rápida; será mais refinada, melhor no tratamento de questões ambíguas e, possivelmente, mais "humana" na forma como aborda problemas complexos e confusos. Isso pode até ajudar a resolver o problema do viés – se a IA considerar múltiplos pontos de vista internamente, é menos provável que fique presa a um único modo de pensar falho.

Em última análise, isso nos afasta da ideia de IA como uma mera calculadora sofisticada e nos aproxima de um futuro onde os sistemas são projetados com diversidade interna organizada. Se as descobertas do Google se confirmarem, o futuro da IA ​​não se resume a construir um cérebro maior – trata-se de construir uma equipe melhor e mais colaborativa dentro da máquina. O conceito de “inteligência coletiva” não se restringe mais à biologia; ele pode ser o modelo para o próximo grande salto tecnológico.

O artigo "Pesquisa do Google sugere que modelos de IA como o DeepSeek exibem padrões de inteligência coletiva" foi publicado originalmente no Digital Trends .