ChatGPT e Gemini podem contar piadas, mas não entendem muito bem seus trocadilhos.

Todos nós já vimos inteligência artificial escrever um limerique ou uma piada de tiozão que é… razoável. Mas um novo estudo acadêmico acaba com essa ilusão. Acontece que, embora grandes modelos de linguagem (LLMs, na sigla em inglês), como o ChatGPT e o Gemini do Google , sejam ótimos em imitar a estrutura de uma piada, eles geralmente não têm ideia do porquê de ela ser engraçada — especialmente quando se trata de trocadilhos.

O artigo, inteligentemente intitulado "Trocadilho Não Intencional: LLMs e a Ilusão de Compreensão do Humor", analisou a fundo como esses bots lidam com jogos de palavras. O veredicto? Eles estão fingindo. O estudo descobriu que, embora a IA possa facilmente reproduzir uma piada que já viu antes, ela falha completamente ao tentar entender os significados sutis e de duplo sentido que fazem um trocadilho funcionar de verdade.

A inteligência artificial não é tão engraçada quanto finge ser.

O interessante sobre os trocadilhos é o seguinte: eles dependem da "polissemia" (palavras com múltiplos significados) ou de sons semelhantes para criar um contraste divertido no seu cérebro. Os humanos fazem isso sem esforço. A IA, por outro lado, apenas reconhece padrões.

Os pesquisadores comprovaram isso basicamente enganando os bots. Eles criaram dois novos conjuntos de testes chamados PunnyPattern e PunBreak. Pegaram trocadilhos reais e os modificaram ligeiramente – trocando palavras-chave para que o duplo sentido desaparecesse, mas mantendo a estrutura da frase.

Um humano perceberia imediatamente que a piada foi arruinada. A IA? Muitas vezes, insistia que a frase era engraçada só porque se parecia com uma piada que tinha visto durante o treinamento. É como alguém rir de uma piada que não ouviu só para se enturmar. Isso prova que, apesar da confiança, esses modelos não estão "entendendo" o humor; estão apenas reproduzindo a sua essência.

Mas seu assistente de IA ainda não é um comediante.

Se você é redator, profissional de marketing ou simplesmente alguém que deseja dar um toque especial a uma apresentação com o ChatGPT, talvez seja uma boa ideia revisar o texto.

Esta pesquisa serve como um alerta importante: o humor gerado por IA costuma ser superficial. Como o modelo não entende a intenção por trás do jogo de palavras, ele pode apresentar um "trocadilho" sem o menor sentido ou simplesmente ignorar o sarcasmo e a ironia. É a diferença entre um comediante que sabe como cativar o público e um papagaio repetindo uma piada sem graça. Se você depender demais desse recurso para a escrita criativa, corre o risco de publicar conteúdo que soe robótico ou, pior, sem graça alguma.

Será que a IA algum dia conseguirá realmente entender trocadilhos?

Os pesquisadores argumentam que alimentar a IA com mais dados não vai resolver o problema. Para realmente "entender" um trocadilho, um sistema precisa compreender como as palavras soam (fonética) e captar o contexto cultural que torna uma inversão engraçada. No momento, os modelos baseados em texto não têm essa percepção ou essa experiência de vida.

A inteligência artificial do futuro talvez precise de uma reformulação completa de sua arquitetura — sistemas híbridos que combinem habilidades linguísticas padrão com raciocínio fonético — antes de conseguir competir com comediantes humanos. Até lá, a capacidade de criar trocadilhos ruins continua sendo um superpoder exclusivamente humano.