A inteligência artificial impulsionou uma das piores formas de conteúdo abusivo na internet.

Embora o progresso da IA ​​tenha trazido uma onda de ferramentas úteis , também está amplificando alguns dos cantos mais obscuros da internet.

Um novo relatório da IWF (Internet Watch Foundation) revelou um aumento acentuado de material de abuso sexual infantil (CSAM) gerado por IA na internet em 2025. O relatório destaca como a IA generativa está sendo usada indevidamente em larga escala. E não se trata de um pequeno aumento; é uma prova de como esse tipo de conteúdo está sendo criado e distribuído.

Por que essa notícia é alarmante

Segundo a IWF, mais de 8.000 imagens e vídeos com conteúdo abusivo gerados por IA foram identificados em 2025, o que representa um aumento de 14% em relação ao ano anterior. Mas o que é ainda mais preocupante é o crescimento do conteúdo em vídeo. O relatório afirma que houve um aumento de mais de 260 vezes no número de vídeos gerados por IA, muitos dos quais se enquadram na categoria mais grave de abuso.

Na verdade, cerca de 65% dos vídeos analisados ​​foram classificados como do tipo mais extremo. Isso demonstra a gravidade do problema.

Como a IA está reduzindo as barreiras ao conteúdo prejudicial.

A maior mudança nem sequer é o volume — é a acessibilidade.

Especialistas afirmam que as ferramentas de IA generativa estão facilitando significativamente a criação de material de abuso realista. Alguns desses sistemas conseguem gerar imagens e vídeos com aparência natural, manipular fotos existentes e produzir conteúdo em larga escala com o mínimo esforço. Essa combinação permite que criminosos criem e distribuam material prejudicial de forma mais rápida e barata do que nunca.

No passado, conteúdo perigoso como esse era tipicamente associado à dark web . Mas o relatório destacou a quantidade de material gerado por IA que agora é encontrada na web aberta, em vez de ficar restrita a cantos obscuros da internet. Isso dificulta a detecção, torna a moderação mais complexa e aumenta o risco de exposição.

Por que não existe uma solução fácil?

O conteúdo gerado por IA introduz uma nova camada de dificuldade para as autoridades policiais e plataformas. Como o material pode ser totalmente sintético ou derivado de imagens reais, rastrear a origem ou identificar as vítimas torna-se muito mais difícil. Remover esse tipo de conteúdo é outro obstáculo. Com a rápida evolução das ferramentas de IA, as medidas de segurança muitas vezes precisam correr atrás do prejuízo.