A inteligência artificial potencializou a pior forma de conteúdo abusivo na internet, e os responsáveis ​​não conseguem acompanhar.

A inteligência artificial, sem dúvida, trouxe muitas ferramentas úteis para a internet. Mas também deu um novo e sombrio impulso a uma das formas mais horríveis de abuso . Reportagens recentes e descobertas de órgãos de fiscalização apontam para o mesmo padrão perverso de IA generativa ajudando criminosos a criar imagens de abuso sexual infantil em larga escala.

Essas situações estão se tornando cada vez mais realistas e em formatos que estão se tornando mais difíceis de serem controlados por plataformas, órgãos reguladores e grupos de proteção à infância.

Como a IA está agravando a situação e tornando o conteúdo mais extremo.

Em fevereiro, a Reuters revelou que as denúncias concretas de imagens de abuso sexual infantil geradas por IA mais que dobraram nos últimos dois anos, enquanto a Internet Watch Foundation afirmou posteriormente ter identificado 8.029 imagens e vídeos de abuso sexual infantil gerados por IA somente em 2025. Esse cenário sombrio também foi apresentado em uma reportagem da Bloomberg sobre como a IA generativa está mudando o panorama do material de abuso sexual infantil nos EUA.

Os investigadores não estão mais lidando apenas com imagens e vídeos pornográficos gerados por IA; existem também imagens manipuladas de crianças reais e até conversas em chatbots onde os criminosos supostamente buscam conselhos sobre aliciamento ou simulam abuso sexual. Enquanto isso, as autoridades perdem tempo tentando descobrir se uma criança em uma imagem é real, alterada digitalmente ou completamente falsa.

Os casos reais estão se tornando cada vez mais perturbadores.

O relatório cita um caso em Minnesota envolvendo William Michael Haslach, um monitor de merenda escolar e guarda de trânsito acusado de usar ferramentas de IA para despir digitalmente crianças em fotos que ele havia tirado no trabalho. Agentes federais identificaram mais de 90 vítimas e encontraram quase 800 imagens de abuso geradas por IA em seus dispositivos. Isso demonstra como os criminosos estão usando cada vez mais fotos do cotidiano, retiradas das redes sociais, para criar material explícito.

Os investigadores estão afogados em volume de trabalho e pistas ruins.

A situação está se tornando alarmante rapidamente. A Bloomberg reportou que o NCMEC recebeu 1,5 milhão de denúncias de abuso sexual infantil relacionadas à inteligência artificial em 2025, um aumento em relação às 67.000 do ano anterior e às 4.700 de 2023. Ao mesmo tempo, investigadores afirmam que os sistemas automatizados de moderação estão gerando uma enxurrada de denúncias inválidas, sobrecarregando ainda mais as equipes de trabalho já sobrecarregadas. E cada denúncia equivocada consome tempo que poderia ser usado para ajudar uma criança que corre risco imediato.