Não é só o Grok: as lojas de aplicativos da Apple e do Google estão infestadas de aplicativos de IA que incentivam o uso de recursos de inteligência artificial.

Costumamos pensar na Apple App Store e na Google Play Store como "jardins murados" digitais – espaços seguros e selecionados onde conteúdo perigoso ou inapropriado é filtrado muito antes de chegar às nossas telas. Mas uma nova e preocupante análise do Tech Transparency Project (TTP) sugere que esses muros têm sérias rachaduras. O relatório revela uma realidade perturbadora: ambas as principais lojas virtuais estão atualmente infestadas com dezenas de aplicativos de "nudificação" com inteligência artificial. Essas não são ferramentas obscuras escondidas na dark web; elas estão à vista de todos, permitindo que qualquer pessoa tire uma foto inocente de alguém e remova digitalmente suas roupas sem o seu consentimento.

No início deste ano, a discussão em torno dessa tecnologia atingiu o auge quando a IA de Elon Musk, Grok, foi flagrada gerando imagens sexualizadas semelhantes na plataforma X. Mas, embora Grok tenha se tornado o foco da indignação pública, a investigação da TTP mostra que isso foi apenas a ponta do iceberg. Uma simples busca por termos como "despir" ou "nudificar" nas lojas de aplicativos revela uma longa lista de softwares projetados especificamente para criar pornografia deepfake sem consentimento.

A dimensão desta indústria é francamente impressionante.

Não estamos falando de alguns desenvolvedores desonestos que conseguiram escapar. De acordo com os dados, esses aplicativos acumularam mais de 700 milhões de downloads e geraram uma receita estimada em US$ 117 milhões. E aqui está a verdade incômoda: como a Apple e o Google geralmente cobram uma comissão sobre compras e assinaturas dentro dos aplicativos, eles estão lucrando com a criação de imagens sexuais não consensuais. Cada vez que alguém paga para "despir" uma foto de um colega de classe, um colega de trabalho ou um desconhecido, as gigantes da tecnologia recebem sua parte.

O custo humano dessa tecnologia é incalculável. Essas ferramentas transformam fotos comuns em armas. Uma selfie do Instagram ou uma foto de um anuário escolar podem ser distorcidas e transformadas em material explícito usado para assediar, humilhar ou chantagear vítimas. Grupos de defesa dos direitos humanos vêm alertando sobre isso há anos, advertindo que a "nudez por IA" é uma forma de violência sexual que atinge desproporcionalmente mulheres e, de forma assustadora, menores de idade.

Então, por que eles ainda estão lá?

Tanto a Apple quanto o Google possuem políticas rígidas em papel que proíbem conteúdo pornográfico e exploratório. O problema é a aplicação dessas políticas. Tornou-se um jogo digital de "acertar a toupeira". Quando um relatório de grande repercussão é publicado, as empresas podem até banir alguns aplicativos específicos, mas os desenvolvedores frequentemente apenas alteram o logotipo, mudam ligeiramente o nome e reenviam o mesmo código uma semana depois. Os sistemas automatizados de revisão parecem completamente incapazes de acompanhar a rápida evolução da IA ​​generativa.

Para pais e usuários comuns, isso é um alerta. Não podemos mais presumir que, só porque um aplicativo está em uma loja "oficial", ele seja seguro ou ético. À medida que as ferramentas de IA se tornam mais poderosas e acessíveis, as salvaguardas nas quais confiávamos no passado estão falhando. Até que os órgãos reguladores intervenham — ou até que a Apple e o Google decidam priorizar a segurança em vez das taxas de comissão — nossas imagens digitais permanecerão desconfortavelmente vulneráveis.

O artigo "Não é só o Grok: as lojas de aplicativos da Apple e do Google estão infestadas de aplicativos de IA que incentivam o uso de recursos interativos" foi publicado originalmente no Digital Trends .