Pesquisas científicas indicam que a IA pode expor em massa contas anônimas da internet.
Uma nova pesquisa envolvendo cientistas da Anthropic e da ETH Zurich sugere que sistemas modernos de inteligência artificial podem identificar as identidades reais por trás de contas supostamente anônimas na internet. O estudo, publicado como preprint no arXiv , mostra que grandes modelos de linguagem (LLMs, na sigla em inglês) podem ser capazes de analisar a atividade online e vincular perfis pseudônimos a indivíduos reais em larga escala.
A pesquisa, intitulada "Desanonimização online em larga escala com LLMs", explora como agentes de IA podem automatizar o processo de desanonimização – o ato de conectar contas online anônimas ou pseudônimas a identidades reais. Tradicionalmente, esse processo exigia uma investigação manual significativa por analistas que vasculhavam postagens, estilos de escrita e pistas online dispersas. No entanto, os pesquisadores demonstram que os modelos modernos de IA podem executar muitas dessas etapas automaticamente.
No estudo, o sistema de IA analisou textos públicos de plataformas online e extraiu sinais relacionados à identidade, como interesses pessoais, pistas demográficas, estilo de escrita e detalhes incidentais revelados nas postagens. Em seguida, a IA buscou perfis correspondentes na web e avaliou se as pistas coincidiam com indivíduos conhecidos.
Para testar o método, os pesquisadores criaram diversos conjuntos de dados com identidades reais conhecidas.
Um experimento tentou associar usuários do Hacker News aos seus perfis do LinkedIn, mesmo após a remoção de identificadores óbvios, como nomes e nomes de usuário. Outro conjunto de dados envolveu a vinculação de contas pseudônimas do Reddit em diferentes comunidades. Um terceiro conjunto de dados dividiu o histórico de postagens de um único usuário em dois perfis separados para verificar se a IA conseguiria identificar que pertenciam à mesma pessoa.
Os resultados mostraram que os sistemas baseados em LLM superaram significativamente as técnicas tradicionais de desanonimização. Em alguns casos, os modelos alcançaram até 68% de recall com cerca de 90% de precisão, o que significa que a IA identificou corretamente muitas contas, mantendo taxas de erro relativamente baixas. Os métodos convencionais, nos mesmos experimentos, obtiveram sucesso próximo de zero.
Os pesquisadores afirmam que as descobertas destacam como a IA pode replicar tarefas que antes exigiam horas de trabalho de investigadores humanos. Um sistema de IA pode extrair automaticamente características relacionadas à identidade a partir de textos, buscar possíveis correspondências entre milhares de perfis e determinar qual candidato é o mais provável.
Este desenvolvimento é significativo porque o anonimato tem sido considerado, há muito tempo, uma proteção básica para muitos usuários da internet.
Contas pseudônimas são amplamente utilizadas por jornalistas, denunciantes, ativistas e pessoas comuns que desejam discutir tópicos sensíveis sem revelar suas identidades reais.
O estudo sugere que essa camada de proteção – por vezes chamada de “obscuridade prática” – pode estar enfraquecendo à medida que os sistemas de IA se tornam mais eficientes em conectar pistas digitais em diferentes plataformas. Se as ferramentas automatizadas conseguirem realizar esse trabalho de forma rápida e barata, a barreira para identificar usuários anônimos poderá diminuir drasticamente.
Os pesquisadores estimam que o custo de identificação de uma conta online usando seu sistema experimental pode variar entre US$ 1 e US$ 4 por perfil, o que significa que investigações em larga escala poderiam ser conduzidas a um custo relativamente baixo.
No entanto, os autores também observam que a pesquisa foi conduzida em ambientes controlados, utilizando dados públicos. O artigo ainda não foi revisado por pares e os pesquisadores omitiram intencionalmente alguns detalhes técnicos para reduzir o risco de uso indevido.
Ainda assim, as descobertas já suscitaram debates entre especialistas em privacidade e tecnólogos.
O estudo sugere que os indivíduos podem precisar repensar a quantidade de informações pessoais que revelam online – mesmo em espaços que parecem anônimos. Olhando para o futuro, os pesquisadores afirmam que são necessários mais estudos para compreender tanto os riscos quanto as possíveis defesas contra a desanonimização por inteligência artificial. As soluções potenciais podem incluir ferramentas de privacidade aprimoradas, proteções mais robustas nas plataformas ou sistemas de IA projetados para anonimizar dados sensíveis antes que sejam compartilhados publicamente.
À medida que a inteligência artificial se torna mais capaz de analisar grandes volumes de conteúdo online, o estudo destaca um desafio crescente: equilibrar o poder da descoberta impulsionada pela IA com a necessidade de proteger a privacidade pessoal na era digital.
O artigo "Pesquisa antrópica afirma que a IA pode expor em massa contas anônimas da internet" foi publicado originalmente no Digital Trends .

