Meta está treinando IA em seus dados. Os usuários dizem que cancelar não funciona.
Imagine um gigante da tecnologia dizendo que deseja que suas postagens no Instagram e no Facebook treinem seus modelos de IA. E isso também, sem qualquer incentivo. Você pode, no entanto, optar por não participar, de acordo com a empresa. Mas à medida que você avança com as ferramentas oficiais para recuar e evitar que a IA devore seu conteúdo social, elas simplesmente não funcionam.
É isso que os usuários do Facebook e do Instagram estão relatando agora. Nate Hake, editor e chefe fundador da Travel Lemming, compartilhou que recebeu um e-mail da Meta sobre o uso de seu conteúdo de mídia social para treinamento de IA. No entanto, o link para o formulário de cancelamento fornecido pela Meta não funciona.
Mas essa não é a pior parte. A Meta garantiu recentemente que honrará a escolha dos usuários que não desejam que seus dados sejam usados para treinamento de IA. Hake afirma que Meta não tomará nenhuma ação a seu pedido. Em vez disso, ele recebeu uma resposta dizendo que a empresa “não pode tomar outras medidas” conforme seu desejo.
O que está acontecendo?

Em 2018, quando Meta atendia pelo nome de Facebook, a empresa revelou que estava treinando algoritmos de IA usando milhões de fotos compartilhadas no Instagram. Os modelos homônimos Meta AI e Llama AI não existiam naquele momento. Mas já era um mau presságio para o que estava por vir.
Avançando para 2025, temos um gigante das redes sociais que está apostando tudo na IA, que é notoriamente ávido por poder e mais dados de treinamento. Os usuários de plataformas Meta, como Instagram e Facebook, agora estão descobrindo que seus dados estão sendo alimentados por uma IA, e a ferramenta de exclusão bloqueada por região simplesmente não está funcionando.
A Meta vem treinando em conteúdo compartilhado por usuários há anos, mas dada a ladeira escorregadia das leis de direitos autorais e da privacidade do usuário, a empresa enfrentou muita pressão regulatória. Finalmente, em Junho do ano passado, a empresa disse que iria suspender os planos para treinar o seu sistema de IA nos dados sociais dos utilizadores residentes na região da UE.

Menos de um ano depois, porém, a empresa revelou que começará a coletar conteúdo de usuário, como fotos, vídeos, comentários e bate-papos com Meta AI, de usuários que vivem na UE e no Reino Unido . Meta concluiu que este é um modus operandi padrão que vem seguindo há anos em todo o mundo.
“Estamos seguindo o exemplo dado por outros, incluindo Google e OpenAI, que já usaram dados de usuários europeus para treinar seus modelos de IA”, disse a empresa em uma postagem oficial no blog .
Deixe-os cancelar, se puderem
Em meados de abril deste ano, a Meta disse que começaria a informar os usuários do bloco da UE e do Reino Unido sobre sua mudança na política de treinamento em IA. A empresa observou que informaria os usuários por meio de uma notificação no aplicativo e os avisaria por e-mail oficial.
“Essas notificações também incluirão um link para um formulário onde as pessoas podem se opor ao uso de seus dados dessa forma a qualquer momento”, disse a empresa. A Meta garantiu que o formulário de objeção seria fácil de localizar para os usuários do Instagram e do Facebook e forneceria todas as informações necessárias em linguagem simples.

De acordo com Hake, o link de cancelamento fornecido pela Meta não está funcionando. Vários usuários que responderam à sua postagem também mencionaram uma situação semelhante, criticando o Meta por sua conduta obscura. Não está claro se o formulário de cancelamento que não responde é uma falha ou não.
Hake, no entanto, aponta o total desrespeito pela escolha do usuário e a aparente reviravolta por parte da empresa. A Meta prometeu há pouco mais de uma semana que “honraria todos os formulários de objeção que já recebemos, bem como os recém-enviados”.
De acordo com Hake, quando ele entrou em contato com a Meta com a solicitação e o problema do formulário de cancelamento, o executivo da empresa respondeu que não tomaria nenhuma ação adicional em relação ao seu pedido. A Meta afirma que se orgulha de sua abordagem transparente no uso de conteúdo social para treinamento de IA, mas parece que a empresa não está monitorando se está cumprindo esses compromissos de maneira justa.