Essa técnica invisível envenena as músicas para que a IA não consiga cloná-las.

No ano passado, clones de IA de Bad Bunny e Drake inundaram as plataformas de streaming. Os ouvintes não conseguiam distinguir as faixas originais das imitações sintéticas. Desde então, a indústria musical tem buscado respostas desesperadamente.

Pesquisadores da Universidade de Binghamton e da startup Cauth AI acreditam ter encontrado uma solução . Chamada My Music My Choice, ou MMMC, ela funciona de maneira diferente da maioria das ferramentas de direitos autorais. Em vez de detectar falsificações depois que elas surgem, esse método permite que os artistas alterem suas gravações antes do lançamento. O áudio chega aos ouvidos humanos sem problemas. Mas os modelos de clonagem de voz só ouvem ruídos.

Eis como o envenenamento realmente funciona.

O sistema analisa a forma de onda da música. O My Music My Choice adiciona alterações microscópicas tão sutis que você nunca as notará. Reproduza a faixa no Spotify e ela soará exatamente como a gravação original.

Mas, ao inserir esse arquivo em um software de clonagem, tudo dá errado. As mudanças de tom confundem o algoritmo, fazendo com que os vocais protegidos sejam interpretados como uma performance completamente diferente. Quando a ferramenta tenta replicar a voz, produz apenas estática distorcida.

O objetivo é minimizar o impacto sobre os ouvintes humanos, ao mesmo tempo que se maximiza a interrupção para as máquinas. Os artistas poderiam aplicar essa proteção durante a produção e o lançamento com a confiança de que o software de clonagem não funcionará.

Por que a onda do ano passado tornou isso urgente?

Bad Bunny lança uma nova música e, em poucas horas, a internet se enche de versões com qualidade de estúdio cantadas por qualquer pessoa. A Inteligência Artificial Generativa tornou esse cenário realidade em 2025. Os fãs não conseguiam mais distinguir o que era autêntico.

Além do caos dos direitos autorais, os artistas viram suas identidades serem usadas sem permissão. As pessoas usam a clonagem de voz por diversão, mas também para fins nefastos, disse Ciftci, capturando a voz de alguém e fazendo-a cantar coisas que jamais cantaria. O impacto emocional e a perda de receita se acumularam rapidamente. Os músicos precisavam de uma maneira de impedir isso antes que acontecesse. O MMMC finalmente lhes oferece essa solução.

O que vem a seguir para os artistas e para a ferramenta?

A equipe testou o MMMC em 150 faixas de diversos gêneros e planeja expandir o projeto. Eles também querem compará-lo com métodos semelhantes, embora admitam que ainda não existam muitos disponíveis.

Para os músicos que acompanham este espaço, a mensagem é clara: a proteção virá antes da clonagem, não depois. Fiquem atentos para testes mais abrangentes à medida que a equipe aumenta sua capacidade.

O artigo "Esta técnica invisível envenena músicas para que a IA não consiga cloná-las" foi publicado originalmente no Digital Trends .