A IA está tornando um golpe de longa duração ainda mais eficaz

Você sem dúvida já ouviu falar do golpe em que o perpetrador liga para uma pessoa idosa e finge ser seu neto ou algum outro parente próximo. A rotina usual é agir em estado de angústia, fingir que está em uma situação complicada e pedir uma transferência de dinheiro urgente para resolver a situação. Enquanto muitos avós percebem que a voz não é do neto e desligam, outros não percebem e, ansiosos demais para ajudar o parente ansioso, enviam dinheiro para a conta do chamador.

Um relatório do Washington Post no domingo revela que alguns golpistas levaram o golpe a um nível totalmente novo, implantando tecnologia de IA capaz de clonar vozes, tornando ainda mais provável que o alvo caia no ardil.

Uma pessoa idosa segurando um telefone.

Para lançar esta versão mais sofisticada do golpe, os criminosos exigem “uma amostra de áudio com apenas algumas frases”, de acordo com o Post. A amostra é então executada por meio de uma das muitas ferramentas on-line amplamente disponíveis que usam a voz original para criar uma réplica que pode ser instruída a dizer o que quiser simplesmente digitando frases.

Dados da Federal Trade Commission sugerem que, somente em 2022, houve mais de 36.000 denúncias dos chamados golpes de impostor, com mais de 5.000 deles acontecendo por telefone. As perdas relatadas chegaram a US $ 11 milhões.

O medo é que, com as ferramentas de IA se tornando mais eficazes e amplamente disponíveis, ainda mais pessoas caiam no golpe nos próximos meses e anos.

O golpe ainda exige algum planejamento, no entanto, com um perpetrador determinado precisando encontrar uma amostra de áudio de uma voz, bem como o número de telefone da vítima relacionada. Amostras de áudio, por exemplo, podem ser localizadas online em sites populares como TikTok e YouTube, enquanto números de telefone também podem ser localizados na web.

O golpe também pode assumir várias formas. O Post cita um exemplo em que alguém fingindo ser advogado entrou em contato com um casal de idosos, dizendo que seu neto estava sob custódia por um suposto crime e que eles precisavam de mais de US$ 15.000 para despesas legais. O falso advogado então fingiu passar o telefone para o neto, cuja voz clonada pedia ajuda para pagar os honorários, o que eles devidamente fizeram.

Eles só perceberam que haviam sido enganados quando o neto ligou para eles mais tarde naquele dia para uma conversa. Acredita-se que o golpista possa ter clonado sua voz de vídeos do YouTube que o neto postou, embora seja difícil ter certeza.

Alguns estão pedindo que as empresas que fabricam a tecnologia de IA que clona vozes sejam responsabilizadas por tais crimes. Mas antes que isso aconteça, parece certo que muitos outros perderão dinheiro com esse golpe nefasto.

Para ouvir um exemplo de uma voz clonada para ver o quão perto ela pode chegar do original, confira este artigo sobre Tendências Digitais .