Seu cérebro consegue identificar vozes de IA mesmo quando você não consegue.
Provavelmente você não consegue distinguir uma voz humana real de um clone de IA , e você não está sozinho nessa dificuldade. Mas aqui está a parte surpreendente: seu cérebro já começou a perceber a diferença.
Pesquisadores da Universidade de Tianjin e da Universidade Chinesa de Hong Kong testaram a capacidade de 30 pessoas em detectar fala gerada por IA , e os resultados foram surpreendentes.
Os participantes falharam consistentemente em distinguir vozes reais de vozes sintéticas, mesmo após uma breve sessão de treinamento destinada a ajudá-los a melhorar. No entanto, quando os cientistas examinaram as gravações neurais obtidas por meio de eletroencefalografia (EEG), descobriram algo mais acontecendo nos bastidores. O sistema auditivo estava silenciosamente fazendo seu trabalho.
O cérebro ouve o que você perde.
O estudo, publicado na revista eNeuro, utilizou frases faladas por pessoas reais juntamente com dois tipos de vozes de IA . Um conjunto era de fala sintética básica, enquanto o outro foi ajustado para soar mais humano.
Os ouvintes apertaram botões para adivinhar se cada voz era real ou falsa , e erraram. Muitas vezes. Mas os eletrodos de EEG que monitoravam a atividade neural revelaram uma história mais interessante.
Após apenas 12 minutos de treinamento, essas respostas neurais começaram a se separar. O cérebro passou a classificar a fala sintética de forma diferente em três momentos distintos, por volta de 55 milissegundos, 210 milissegundos e 455 milissegundos após ouvir uma voz. Esses são estágios iniciais de processamento, muito antes do pensamento consciente entrar em cena.
Por que seus ouvidos estão à frente do seu cérebro?
Você está lidando com uma lacuna entre percepção e decisão. Seu sistema auditivo registra sutis nuances sonoras nas vozes da IA, mas ainda não conectou esses sinais ao botão "isso é falso" em sua mente.
Os pesquisadores descobriram diferenças físicas reais nas vozes que explicam essa discrepância. A análise acústica mostrou que a fala real e a fala gerada por IA variam na faixa de modulação de 5,4 a 11,7 Hz, uma banda ligada à forma como nossos cérebros rastreiam detalhes rápidos da fala, como fonemas e início de sílabas. As vozes de IA, mesmo as que soam incrivelmente naturais, aparentemente não reproduzem essas microvariações com perfeição. Ainda.
O que isso significa para os golpes com deepfakes
Esta pesquisa traz, na verdade, boas notícias. Significa que os humanos não estão indefesos contra fraudes de clonagem de voz e que o hardware biológico funciona perfeitamente. Precisamos apenas aprender a usá-lo.
Ferramentas futuras poderão ensinar as pessoas a ouvir os sinais específicos que seus cérebros já detectam. Em vez de conselhos genéricos como "tenha cuidado", poderemos ter programas de treinamento direcionados que ajudem a conectar a percepção neural à tomada de decisões conscientes. Os dados existem, os sinais existem e agora trata-se de conectar esses pontos.
Por ora, a conclusão é estranhamente reconfortante. Seu cérebro está trabalhando mais do que você imagina e já está se adaptando às vozes de IA, mesmo que sua mente consciente ainda não tenha acompanhado esse processo.
O artigo"Seu cérebro consegue identificar vozes de IA mesmo quando você não consegue" foi publicado originalmente no Digital Trends .

