‘Perspectivas sombrias’ como criminosos comandam chatbots de IA, diz Europol
A Europol emitiu nesta semana um alerta severo destacando os riscos representados pelos criminosos ao lidar com a nova onda de chatbots avançados de IA.
Em uma postagem compartilhada on-line esta semana, a agência de aplicação da lei da Europa descreveu como ferramentas como ChatGPT e GPT-4 da OpenAI e Bard do Google serão cada vez mais usadas por criminosos em busca de novas maneiras de enganar o público.
Ele identificou três áreas específicas que mais o preocupam.
O primeiro é a fraude e a engenharia social, em que e-mails são enviados aos alvos na esperança de fazer com que eles baixem um arquivo infectado por malware ou cliquem em um link que os leve a um site igualmente perigoso.
Os e-mails de phishing, como são conhecidos, geralmente estão cheios de erros gramaticais e ortográficos e acabam na pasta de lixo eletrônico. Mesmo aqueles que chegam à caixa de entrada são escritos de forma tão assustadora que o destinatário é capaz de descartá-los rapidamente sem pensar duas vezes.
Mas os chatbots de IA são capazes de criar mensagens bem escritas sem erros desleixados, permitindo que os criminosos enviem e-mails convincentes que significam que os destinatários terão que prestar atenção extra ao verificar suas mensagens.
A Europol disse que os chatbots avançados são capazes de “reproduzir padrões de linguagem podem ser usados para representar o estilo de fala de indivíduos ou grupos específicos”, acrescentando que tal capacidade pode ser “abusada em escala para induzir vítimas em potencial a confiar nas mãos de atores criminosos”.
Uma forma mais convincente de desinformação também deve proliferar, com a nova onda de chatbots se destacando na criação de textos autênticos em velocidade e escala, disse a Europol, acrescentando: “Isso torna o modelo ideal para fins de propaganda e desinformação, pois permite usuários para gerar e espalhar mensagens refletindo uma narrativa específica com relativamente pouco esforço”.
Em terceiro lugar, a Europol citou a codificação como uma nova área sendo aproveitada por cibercriminosos para criar software malicioso. “Além de gerar linguagem semelhante à humana, o ChatGPT é capaz de produzir código em várias linguagens de programação diferentes”, destacou a agência. “Para um potencial criminoso com pouco conhecimento técnico, este é um recurso inestimável para produzir código malicioso.”
Ele disse que a situação “fornece uma perspectiva sombria” para aqueles que estão do lado certo da lei, pois atividades nefastas online se tornam mais difíceis de detectar.
A mania do chatbot de IA decolou em novembro de 2022, quando a OpenAI, apoiada pela Microsoft, lançou sua impressionante ferramenta ChatGPT. Uma versão melhorada, GPT-4, foi lançada recentemente , enquanto o Google também revelou sua própria ferramenta semelhante, chamada Bard. Todos os três são conhecidos por sua capacidade impressionante de criar texto com som natural com apenas alguns prompts, com a tecnologia provavelmente para ajudar ou até mesmo substituir uma série de trabalhos diferentes nos próximos anos.
Outra tecnologia semelhante baseada em IA permite criar imagens, vídeos e áudio originais com apenas alguns prompts de texto, destacando como nenhuma forma de mídia escapará do impacto da IA à medida que a tecnologia continua a melhorar.
Algumas vozes importantes têm preocupações compreensíveis sobre sua rápida ascensão, com uma recente carta aberta assinada por Elon Musk , o cofundador da Apple Steve Wozniak e vários especialistas afirmando que sistemas de IA com inteligência competitiva humana podem representar “riscos profundos para a sociedade e a humanidade”. A carta pedia uma pausa de seis meses para permitir a criação e implementação de protocolos de segurança para as ferramentas avançadas, acrescentando que, se tratadas da maneira certa, “a humanidade pode desfrutar de um futuro próspero com a IA”.