Hackers estão usando IA para espalhar malware perigoso no YouTube
O YouTube é a fronteira mais recente em que o conteúdo gerado por IA está sendo usado para enganar os usuários para que baixem malware que pode roubar suas informações pessoais.
À medida que a geração de IA se torna cada vez mais popular em várias plataformas, também aumenta o desejo de lucrar com ela de maneiras maliciosas. A empresa de pesquisa CloudSEK observou um aumento de 200% a 300% no número de vídeos no YouTube que incluem links para fontes populares de malware, como Vidar, RedLine e Raccoon, diretamente nas descrições desde novembro de 2022.
Os vídeos são configurados como tutoriais para download de versões crackeadas de softwares que normalmente exigem licença paga para uso, como Photoshop, Premiere Pro, Autodesk 3ds Max, AutoCAD, entre outros.
Os atores mal-intencionados se beneficiam criando vídeos gerados por IA em plataformas como Synthesia e D-ID . Eles criam vídeos que apresentam humanos com recursos universalmente familiares e confiáveis. Essa tendência popular tem sido usada nas mídias sociais e há muito tempo em recrutamento, material educacional e promocional, observou CloudSEK.
A combinação dos métodos mencionados anteriormente faz com que os usuários possam ser facilmente induzidos a clicar em links maliciosos e baixar o infostealer de malware. Quando instalado, ele tem acesso aos dados privados do usuário, incluindo “senhas, informações de cartão de crédito, números de contas bancárias e outros dados confidenciais”, que podem ser carregados no servidor de comando e controle do malfeitor.
Outras informações privadas que podem estar em risco para o malware infostealer incluem dados do navegador, dados da carteira Crypto, dados do Telegram, arquivos de programa como .txt e informações do sistema, como endereços IP.
Embora existam muitos antivírus e sistemas de detecção de endpoints em cima dessa nova marca de malware gerado por IA, também existem muitos desenvolvedores de ladrões de informações para garantir que o ecossistema permaneça vivo e bem. Embora CloudSEK tenha notado que os malfeitores surgiram junto com a revolução da IA em novembro de 2022, parte daprimeira atenção da mídia de hackers usando o código ChatGPT para criar malware não apareceu até o início de fevereiro.
Os desenvolvedores de ladrões de informações também recrutam e colaboram com traficantes, outros atores que podem encontrar e compartilhar informações sobre vítimas em potencial por meio de mercados clandestinos, fóruns e canais do Telegram. Traffers são normalmente aqueles que fornecem sites falsos, e-mails de phishing, tutoriais do YouTube ou postagens de mídia social nas quais os desenvolvedores de ladrões de informações podem anexar seu malware. Também houve um golpe semelhante com atores mal-intencionados hospedando anúncios falsos em mídias sociais e sites para a versão paga do ChatGPT.
No entanto, no YouTube, eles estão assumindo contas e enviando vários vídeos de uma só vez para chamar a atenção dos seguidores do criador original. Atores mal-intencionados assumirão contas populares e contas atualizadas com pouca frequência para diferentes propósitos.
Assumir o controle de uma conta com mais de 100.000 assinantes e enviar entre cinco e seis vídeos com malware certamente gerará alguns cliques antes que o proprietário recupere o controle de sua conta. Os espectadores podem identificar o vídeo como nefasto e denunciá-lo ao YouTube, que o removerá. Uma conta menos popular pode ter infectado vídeos ao vivo e o proprietário pode não saber por algum tempo.
Adicionar comentários falsos e links bit.ly e cutt.ly abreviados aos vídeos também os faz parecer mais válidos.