A ameaça cibernética atingiu um novo nível: o grupo Lazarus Group, associado à Coreia do Norte e conhecido como BlueNoroff, está a aplicar ativamente tecnologias avançadas de inteligência artificial para criar chamadas de vídeo falsas com fundos realistas. Estes ataques destinam-se a profissionais da indústria de criptomoedas e demonstram o quão perigosa se torna a combinação de tecnologias de deepfake com engenharia social.
Tática de engano: vídeo com fundo falso como ferramenta de manipulação
De acordo com a empresa de investigação Odaily, os hackers iniciam chamadas de vídeo através de contas comprometidas no Telegram, onde utilizam vídeos gerados por IA com fundos falsificados, apresentando-os como pessoas de confiança da vítima. O cofundador da BTC Prague, Martin Kucharz, partilhou detalhes preocupantes: os atacantes convencem os utilizadores a instalar software malicioso, disfarçado de plugin do Zoom para supostamente corrigir problemas de áudio. Um vídeo realista com um fundo adequado aumenta a confiança da vítima várias vezes, tornando a engenharia social significativamente mais eficaz.
Arsenal técnico: o que acontece após a instalação do malware
Depois de a vítima instalar o malware disfarçado, os cibercriminosos obtêm controlo total sobre o dispositivo. Scripts maliciosos realizam infecções de múltiplos níveis no macOS, implantando backdoors, keyloggers e interceptando o conteúdo da área de transferência. É especialmente perigoso que o malware possa aceder a carteiras encriptadas e chaves privadas dos utilizadores.
A empresa de segurança Huntress identificou que esta metodologia está estreitamente relacionada com operações anteriores do mesmo grupo, direcionadas a desenvolvedores de criptomoedas. Investigadores da SlowMist confirmaram que os ataques demonstram um padrão claro de reutilização de táticas, adaptadas a carteiras de criptomoedas específicas e profissionais-alvo.
Porque é que o vídeo de deepfake é uma nova ameaça à verificação de identidade
A disseminação de tecnologias de criação de vídeos falsos e clonagem de voz está a mudar radicalmente o panorama de segurança digital. Métodos tradicionais de verificação de autenticidade através de chamadas de vídeo tornaram-se pouco confiáveis, uma vez que o fundo, a expressão facial e a voz podem ser perfeitamente simulados por inteligência artificial. Isto representa um desafio fundamental para o setor.
Como proteger os ativos de criptomoedas: recomendações práticas
Profissionais de criptomoedas devem reforçar imediatamente as medidas de cibersegurança. É necessário implementar autenticação multifator, usar chaves de segurança em vez de códigos SMS, e sobretudo — realizar verificações adicionais de qualquer pedido de chamada de vídeo através de canais de comunicação alternativos. Além disso, deve evitar-se instalar software recomendado por estranhos, mesmo que a chamada de vídeo pareça convincente com um fundo adequado. A vigilância e a consciencialização continuam a ser a melhor defesa contra a ameaça crescente de ataques de deepfake.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Vídeo de deepfake com fundo artificial: a nova arma dos cibercriminosos norte-coreanos contra a indústria das criptomoedas
A ameaça cibernética atingiu um novo nível: o grupo Lazarus Group, associado à Coreia do Norte e conhecido como BlueNoroff, está a aplicar ativamente tecnologias avançadas de inteligência artificial para criar chamadas de vídeo falsas com fundos realistas. Estes ataques destinam-se a profissionais da indústria de criptomoedas e demonstram o quão perigosa se torna a combinação de tecnologias de deepfake com engenharia social.
Tática de engano: vídeo com fundo falso como ferramenta de manipulação
De acordo com a empresa de investigação Odaily, os hackers iniciam chamadas de vídeo através de contas comprometidas no Telegram, onde utilizam vídeos gerados por IA com fundos falsificados, apresentando-os como pessoas de confiança da vítima. O cofundador da BTC Prague, Martin Kucharz, partilhou detalhes preocupantes: os atacantes convencem os utilizadores a instalar software malicioso, disfarçado de plugin do Zoom para supostamente corrigir problemas de áudio. Um vídeo realista com um fundo adequado aumenta a confiança da vítima várias vezes, tornando a engenharia social significativamente mais eficaz.
Arsenal técnico: o que acontece após a instalação do malware
Depois de a vítima instalar o malware disfarçado, os cibercriminosos obtêm controlo total sobre o dispositivo. Scripts maliciosos realizam infecções de múltiplos níveis no macOS, implantando backdoors, keyloggers e interceptando o conteúdo da área de transferência. É especialmente perigoso que o malware possa aceder a carteiras encriptadas e chaves privadas dos utilizadores.
A empresa de segurança Huntress identificou que esta metodologia está estreitamente relacionada com operações anteriores do mesmo grupo, direcionadas a desenvolvedores de criptomoedas. Investigadores da SlowMist confirmaram que os ataques demonstram um padrão claro de reutilização de táticas, adaptadas a carteiras de criptomoedas específicas e profissionais-alvo.
Porque é que o vídeo de deepfake é uma nova ameaça à verificação de identidade
A disseminação de tecnologias de criação de vídeos falsos e clonagem de voz está a mudar radicalmente o panorama de segurança digital. Métodos tradicionais de verificação de autenticidade através de chamadas de vídeo tornaram-se pouco confiáveis, uma vez que o fundo, a expressão facial e a voz podem ser perfeitamente simulados por inteligência artificial. Isto representa um desafio fundamental para o setor.
Como proteger os ativos de criptomoedas: recomendações práticas
Profissionais de criptomoedas devem reforçar imediatamente as medidas de cibersegurança. É necessário implementar autenticação multifator, usar chaves de segurança em vez de códigos SMS, e sobretudo — realizar verificações adicionais de qualquer pedido de chamada de vídeo através de canais de comunicação alternativos. Além disso, deve evitar-se instalar software recomendado por estranhos, mesmo que a chamada de vídeo pareça convincente com um fundo adequado. A vigilância e a consciencialização continuam a ser a melhor defesa contra a ameaça crescente de ataques de deepfake.