Vídeo de deepfake com fundo artificial: a nova arma dos cibercriminosos norte-coreanos contra a indústria das criptomoedas

robot
Geração de resumo em curso

A ameaça cibernética atingiu um novo nível: o grupo Lazarus Group, associado à Coreia do Norte e conhecido como BlueNoroff, está a aplicar ativamente tecnologias avançadas de inteligência artificial para criar chamadas de vídeo falsas com fundos realistas. Estes ataques destinam-se a profissionais da indústria de criptomoedas e demonstram o quão perigosa se torna a combinação de tecnologias de deepfake com engenharia social.

Tática de engano: vídeo com fundo falso como ferramenta de manipulação

De acordo com a empresa de investigação Odaily, os hackers iniciam chamadas de vídeo através de contas comprometidas no Telegram, onde utilizam vídeos gerados por IA com fundos falsificados, apresentando-os como pessoas de confiança da vítima. O cofundador da BTC Prague, Martin Kucharz, partilhou detalhes preocupantes: os atacantes convencem os utilizadores a instalar software malicioso, disfarçado de plugin do Zoom para supostamente corrigir problemas de áudio. Um vídeo realista com um fundo adequado aumenta a confiança da vítima várias vezes, tornando a engenharia social significativamente mais eficaz.

Arsenal técnico: o que acontece após a instalação do malware

Depois de a vítima instalar o malware disfarçado, os cibercriminosos obtêm controlo total sobre o dispositivo. Scripts maliciosos realizam infecções de múltiplos níveis no macOS, implantando backdoors, keyloggers e interceptando o conteúdo da área de transferência. É especialmente perigoso que o malware possa aceder a carteiras encriptadas e chaves privadas dos utilizadores.

A empresa de segurança Huntress identificou que esta metodologia está estreitamente relacionada com operações anteriores do mesmo grupo, direcionadas a desenvolvedores de criptomoedas. Investigadores da SlowMist confirmaram que os ataques demonstram um padrão claro de reutilização de táticas, adaptadas a carteiras de criptomoedas específicas e profissionais-alvo.

Porque é que o vídeo de deepfake é uma nova ameaça à verificação de identidade

A disseminação de tecnologias de criação de vídeos falsos e clonagem de voz está a mudar radicalmente o panorama de segurança digital. Métodos tradicionais de verificação de autenticidade através de chamadas de vídeo tornaram-se pouco confiáveis, uma vez que o fundo, a expressão facial e a voz podem ser perfeitamente simulados por inteligência artificial. Isto representa um desafio fundamental para o setor.

Como proteger os ativos de criptomoedas: recomendações práticas

Profissionais de criptomoedas devem reforçar imediatamente as medidas de cibersegurança. É necessário implementar autenticação multifator, usar chaves de segurança em vez de códigos SMS, e sobretudo — realizar verificações adicionais de qualquer pedido de chamada de vídeo através de canais de comunicação alternativos. Além disso, deve evitar-se instalar software recomendado por estranhos, mesmo que a chamada de vídeo pareça convincente com um fundo adequado. A vigilância e a consciencialização continuam a ser a melhor defesa contra a ameaça crescente de ataques de deepfake.

BTC-0,88%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)