Дипфейк-видео с искусственным фоном: новое оружие северокорейских киберпреступников против крипто-индустрии

robot
Генерация тезисов в процессе

Киберугроза достигла нового уровня: группировка Lazarus Group, связанная с Северной Кореей и известная как BlueNoroff, активно применяет передовые технологии искусственного интеллекта для создания фейковых видеозвонков с реалистичным фоном. Эти атаки нацелены на специалистов криптоиндустрии и демонстрируют, насколько опасной становится комбинация дипфейк-технологий с социальной инженерией.

Тактика обмана: видео с фальшивым фоном как инструмент манипуляции

По информации исследовательской компании Odaily, хакеры инициируют видеозвонки через скомпрометированные Telegram-аккаунты, где используют ИИ-сгенерированные видео с поддельным фоном, выдающим их за доверенных лиц жертвы. Соучредитель BTC Prague Мартин Кухарж поделился тревожными деталями: атакующие убеждают пользователей установить вредоносное программное обеспечение, маскируя его под Zoom-плагин для якобы исправления проблем со звуком. Реалистичное видео с подходящим фоном повышает доверие жертвы в несколько раз, делая социальную инженерию существенно эффективнее.

Технический арсенал: что происходит после установки вредоноса

После того как жертва устанавливает замаскированный вредонос, киберпреступники получают полный контроль над устройством. Зловредные скрипты проводят многоуровневые инфекции на macOS, внедряя бекдоры, логгеры нажатий клавиш и перехватывая содержимое буфера обмена. Особенно опасно, что вредонос может получить доступ к зашифрованным кошелькам и приватным ключам пользователей.

Компания по безопасности Huntress выявила, что эта методология тесно связана с предыдущими операциями той же группировки, нацеленными на разработчиков криптовалют. Исследователи из SlowMist подтвердили, что атаки демонстрируют четкую схему переиспользования тактик с адаптацией под конкретные криптокошельки и целевых профессионалов.

Почему дипфейк-видео - это новая угроза для верификации личности

Распространение технологий создания фальшивых видео и клонирования голоса коренным образом меняет цифровой ландшафт безопасности. Традиционные методы проверки подлинности личности через видеозвонки теперь ненадежны, когда фон, выражение лица и голос могут быть идеально смоделированы искусственным интеллектом. Это создает фундаментальный вызов для отрасли.

Как защитить крипто-активы: практические рекомендации

Крипто-профессионалы должны незамедлительно усилить меры информационной безопасности. Необходимо внедрить многофакторную аутентификацию, использовать ключи безопасности вместо SMS-кодов, и прежде всего - проводить внебольшую верификацию любых видеозвонков запросы через альтернативные каналы связи. Кроме того, следует воздержаться от установки софта, рекомендуемого незнакомцами, даже если видеозвонок выглядит убедительно с правильным фоном. Бдительность и осведомленность остаются лучшей защитой против растущей угрозы дипфейк-атак.

BTC-4,17%
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить