Киберугроза достигла нового уровня: группировка Lazarus Group, связанная с Северной Кореей и известная как BlueNoroff, активно применяет передовые технологии искусственного интеллекта для создания фейковых видеозвонков с реалистичным фоном. Эти атаки нацелены на специалистов криптоиндустрии и демонстрируют, насколько опасной становится комбинация дипфейк-технологий с социальной инженерией.
Тактика обмана: видео с фальшивым фоном как инструмент манипуляции
По информации исследовательской компании Odaily, хакеры инициируют видеозвонки через скомпрометированные Telegram-аккаунты, где используют ИИ-сгенерированные видео с поддельным фоном, выдающим их за доверенных лиц жертвы. Соучредитель BTC Prague Мартин Кухарж поделился тревожными деталями: атакующие убеждают пользователей установить вредоносное программное обеспечение, маскируя его под Zoom-плагин для якобы исправления проблем со звуком. Реалистичное видео с подходящим фоном повышает доверие жертвы в несколько раз, делая социальную инженерию существенно эффективнее.
Технический арсенал: что происходит после установки вредоноса
После того как жертва устанавливает замаскированный вредонос, киберпреступники получают полный контроль над устройством. Зловредные скрипты проводят многоуровневые инфекции на macOS, внедряя бекдоры, логгеры нажатий клавиш и перехватывая содержимое буфера обмена. Особенно опасно, что вредонос может получить доступ к зашифрованным кошелькам и приватным ключам пользователей.
Компания по безопасности Huntress выявила, что эта методология тесно связана с предыдущими операциями той же группировки, нацеленными на разработчиков криптовалют. Исследователи из SlowMist подтвердили, что атаки демонстрируют четкую схему переиспользования тактик с адаптацией под конкретные криптокошельки и целевых профессионалов.
Почему дипфейк-видео - это новая угроза для верификации личности
Распространение технологий создания фальшивых видео и клонирования голоса коренным образом меняет цифровой ландшафт безопасности. Традиционные методы проверки подлинности личности через видеозвонки теперь ненадежны, когда фон, выражение лица и голос могут быть идеально смоделированы искусственным интеллектом. Это создает фундаментальный вызов для отрасли.
Как защитить крипто-активы: практические рекомендации
Крипто-профессионалы должны незамедлительно усилить меры информационной безопасности. Необходимо внедрить многофакторную аутентификацию, использовать ключи безопасности вместо SMS-кодов, и прежде всего - проводить внебольшую верификацию любых видеозвонков запросы через альтернативные каналы связи. Кроме того, следует воздержаться от установки софта, рекомендуемого незнакомцами, даже если видеозвонок выглядит убедительно с правильным фоном. Бдительность и осведомленность остаются лучшей защитой против растущей угрозы дипфейк-атак.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Дипфейк-видео с искусственным фоном: новое оружие северокорейских киберпреступников против крипто-индустрии
Киберугроза достигла нового уровня: группировка Lazarus Group, связанная с Северной Кореей и известная как BlueNoroff, активно применяет передовые технологии искусственного интеллекта для создания фейковых видеозвонков с реалистичным фоном. Эти атаки нацелены на специалистов криптоиндустрии и демонстрируют, насколько опасной становится комбинация дипфейк-технологий с социальной инженерией.
Тактика обмана: видео с фальшивым фоном как инструмент манипуляции
По информации исследовательской компании Odaily, хакеры инициируют видеозвонки через скомпрометированные Telegram-аккаунты, где используют ИИ-сгенерированные видео с поддельным фоном, выдающим их за доверенных лиц жертвы. Соучредитель BTC Prague Мартин Кухарж поделился тревожными деталями: атакующие убеждают пользователей установить вредоносное программное обеспечение, маскируя его под Zoom-плагин для якобы исправления проблем со звуком. Реалистичное видео с подходящим фоном повышает доверие жертвы в несколько раз, делая социальную инженерию существенно эффективнее.
Технический арсенал: что происходит после установки вредоноса
После того как жертва устанавливает замаскированный вредонос, киберпреступники получают полный контроль над устройством. Зловредные скрипты проводят многоуровневые инфекции на macOS, внедряя бекдоры, логгеры нажатий клавиш и перехватывая содержимое буфера обмена. Особенно опасно, что вредонос может получить доступ к зашифрованным кошелькам и приватным ключам пользователей.
Компания по безопасности Huntress выявила, что эта методология тесно связана с предыдущими операциями той же группировки, нацеленными на разработчиков криптовалют. Исследователи из SlowMist подтвердили, что атаки демонстрируют четкую схему переиспользования тактик с адаптацией под конкретные криптокошельки и целевых профессионалов.
Почему дипфейк-видео - это новая угроза для верификации личности
Распространение технологий создания фальшивых видео и клонирования голоса коренным образом меняет цифровой ландшафт безопасности. Традиционные методы проверки подлинности личности через видеозвонки теперь ненадежны, когда фон, выражение лица и голос могут быть идеально смоделированы искусственным интеллектом. Это создает фундаментальный вызов для отрасли.
Как защитить крипто-активы: практические рекомендации
Крипто-профессионалы должны незамедлительно усилить меры информационной безопасности. Необходимо внедрить многофакторную аутентификацию, использовать ключи безопасности вместо SMS-кодов, и прежде всего - проводить внебольшую верификацию любых видеозвонков запросы через альтернативные каналы связи. Кроме того, следует воздержаться от установки софта, рекомендуемого незнакомцами, даже если видеозвонок выглядит убедительно с правильным фоном. Бдительность и осведомленность остаются лучшей защитой против растущей угрозы дипфейк-атак.