Угрозы киберпреступности резко растут: как ИИ меняет тактики взлома

Технология искусственного интеллекта (AI) стала мощным оружием в арсенале современных киберпреступников. Этот переход создает гораздо более сложный ландшафт угроз, с более быстрыми атаками, меньшими затратами и значительно большей сложностью обнаружения. Эксперты предупреждают, что киберпреступность вошла в новую эру, в которой масштаб и охват становятся ключевыми факторами.

Быстроразвивающаяся киберпреступность через автоматизацию AI

Ведущие компании AI, такие как Anthropic, OpenAI и Google, сообщили о значительном росте использования своих платформ для злонамеренной деятельности. Преступники используют эти технологии для разработки сложных spear-phishing операций, создания передового вредоносного ПО и проведения многоуровневых цифровых атак.

Одним из наиболее заметных изменений является появление deepfake аудио и видео, используемых для обмана сотрудников. Мошенники теперь могут создавать поддельный мультимедийный контент, имитирующий руководителей компаний, вынуждая сотрудников раскрывать конфиденциальную информацию или переводить деньги без подозрений.

Алиса Марвик, исследователь из Data & Society, объяснила это явление Wall Street Journal простым, но пробуждающим к размышлению заявлением: «Настоящее изменение — это масштаб и охват. Мошенничество стало больше, более целенаправленным и убедительным.»

Phishing-сообщения на базе AI доминируют в ландшафте угроз

Исследователь Брайан Сингер из Университета Карнеги-Меллон, специализирующийся на использовании больших языковых моделей в кибератаках, прогнозирует, что половина — три четверти всех спамов и phishing-сообщений по всему миру теперь исходят из систем AI.

Достоверность этих сообщений достигла нового уровня. Системы AI, обученные на стиле коммуникации компаний, могут генерировать тысячи сообщений, звучащих естественно и соответствующих стилю целевой организации. Эти сообщения:

  • Точно имитируют стиль руководителей
  • Ссылаются на свежие новости из публичных источников
  • Устраняют языковые ошибки, которые ранее выдавали международные мошеннические попытки

Джон Хулткист, главный аналитик Threat Intelligence Group Google, описывает этот сдвиг как «масштабную достоверность».

Целевые атаки на основе данных: выявление уязвимых жертв

Злонамеренные пользователи становятся все более изощренными в выборе целей. Они используют AI для анализа социальных сетей и выявления лиц, сталкивающихся с серьезными жизненными трудностями — разводы, смерть близких, потеря работы — что делает их более уязвимыми к романтическим мошенничествам, инвестиционным аферам или поддельным предложениям работы.

Этот подход на основе данных значительно повышает коэффициент конверсии мошенничества.

Тёмный рынок снижает барьеры для входа в киберпреступность

Подпольная экосистема превратилась в центр распространения криминальных инструментов AI. Эти платформы предлагают взломные инструменты по доступным ценам — начиная с $90 в месяц — с поддержкой клиентов на разных уровнях.

Эти услуги работают под названиями WormGPT, FraudGPT и DarkGPT. Они позволяют:

  • Создавать вредоносное ПО без ручного программирования
  • Автоматизировать масштабные phishing-кампании
  • Предоставлять структурированные руководства по хакерским техникам для новичков

Николя Кристин, руководитель отдела программного обеспечения и систем в Carnegie Mellon, объясняет бизнес-модель так: «Разработчики продают подписки на платформы атак по разным ценам и с полной поддержкой клиентов.»

Маггрет Куннингем, заместитель президента по безопасности и стратегии AI в Darktrace, упрощает барьеры для навыков: «Вам не нужно знать, как писать код, достаточно знать, где найти инструменты.»

Последние разработки, называемые «vibe-coding» или «vibe-hacking», позволяют потенциальным преступникам использовать AI для создания своих вредоносных программ вместо покупки их на тёмных рынках. Anthropic заявил в начале этого года, что остановил несколько попыток использования Claude AI для создания программ-вымогателей «преступниками с минимальными техническими навыками».

Индустриализация операций киберпреступности

Киберпреступность уже много лет функционирует как специализированная бизнес-экосистема. Типичные операции по вымогательству включают разделение труда:

Брокеры доступа взламывают сети компаний и продают доступ следующим группам.

Команды проникновения перемещаются по системам, чтобы украсть ценные данные.

Поставщики ransomware выпускают вредоносное ПО, ведут переговоры и распределяют прибыль.

AI революционизировало эту модель, увеличивая скорость, автоматизацию и масштабируемость. Работа, ранее требовавшая специальных технических навыков, теперь может выполняться автоматически, что позволяет преступным организациям работать с меньшим штатом, меньшими рисками и большей прибылью.

Кристин делает точную аналогию: «Думайте об этом как о следующей индустриальной революции. AI повышает производительность без необходимости нанимать больше квалифицированных специалистов.»

Может ли AI полностью самостоятельно осуществлять атаки?

Этот важный вопрос пока остается без однозначного ответа. Эксперты сравнивают ситуацию с развитием автономных транспортных средств. Первые пять процентов автоматизации достигнуты, но последние пять процентов, позволяющие полностью автономные операции, еще очень далеки.

Исследователи тестируют возможности хакерского AI в лабораторных условиях. Команда из Carnegie Mellon при поддержке Anthropic смогла в начале этого года смоделировать утечку данных из известного сервиса Equifax с помощью AI — что Сингер назвал «большим скачком» в автоматизации атак.

Роль AI в обороне: есть ли надежда?

Несмотря на то, что злоумышленники используют AI для вредоносных целей, эта же технология предлагает мощные средства защиты. Anthropic и OpenAI разрабатывают системы, которые могут постоянно проверять программный код на наличие уязвимостей до того, как их обнаружат злоумышленники.

Новые AI-программы, разработанные исследователями Stanford, показывают лучшие результаты, чем некоторые человеческие тестировщики безопасности, в выявлении проблем с уязвимостями сети.

Однако Хулткист подчеркивает, что AI — не волшебная пилюля. Организации должны сосредоточиться на создании устойчивых систем, которые продолжают функционировать даже при атаках. Полностью предотвратить угрозы невозможно; важна устойчивость.

Организации и отдельные лица, понимающие эволюцию киберпреступности, уже на шаг впереди в своих оборонительных мерах.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить