Технология искусственного интеллекта (AI) стала мощным оружием в арсенале современных киберпреступников. Этот переход создает гораздо более сложный ландшафт угроз, с более быстрыми атаками, меньшими затратами и значительно большей сложностью обнаружения. Эксперты предупреждают, что киберпреступность вошла в новую эру, в которой масштаб и охват становятся ключевыми факторами.
Быстроразвивающаяся киберпреступность через автоматизацию AI
Ведущие компании AI, такие как Anthropic, OpenAI и Google, сообщили о значительном росте использования своих платформ для злонамеренной деятельности. Преступники используют эти технологии для разработки сложных spear-phishing операций, создания передового вредоносного ПО и проведения многоуровневых цифровых атак.
Одним из наиболее заметных изменений является появление deepfake аудио и видео, используемых для обмана сотрудников. Мошенники теперь могут создавать поддельный мультимедийный контент, имитирующий руководителей компаний, вынуждая сотрудников раскрывать конфиденциальную информацию или переводить деньги без подозрений.
Алиса Марвик, исследователь из Data & Society, объяснила это явление Wall Street Journal простым, но пробуждающим к размышлению заявлением: «Настоящее изменение — это масштаб и охват. Мошенничество стало больше, более целенаправленным и убедительным.»
Phishing-сообщения на базе AI доминируют в ландшафте угроз
Исследователь Брайан Сингер из Университета Карнеги-Меллон, специализирующийся на использовании больших языковых моделей в кибератаках, прогнозирует, что половина — три четверти всех спамов и phishing-сообщений по всему миру теперь исходят из систем AI.
Достоверность этих сообщений достигла нового уровня. Системы AI, обученные на стиле коммуникации компаний, могут генерировать тысячи сообщений, звучащих естественно и соответствующих стилю целевой организации. Эти сообщения:
Точно имитируют стиль руководителей
Ссылаются на свежие новости из публичных источников
Устраняют языковые ошибки, которые ранее выдавали международные мошеннические попытки
Джон Хулткист, главный аналитик Threat Intelligence Group Google, описывает этот сдвиг как «масштабную достоверность».
Целевые атаки на основе данных: выявление уязвимых жертв
Злонамеренные пользователи становятся все более изощренными в выборе целей. Они используют AI для анализа социальных сетей и выявления лиц, сталкивающихся с серьезными жизненными трудностями — разводы, смерть близких, потеря работы — что делает их более уязвимыми к романтическим мошенничествам, инвестиционным аферам или поддельным предложениям работы.
Этот подход на основе данных значительно повышает коэффициент конверсии мошенничества.
Тёмный рынок снижает барьеры для входа в киберпреступность
Подпольная экосистема превратилась в центр распространения криминальных инструментов AI. Эти платформы предлагают взломные инструменты по доступным ценам — начиная с $90 в месяц — с поддержкой клиентов на разных уровнях.
Эти услуги работают под названиями WormGPT, FraudGPT и DarkGPT. Они позволяют:
Создавать вредоносное ПО без ручного программирования
Автоматизировать масштабные phishing-кампании
Предоставлять структурированные руководства по хакерским техникам для новичков
Николя Кристин, руководитель отдела программного обеспечения и систем в Carnegie Mellon, объясняет бизнес-модель так: «Разработчики продают подписки на платформы атак по разным ценам и с полной поддержкой клиентов.»
Маггрет Куннингем, заместитель президента по безопасности и стратегии AI в Darktrace, упрощает барьеры для навыков: «Вам не нужно знать, как писать код, достаточно знать, где найти инструменты.»
Последние разработки, называемые «vibe-coding» или «vibe-hacking», позволяют потенциальным преступникам использовать AI для создания своих вредоносных программ вместо покупки их на тёмных рынках. Anthropic заявил в начале этого года, что остановил несколько попыток использования Claude AI для создания программ-вымогателей «преступниками с минимальными техническими навыками».
Индустриализация операций киберпреступности
Киберпреступность уже много лет функционирует как специализированная бизнес-экосистема. Типичные операции по вымогательству включают разделение труда:
Брокеры доступа взламывают сети компаний и продают доступ следующим группам.
Команды проникновения перемещаются по системам, чтобы украсть ценные данные.
Поставщики ransomware выпускают вредоносное ПО, ведут переговоры и распределяют прибыль.
AI революционизировало эту модель, увеличивая скорость, автоматизацию и масштабируемость. Работа, ранее требовавшая специальных технических навыков, теперь может выполняться автоматически, что позволяет преступным организациям работать с меньшим штатом, меньшими рисками и большей прибылью.
Кристин делает точную аналогию: «Думайте об этом как о следующей индустриальной революции. AI повышает производительность без необходимости нанимать больше квалифицированных специалистов.»
Может ли AI полностью самостоятельно осуществлять атаки?
Этот важный вопрос пока остается без однозначного ответа. Эксперты сравнивают ситуацию с развитием автономных транспортных средств. Первые пять процентов автоматизации достигнуты, но последние пять процентов, позволяющие полностью автономные операции, еще очень далеки.
Исследователи тестируют возможности хакерского AI в лабораторных условиях. Команда из Carnegie Mellon при поддержке Anthropic смогла в начале этого года смоделировать утечку данных из известного сервиса Equifax с помощью AI — что Сингер назвал «большим скачком» в автоматизации атак.
Роль AI в обороне: есть ли надежда?
Несмотря на то, что злоумышленники используют AI для вредоносных целей, эта же технология предлагает мощные средства защиты. Anthropic и OpenAI разрабатывают системы, которые могут постоянно проверять программный код на наличие уязвимостей до того, как их обнаружат злоумышленники.
Новые AI-программы, разработанные исследователями Stanford, показывают лучшие результаты, чем некоторые человеческие тестировщики безопасности, в выявлении проблем с уязвимостями сети.
Однако Хулткист подчеркивает, что AI — не волшебная пилюля. Организации должны сосредоточиться на создании устойчивых систем, которые продолжают функционировать даже при атаках. Полностью предотвратить угрозы невозможно; важна устойчивость.
Организации и отдельные лица, понимающие эволюцию киберпреступности, уже на шаг впереди в своих оборонительных мерах.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Угрозы киберпреступности резко растут: как ИИ меняет тактики взлома
Технология искусственного интеллекта (AI) стала мощным оружием в арсенале современных киберпреступников. Этот переход создает гораздо более сложный ландшафт угроз, с более быстрыми атаками, меньшими затратами и значительно большей сложностью обнаружения. Эксперты предупреждают, что киберпреступность вошла в новую эру, в которой масштаб и охват становятся ключевыми факторами.
Быстроразвивающаяся киберпреступность через автоматизацию AI
Ведущие компании AI, такие как Anthropic, OpenAI и Google, сообщили о значительном росте использования своих платформ для злонамеренной деятельности. Преступники используют эти технологии для разработки сложных spear-phishing операций, создания передового вредоносного ПО и проведения многоуровневых цифровых атак.
Одним из наиболее заметных изменений является появление deepfake аудио и видео, используемых для обмана сотрудников. Мошенники теперь могут создавать поддельный мультимедийный контент, имитирующий руководителей компаний, вынуждая сотрудников раскрывать конфиденциальную информацию или переводить деньги без подозрений.
Алиса Марвик, исследователь из Data & Society, объяснила это явление Wall Street Journal простым, но пробуждающим к размышлению заявлением: «Настоящее изменение — это масштаб и охват. Мошенничество стало больше, более целенаправленным и убедительным.»
Phishing-сообщения на базе AI доминируют в ландшафте угроз
Исследователь Брайан Сингер из Университета Карнеги-Меллон, специализирующийся на использовании больших языковых моделей в кибератаках, прогнозирует, что половина — три четверти всех спамов и phishing-сообщений по всему миру теперь исходят из систем AI.
Достоверность этих сообщений достигла нового уровня. Системы AI, обученные на стиле коммуникации компаний, могут генерировать тысячи сообщений, звучащих естественно и соответствующих стилю целевой организации. Эти сообщения:
Джон Хулткист, главный аналитик Threat Intelligence Group Google, описывает этот сдвиг как «масштабную достоверность».
Целевые атаки на основе данных: выявление уязвимых жертв
Злонамеренные пользователи становятся все более изощренными в выборе целей. Они используют AI для анализа социальных сетей и выявления лиц, сталкивающихся с серьезными жизненными трудностями — разводы, смерть близких, потеря работы — что делает их более уязвимыми к романтическим мошенничествам, инвестиционным аферам или поддельным предложениям работы.
Этот подход на основе данных значительно повышает коэффициент конверсии мошенничества.
Тёмный рынок снижает барьеры для входа в киберпреступность
Подпольная экосистема превратилась в центр распространения криминальных инструментов AI. Эти платформы предлагают взломные инструменты по доступным ценам — начиная с $90 в месяц — с поддержкой клиентов на разных уровнях.
Эти услуги работают под названиями WormGPT, FraudGPT и DarkGPT. Они позволяют:
Николя Кристин, руководитель отдела программного обеспечения и систем в Carnegie Mellon, объясняет бизнес-модель так: «Разработчики продают подписки на платформы атак по разным ценам и с полной поддержкой клиентов.»
Маггрет Куннингем, заместитель президента по безопасности и стратегии AI в Darktrace, упрощает барьеры для навыков: «Вам не нужно знать, как писать код, достаточно знать, где найти инструменты.»
Последние разработки, называемые «vibe-coding» или «vibe-hacking», позволяют потенциальным преступникам использовать AI для создания своих вредоносных программ вместо покупки их на тёмных рынках. Anthropic заявил в начале этого года, что остановил несколько попыток использования Claude AI для создания программ-вымогателей «преступниками с минимальными техническими навыками».
Индустриализация операций киберпреступности
Киберпреступность уже много лет функционирует как специализированная бизнес-экосистема. Типичные операции по вымогательству включают разделение труда:
Брокеры доступа взламывают сети компаний и продают доступ следующим группам.
Команды проникновения перемещаются по системам, чтобы украсть ценные данные.
Поставщики ransomware выпускают вредоносное ПО, ведут переговоры и распределяют прибыль.
AI революционизировало эту модель, увеличивая скорость, автоматизацию и масштабируемость. Работа, ранее требовавшая специальных технических навыков, теперь может выполняться автоматически, что позволяет преступным организациям работать с меньшим штатом, меньшими рисками и большей прибылью.
Кристин делает точную аналогию: «Думайте об этом как о следующей индустриальной революции. AI повышает производительность без необходимости нанимать больше квалифицированных специалистов.»
Может ли AI полностью самостоятельно осуществлять атаки?
Этот важный вопрос пока остается без однозначного ответа. Эксперты сравнивают ситуацию с развитием автономных транспортных средств. Первые пять процентов автоматизации достигнуты, но последние пять процентов, позволяющие полностью автономные операции, еще очень далеки.
Исследователи тестируют возможности хакерского AI в лабораторных условиях. Команда из Carnegie Mellon при поддержке Anthropic смогла в начале этого года смоделировать утечку данных из известного сервиса Equifax с помощью AI — что Сингер назвал «большим скачком» в автоматизации атак.
Роль AI в обороне: есть ли надежда?
Несмотря на то, что злоумышленники используют AI для вредоносных целей, эта же технология предлагает мощные средства защиты. Anthropic и OpenAI разрабатывают системы, которые могут постоянно проверять программный код на наличие уязвимостей до того, как их обнаружат злоумышленники.
Новые AI-программы, разработанные исследователями Stanford, показывают лучшие результаты, чем некоторые человеческие тестировщики безопасности, в выявлении проблем с уязвимостями сети.
Однако Хулткист подчеркивает, что AI — не волшебная пилюля. Организации должны сосредоточиться на создании устойчивых систем, которые продолжают функционировать даже при атаках. Полностью предотвратить угрозы невозможно; важна устойчивость.
Организации и отдельные лица, понимающие эволюцию киберпреступности, уже на шаг впереди в своих оборонительных мерах.