У минулому кіберзлочини здебільшого вчинялися технічними хакерами-одинаками, але сьогодні вони перетворилися на масштабні комерційні дії, які здійснюються транснаціональними злочинними угрупованнями. Згідно з останнім звітом Управління ООН з наркотиків і злочинності (UNODC), Південно-Східна Азія стає центром цієї хвилі злочинності, що викликана технологіями. Автоматизовані інструменти, штучний інтелект (AI) та технологія глибоких підробок (deepfake) переосмислюють методи шахрайства, вимагання, торгівлі людьми, відмивання грошей та інші, що дозволяє злочинним угрупованням розширювати свої території, уникати правового контролю та підвищувати ефективність шахрайства.
Автоматизація злочинності: від фішингових листів до зомбі-мереж, масштаб атак вибухово зростає
Методи шахрайства вже повністю автоматизовані. Від «16shop» – фішингового набору, виробленого в Індонезії та що циркулює по всьому світу, до використання зомбі-мереж (botnet) для виконання атак спамом, DDoS-атак і розповсюдження програм-вимагачів, автоматизаційні технології дозволяють злочинцям з низьким рівнем кваліфікації також здійснювати глобальне шахрайство. Щодня по всьому світу надсилається до 3,4 мільярдів шкідливих електронних листів, з яких 1,2% – це фішингові атаки.
Шкідливе застосування ШІ: нові "суперсили" злочинців
Технології штучного інтелекту були озброєні кримінальними угрупуваннями. Від автоматичного генерування шкідливого коду, обходу механізмів верифікації до створення адаптивного до середовища розумного шкідливого програмного забезпечення, ШІ підвищує масштаб і точність кібератак. Наприклад, «DeepLocker», розроблений IBM, демонструє, як за допомогою ШІ можна приховати шкідливе програмне забезпечення в законному програмному забезпеченні, яке активується лише після ідентифікації конкретної жертви.
Глибоке підроблення технологій для створення реалістичних CEO, коханців та поліцейських
Штучно згенеровані голоси та зображення широко використовуються у шахрайствах. У 2024 році один фінансист у Гонконзі помилково перевів 25 мільйонів доларів після відеоконференції з "глибоким CFO". Подібні випадки також почалися в Сінгапурі та інших країнах, навіть злочинці використовували технології копіювання голосу AI для здійснення "фальшивих викрадень".
(「Багатокористувацькі онлайн-зустрічі – це все фейк」Співробітник Гонконгу став жертвою шахрайства з використанням технології глибоких підробок, перевівши 2 мільярди гонконгських доларів своєму фальшивому начальнику )
AI допомагає соціальній інженерії шахрайства: різноманітність мов, реальний зміст, важко розпізнати
ШІ не тільки генерує обманливі голоси та зображення, але й може в масовому порядку створювати реалістичні фішингові електронні листи та шахрайські SMS. Кримінальні організації вже можуть використовувати великі мовні моделі (LLM) для створення контенту шахрайства, що відповідає контексту та має професійний тон, навіть через інструменти ШІ здійснювати миттєвий переклад, коригування тону та культурну адаптацію, що дозволяє шахрайству безперешкодно переходити між мовами.
Автоматизація грошових потоків та віртуальні обличчя: методи відмивання грошей входять в еру ШІ
У Південно-Східній Азії штучний інтелект використовується для автоматизації створення фіктивних рахунків, обходу KYC-верифікації, проведення "пакетних переказів" (smurfing) та інших процесів відмивання грошей. Віртуальні банківські рахунки та платформи цифрових гаманців зазнають зловживань, що дозволяє швидко конвертувати великі обсяги шахрайських коштів у криптовалюту або відмивати їх через підпільні фінансові системи.
Сексуальне спокушання та нові методи шантажу: фальшиві оголені фото та відео сексу з використанням ШІ атакують молодь
Звіт UNODC зазначає, що в останні роки шахрайські фабрики в Південно-східній Азії застосовують AI для сексуального шантажу (sextortion). Ці групи використовують фальшиві порнографічні зображення, створені за допомогою AI, щоб спонукати жертв до оголених чатів, а потім записують їх і погрожують шантажем. Є ознаки того, що центри шахрайства в Камбоджі, М’янмі та Лаосі залучені принаймні до 493 випадків шантажу неповнолітніх.
Генерація особистісних даних, документів та біометричної ідентифікації: система KYC під загрозою
ШІ може не лише створювати фальшиві дані для розпізнавання облич, голосу, навіть водійських прав, паспортів, банківських виписок та інших документів, але й з високою реалістичністю, майже не відрізняються від справжніх. Дослідження показують, що фальшиві документи становлять 75% у випадках шахрайства з ідентичністю. Звіт попереджає, що в наступні 2-3 роки, якщо не буде ефективних заходів, система KYC буде масштабно зламано.
Поліція кіберзлочинів Таїланду (CCIB) викрила кілька шахрайських центрів, пов'язаних з AI, включаючи використання голосу AI та технології накладення обличчя для маскування під поліцейських, шахрайство з грошима; або використання CRM інструментів для відстеження прогресу кожної жертви та автоматичні відповіді. У одному з випадків було виявлено шахрайську штаб-квартиру заввишки 12 поверхів, яка об'єднувала шахрайство з криптовалютою, підробку особи та обробку фінансових потоків.
UNODC закликає, що в умовах революції кіберзлочинності, викликаної ШІ, країни повинні прискорити розробку нормативно-правової бази, зміцнити міжнародну співпрацю та обмін ресурсами, а також інвестувати в інструменти протидії ШІ, такі як виявлення глибоких підробок, технології перевірки водяних знаків тощо. Інакше Південно-Східна Азія може перетворитися на випробувальний майданчик і розплідник шахрайства та злочинних інструментів на базі ШІ.
Ця стаття KYC верифікація застаріла? Кількість кіберзлочинів з використанням ШІ в Південно-Східній Азії різко зросла: ООН попереджає про загрозу автоматизованого шахрайства, вперше з'явилася в Chain News ABMedia.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Вичерпано KYC? Вибух злочинності в мережі штучного інтелекту в Південно-Східній Азії: ООН попереджає про загрозу автоматизованого шахрайства
У минулому кіберзлочини здебільшого вчинялися технічними хакерами-одинаками, але сьогодні вони перетворилися на масштабні комерційні дії, які здійснюються транснаціональними злочинними угрупованнями. Згідно з останнім звітом Управління ООН з наркотиків і злочинності (UNODC), Південно-Східна Азія стає центром цієї хвилі злочинності, що викликана технологіями. Автоматизовані інструменти, штучний інтелект (AI) та технологія глибоких підробок (deepfake) переосмислюють методи шахрайства, вимагання, торгівлі людьми, відмивання грошей та інші, що дозволяє злочинним угрупованням розширювати свої території, уникати правового контролю та підвищувати ефективність шахрайства.
Автоматизація злочинності: від фішингових листів до зомбі-мереж, масштаб атак вибухово зростає
Методи шахрайства вже повністю автоматизовані. Від «16shop» – фішингового набору, виробленого в Індонезії та що циркулює по всьому світу, до використання зомбі-мереж (botnet) для виконання атак спамом, DDoS-атак і розповсюдження програм-вимагачів, автоматизаційні технології дозволяють злочинцям з низьким рівнем кваліфікації також здійснювати глобальне шахрайство. Щодня по всьому світу надсилається до 3,4 мільярдів шкідливих електронних листів, з яких 1,2% – це фішингові атаки.
Шкідливе застосування ШІ: нові "суперсили" злочинців
Технології штучного інтелекту були озброєні кримінальними угрупуваннями. Від автоматичного генерування шкідливого коду, обходу механізмів верифікації до створення адаптивного до середовища розумного шкідливого програмного забезпечення, ШІ підвищує масштаб і точність кібератак. Наприклад, «DeepLocker», розроблений IBM, демонструє, як за допомогою ШІ можна приховати шкідливе програмне забезпечення в законному програмному забезпеченні, яке активується лише після ідентифікації конкретної жертви.
Глибоке підроблення технологій для створення реалістичних CEO, коханців та поліцейських
Штучно згенеровані голоси та зображення широко використовуються у шахрайствах. У 2024 році один фінансист у Гонконзі помилково перевів 25 мільйонів доларів після відеоконференції з "глибоким CFO". Подібні випадки також почалися в Сінгапурі та інших країнах, навіть злочинці використовували технології копіювання голосу AI для здійснення "фальшивих викрадень".
(「Багатокористувацькі онлайн-зустрічі – це все фейк」Співробітник Гонконгу став жертвою шахрайства з використанням технології глибоких підробок, перевівши 2 мільярди гонконгських доларів своєму фальшивому начальнику )
AI допомагає соціальній інженерії шахрайства: різноманітність мов, реальний зміст, важко розпізнати
ШІ не тільки генерує обманливі голоси та зображення, але й може в масовому порядку створювати реалістичні фішингові електронні листи та шахрайські SMS. Кримінальні організації вже можуть використовувати великі мовні моделі (LLM) для створення контенту шахрайства, що відповідає контексту та має професійний тон, навіть через інструменти ШІ здійснювати миттєвий переклад, коригування тону та культурну адаптацію, що дозволяє шахрайству безперешкодно переходити між мовами.
Автоматизація грошових потоків та віртуальні обличчя: методи відмивання грошей входять в еру ШІ
У Південно-Східній Азії штучний інтелект використовується для автоматизації створення фіктивних рахунків, обходу KYC-верифікації, проведення "пакетних переказів" (smurfing) та інших процесів відмивання грошей. Віртуальні банківські рахунки та платформи цифрових гаманців зазнають зловживань, що дозволяє швидко конвертувати великі обсяги шахрайських коштів у криптовалюту або відмивати їх через підпільні фінансові системи.
Сексуальне спокушання та нові методи шантажу: фальшиві оголені фото та відео сексу з використанням ШІ атакують молодь
Звіт UNODC зазначає, що в останні роки шахрайські фабрики в Південно-східній Азії застосовують AI для сексуального шантажу (sextortion). Ці групи використовують фальшиві порнографічні зображення, створені за допомогою AI, щоб спонукати жертв до оголених чатів, а потім записують їх і погрожують шантажем. Є ознаки того, що центри шахрайства в Камбоджі, М’янмі та Лаосі залучені принаймні до 493 випадків шантажу неповнолітніх.
Генерація особистісних даних, документів та біометричної ідентифікації: система KYC під загрозою
ШІ може не лише створювати фальшиві дані для розпізнавання облич, голосу, навіть водійських прав, паспортів, банківських виписок та інших документів, але й з високою реалістичністю, майже не відрізняються від справжніх. Дослідження показують, що фальшиві документи становлять 75% у випадках шахрайства з ідентичністю. Звіт попереджає, що в наступні 2-3 роки, якщо не буде ефективних заходів, система KYC буде масштабно зламано.
Поліція кіберзлочинів Таїланду (CCIB) викрила кілька шахрайських центрів, пов'язаних з AI, включаючи використання голосу AI та технології накладення обличчя для маскування під поліцейських, шахрайство з грошима; або використання CRM інструментів для відстеження прогресу кожної жертви та автоматичні відповіді. У одному з випадків було виявлено шахрайську штаб-квартиру заввишки 12 поверхів, яка об'єднувала шахрайство з криптовалютою, підробку особи та обробку фінансових потоків.
UNODC закликає, що в умовах революції кіберзлочинності, викликаної ШІ, країни повинні прискорити розробку нормативно-правової бази, зміцнити міжнародну співпрацю та обмін ресурсами, а також інвестувати в інструменти протидії ШІ, такі як виявлення глибоких підробок, технології перевірки водяних знаків тощо. Інакше Південно-Східна Азія може перетворитися на випробувальний майданчик і розплідник шахрайства та злочинних інструментів на базі ШІ.
Ця стаття KYC верифікація застаріла? Кількість кіберзлочинів з використанням ШІ в Південно-Східній Азії різко зросла: ООН попереджає про загрозу автоматизованого шахрайства, вперше з'явилася в Chain News ABMedia.