Video Deepfake với nền nhân tạo: vũ khí mới của tội phạm mạng Triều Tiên chống lại ngành công nghiệp tiền điện tử

robot
Đang tạo bản tóm tắt

Mối đe dọa mạng đã đạt đến cấp độ mới: nhóm Lazarus Group, liên quan đến Bắc Triều Tiên và được biết đến với tên BlueNoroff, đang tích cực áp dụng công nghệ trí tuệ nhân tạo tiên tiến để tạo ra các cuộc gọi video giả mạo với nền nền chân thực. Những cuộc tấn công này nhằm vào các chuyên gia trong ngành công nghiệp tiền điện tử và cho thấy mức độ nguy hiểm ngày càng tăng của sự kết hợp giữa công nghệ deepfake và kỹ thuật xã hội.

Chiến thuật lừa đảo: video với nền giả mạo như một công cụ thao túng

Theo thông tin từ công ty nghiên cứu Odaily, các hacker bắt đầu các cuộc gọi video qua các tài khoản Telegram bị xâm phạm, nơi họ sử dụng video do AI tạo ra với nền giả mạo, giả danh các nhân vật đáng tin cậy của nạn nhân. Đồng sáng lập BTC Prague, Martin Kucharz, chia sẻ những chi tiết đáng lo ngại: các kẻ tấn công thuyết phục người dùng cài đặt phần mềm độc hại, ngụy trang nó như một plugin Zoom để sửa lỗi âm thanh. Video chân thực với nền phù hợp làm tăng đáng kể sự tin tưởng của nạn nhân, khiến kỹ thuật xã hội trở nên hiệu quả hơn nhiều.

Kho vũ khí kỹ thuật: chuyện gì xảy ra sau khi cài đặt phần mềm độc hại

Sau khi nạn nhân cài đặt phần mềm độc hại ngụy trang, các tội phạm mạng có thể kiểm soát hoàn toàn thiết bị. Các script độc hại thực hiện các cuộc tấn công đa tầng trên macOS, cài đặt backdoor, logger nhấn phím và chặn nội dung clipboard. Đặc biệt nguy hiểm, phần mềm độc hại có thể truy cập vào ví tiền mã hóa đã được mã hóa và các khoá riêng tư của người dùng.

Công ty an ninh Huntress phát hiện ra rằng phương pháp này liên quan chặt chẽ đến các hoạt động trước đó của nhóm này, nhằm vào các nhà phát triển tiền điện tử. Các nhà nghiên cứu từ SlowMist xác nhận rằng các cuộc tấn công thể hiện một sơ đồ tái sử dụng chiến thuật rõ ràng, được điều chỉnh phù hợp với các ví tiền điện tử cụ thể và các chuyên gia mục tiêu.

Tại sao video deepfake là mối đe dọa mới cho xác thực danh tính

Việc phổ biến công nghệ tạo video giả mạo và sao chép giọng nói đã thay đổi căn bản cảnh quan an ninh kỹ thuật số. Các phương pháp xác thực danh tính truyền thống qua cuộc gọi video giờ đây không còn đáng tin cậy nữa, khi nền, biểu cảm khuôn mặt và giọng nói có thể được mô phỏng hoàn hảo bằng trí tuệ nhân tạo. Điều này đặt ra thách thức cơ bản cho ngành công nghiệp.

Làm thế nào để bảo vệ tài sản crypto: các khuyến nghị thực tiễn

Các chuyên gia trong lĩnh vực crypto cần nhanh chóng tăng cường các biện pháp an ninh thông tin. Cần triển khai xác thực đa yếu tố, sử dụng khoá bảo mật thay vì mã SMS, và quan trọng nhất là xác minh ngoài các cuộc gọi video qua các kênh liên lạc thay thế. Ngoài ra, nên tránh cài đặt phần mềm do người lạ giới thiệu, ngay cả khi cuộc gọi video trông có vẻ thuyết phục với nền phù hợp. Sự cảnh giác và nhận thức vẫn là những biện pháp phòng vệ tốt nhất chống lại các mối đe dọa ngày càng tăng của các cuộc tấn công deepfake.

BTC-1,05%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Gate Fun hot

    Xem thêm
  • Vốn hóa:$0.1Người nắm giữ:1
    0.00%
  • Vốn hóa:$0.1Người nắm giữ:1
    0.00%
  • Vốn hóa:$2.42KNgười nắm giữ:1
    0.13%
  • Vốn hóa:$2.42KNgười nắm giữ:2
    0.09%
  • Vốn hóa:$2.42KNgười nắm giữ:1
    0.00%
  • Ghim