Vídeo de deepfake con fondo artificial: la nueva arma de los ciberdelincuentes norcoreanos contra la industria de las criptomonedas

robot
Generación de resúmenes en curso

La ciberamenaza ha alcanzado un nuevo nivel: el grupo Lazarus Group, vinculado a Corea del Norte y conocido como BlueNoroff, está utilizando activamente tecnologías avanzadas de inteligencia artificial para crear videollamadas falsas con fondos realistas. Estos ataques están dirigidos a profesionales de la industria cripto y demuestran cuán peligrosa se vuelve la combinación de tecnologías de deepfake con ingeniería social.

Tácticas de engaño: videos con fondos falsos como herramienta de manipulación

Según la empresa de investigación Odaily, los hackers inician videollamadas a través de cuentas de Telegram comprometidas, donde utilizan videos generados por IA con fondos falsos, haciéndolos pasar por personas de confianza de la víctima. Marten Kucharz, cofundador de BTC Prague, compartió detalles alarmantes: los atacantes persuaden a los usuarios para que instalen software malicioso, disfrazándolo de un plugin de Zoom para supuestamente solucionar problemas de audio. Un video realista con un fondo adecuado aumenta varias veces la confianza de la víctima, haciendo que la ingeniería social sea mucho más efectiva.

Arsenal técnico: qué sucede después de instalar el malware

Una vez que la víctima instala el malware disfrazado, los ciberdelincuentes obtienen control total sobre el dispositivo. Los scripts maliciosos realizan infecciones multinivel en macOS, implementando puertas traseras, registradores de pulsaciones y capturando el contenido del portapapeles. Es especialmente peligroso que el malware pueda acceder a billeteras cifradas y claves privadas de los usuarios.

La empresa de seguridad Huntress detectó que esta metodología está estrechamente relacionada con operaciones anteriores del mismo grupo, dirigidas a desarrolladores de criptomonedas. Investigadores de SlowMist confirmaron que los ataques muestran un esquema claro de reutilización de tácticas, adaptándose a billeteras criptográficas específicas y profesionales objetivos.

Por qué los videos de deepfake son una nueva amenaza para la verificación de identidad

La proliferación de tecnologías para crear videos falsos y clonar voces está cambiando radicalmente el panorama de seguridad digital. Los métodos tradicionales de verificación de identidad a través de videollamadas ya no son confiables, cuando el fondo, la expresión facial y la voz pueden ser modelados perfectamente por inteligencia artificial. Esto plantea un desafío fundamental para la industria.

Cómo proteger los activos cripto: recomendaciones prácticas

Los profesionales de cripto deben reforzar inmediatamente las medidas de ciberseguridad. Es necesario implementar autenticación multifactor, usar llaves de seguridad en lugar de códigos SMS, y sobre todo, realizar verificaciones fuera de línea de cualquier solicitud de videollamada a través de canales de comunicación alternativos. Además, se recomienda abstenerse de instalar software recomendado por desconocidos, incluso si la videollamada parece convincente con un fondo correcto. La vigilancia y la conciencia siguen siendo la mejor protección contra la creciente amenaza de ataques de deepfake.

BTC-0,88%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)