¿La verificación KYC está desactualizada? Aumento explosivo del cibercrimen con IA en el sudeste asiático: la ONU advierte sobre la amenaza de fraudes automatizados.
En el pasado, los delitos cibernéticos eran llevados a cabo por hackers solitarios, pero hoy en día han evolucionado hacia un comportamiento comercial a gran escala operado por grupos criminales transnacionales. Según el último informe de la Oficina de las Naciones Unidas contra la Droga y el Delito (UNODC), el sudeste asiático se está convirtiendo en el centro de esta ola de delitos impulsados por la tecnología. Herramientas automatizadas, inteligencia artificial (IA) y la tecnología deepfake están redefiniendo métodos como el fraude, la extorsión, la trata de personas y el Blanqueo de capital, permitiendo a los grupos criminales expandir su territorio, eludir la supervisión legal y mejorar la eficiencia del fraude.
Crimen automatizado: desde el phishing hasta las redes zombis, el tamaño de los ataques crece de manera explosiva
Las técnicas de fraude ya se han automatizado por completo. Desde el kit de herramientas de phishing "16shop" fabricado en Indonesia y distribuido globalmente, hasta el uso de redes zombi (botnet) para ejecutar ataques de spam, ataques DDoS y la propagación de ransomware, la tecnología automatizada permite a los delincuentes con bajos conocimientos técnicos llevar a cabo fraudes a nivel mundial. Cada día, hasta 3.4 mil millones de correos electrónicos maliciosos recorren el mundo, de los cuales el 1.2% son ataques de phishing.
Aplicaciones maliciosas de IA: los nuevos "superpoderes" de los criminales
La tecnología de IA ha sido armada por grupos criminales. Desde la generación automática de código malicioso, eludir mecanismos de verificación, hasta la producción de malware inteligente que se adapta al entorno, la IA está elevando la escala y precisión de los ataques cibernéticos. Por ejemplo, "DeepLocker" desarrollado por IBM muestra cómo usar IA para ocultar malware dentro de software legítimo, hasta que se identifica a una víctima específica y se activa el ataque.
La tecnología de deepfake crea réplicas realistas de CEO, amantes y policías.
El sonido e imagen generados por IA se están utilizando ampliamente en fraudes. En 2024, un empleado financiero en Hong Kong transfirió erróneamente 25 millones de dólares después de una videoconferencia con un "CFO profundo falso". Casos similares han surgido en Singapur y otros países, e incluso hay delincuentes utilizando la tecnología de clonación de voz de IA para llevar a cabo "fraudes de secuestro falso".
("Las reuniones en línea con múltiples personas son todas falsas" Un empleado de Hong Kong es víctima de un fraude con tecnología de deepfake, transfiriendo 2 mil millones de HKD a un falso jefe )
AI ayuda en el fraude de ingeniería social: diversidad lingüística, contenido real, difícil de identificar
La IA no solo produce voces e imágenes engañosas, sino que también puede generar a gran escala correos electrónicos de phishing y mensajes de texto fraudulentos que son realistas. Las organizaciones criminales ya pueden usar modelos de lenguaje grandes (LLM) para crear contenidos engañosos que son contextuales y tienen un tono profesional, e incluso utilizan herramientas de IA para realizar traducciones en tiempo real, ajustes de tono y adaptaciones culturales, permitiendo que el fraude se conecte sin problemas a través de diferentes idiomas.
Automatización de flujos de dinero y avatares virtuales: técnicas de blanqueo de capital en la era de la IA
En el sudeste asiático, la IA se está utilizando para automatizar la creación de cuentas ficticias, eludir la verificación KYC, realizar "transferencias en lotes" (smurfing) y otros procesos de blanqueo de capital. Las cuentas bancarias virtuales y las plataformas de billeteras digitales están siendo mal utilizadas, lo que permite que grandes cantidades de dinero obtenido de fraudes se conviertan rápidamente en criptomonedas o se blanqueen a través de sistemas financieros subterráneos.
Nuevas tácticas de seducción y extorsión: ataques a jóvenes con fotos desnudas y videos sexuales falsos generados por IA
El informe de la UNODC señala que en los últimos años, las fábricas de fraudes en el sudeste asiático han utilizado la IA en el blanqueo de capital (sextortion). Estos grupos engañan a las víctimas para que realicen videollamadas desnudas mediante imágenes pornográficas falsas generadas por IA, y luego graban y amenazan con extorsionarlas. Hay indicios de que los centros de fraude en Camboya, Birmania y Laos están involucrados en al menos 493 casos de extorsión a menores.
La generación de identidad, documentos y reconocimiento facial por IA: el sistema de verificación KYC está en peligro.
La IA no solo puede crear datos falsos de reconocimiento facial, voces e incluso documentos como licencias de conducir, pasaportes y estados de cuenta bancarios, sino que su realismo es tan alto que casi puede confundirse con los reales. La investigación indica que los documentos falsos representan el 75% del fraude de identidad. El informe advierte que en los próximos 2 a 3 años, si no se implementan medidas efectivas, el sistema KYC será ampliamente vulnerado.
La Oficina de Investigación de Delitos Cibernéticos de Tailandia (CCIB) ha desmantelado múltiples centros de fraude relacionados con la IA, incluyendo el uso de tecnología de voz e identificación facial para hacerse pasar por oficiales de policía y estafar dinero; o el uso de herramientas de CRM para rastrear el progreso de cada víctima y responder automáticamente. En un caso, se descubrió una sede de fraude de 12 pisos, combinando fraudes con criptomonedas, suplantación de identidad y procesamiento de flujos de dinero.
La UNODC hace un llamado a que, frente a esta revolución del crimen cibernético impulsada por la IA, los países deben acelerar la elaboración de regulaciones, fortalecer la cooperación internacional y el intercambio de recursos, e invertir en herramientas de contraataque de IA como la identificación de deepfakes, las tecnologías de verificación de marcas de agua, entre otras. De lo contrario, el sudeste asiático podría convertirse en un campo de pruebas y un caldo de cultivo para fraudes y herramientas delictivas impulsadas por IA.
¿Está desactualizada la verificación KYC en este artículo? Aumento explosivo de delitos cibernéticos con IA en el sudeste asiático: la ONU advierte sobre la amenaza de fraude automatizado, apareció por primera vez en Chain News ABMedia.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
¿La verificación KYC está desactualizada? Aumento explosivo del cibercrimen con IA en el sudeste asiático: la ONU advierte sobre la amenaza de fraudes automatizados.
En el pasado, los delitos cibernéticos eran llevados a cabo por hackers solitarios, pero hoy en día han evolucionado hacia un comportamiento comercial a gran escala operado por grupos criminales transnacionales. Según el último informe de la Oficina de las Naciones Unidas contra la Droga y el Delito (UNODC), el sudeste asiático se está convirtiendo en el centro de esta ola de delitos impulsados por la tecnología. Herramientas automatizadas, inteligencia artificial (IA) y la tecnología deepfake están redefiniendo métodos como el fraude, la extorsión, la trata de personas y el Blanqueo de capital, permitiendo a los grupos criminales expandir su territorio, eludir la supervisión legal y mejorar la eficiencia del fraude.
Crimen automatizado: desde el phishing hasta las redes zombis, el tamaño de los ataques crece de manera explosiva
Las técnicas de fraude ya se han automatizado por completo. Desde el kit de herramientas de phishing "16shop" fabricado en Indonesia y distribuido globalmente, hasta el uso de redes zombi (botnet) para ejecutar ataques de spam, ataques DDoS y la propagación de ransomware, la tecnología automatizada permite a los delincuentes con bajos conocimientos técnicos llevar a cabo fraudes a nivel mundial. Cada día, hasta 3.4 mil millones de correos electrónicos maliciosos recorren el mundo, de los cuales el 1.2% son ataques de phishing.
Aplicaciones maliciosas de IA: los nuevos "superpoderes" de los criminales
La tecnología de IA ha sido armada por grupos criminales. Desde la generación automática de código malicioso, eludir mecanismos de verificación, hasta la producción de malware inteligente que se adapta al entorno, la IA está elevando la escala y precisión de los ataques cibernéticos. Por ejemplo, "DeepLocker" desarrollado por IBM muestra cómo usar IA para ocultar malware dentro de software legítimo, hasta que se identifica a una víctima específica y se activa el ataque.
La tecnología de deepfake crea réplicas realistas de CEO, amantes y policías.
El sonido e imagen generados por IA se están utilizando ampliamente en fraudes. En 2024, un empleado financiero en Hong Kong transfirió erróneamente 25 millones de dólares después de una videoconferencia con un "CFO profundo falso". Casos similares han surgido en Singapur y otros países, e incluso hay delincuentes utilizando la tecnología de clonación de voz de IA para llevar a cabo "fraudes de secuestro falso".
("Las reuniones en línea con múltiples personas son todas falsas" Un empleado de Hong Kong es víctima de un fraude con tecnología de deepfake, transfiriendo 2 mil millones de HKD a un falso jefe )
AI ayuda en el fraude de ingeniería social: diversidad lingüística, contenido real, difícil de identificar
La IA no solo produce voces e imágenes engañosas, sino que también puede generar a gran escala correos electrónicos de phishing y mensajes de texto fraudulentos que son realistas. Las organizaciones criminales ya pueden usar modelos de lenguaje grandes (LLM) para crear contenidos engañosos que son contextuales y tienen un tono profesional, e incluso utilizan herramientas de IA para realizar traducciones en tiempo real, ajustes de tono y adaptaciones culturales, permitiendo que el fraude se conecte sin problemas a través de diferentes idiomas.
Automatización de flujos de dinero y avatares virtuales: técnicas de blanqueo de capital en la era de la IA
En el sudeste asiático, la IA se está utilizando para automatizar la creación de cuentas ficticias, eludir la verificación KYC, realizar "transferencias en lotes" (smurfing) y otros procesos de blanqueo de capital. Las cuentas bancarias virtuales y las plataformas de billeteras digitales están siendo mal utilizadas, lo que permite que grandes cantidades de dinero obtenido de fraudes se conviertan rápidamente en criptomonedas o se blanqueen a través de sistemas financieros subterráneos.
Nuevas tácticas de seducción y extorsión: ataques a jóvenes con fotos desnudas y videos sexuales falsos generados por IA
El informe de la UNODC señala que en los últimos años, las fábricas de fraudes en el sudeste asiático han utilizado la IA en el blanqueo de capital (sextortion). Estos grupos engañan a las víctimas para que realicen videollamadas desnudas mediante imágenes pornográficas falsas generadas por IA, y luego graban y amenazan con extorsionarlas. Hay indicios de que los centros de fraude en Camboya, Birmania y Laos están involucrados en al menos 493 casos de extorsión a menores.
La generación de identidad, documentos y reconocimiento facial por IA: el sistema de verificación KYC está en peligro.
La IA no solo puede crear datos falsos de reconocimiento facial, voces e incluso documentos como licencias de conducir, pasaportes y estados de cuenta bancarios, sino que su realismo es tan alto que casi puede confundirse con los reales. La investigación indica que los documentos falsos representan el 75% del fraude de identidad. El informe advierte que en los próximos 2 a 3 años, si no se implementan medidas efectivas, el sistema KYC será ampliamente vulnerado.
La Oficina de Investigación de Delitos Cibernéticos de Tailandia (CCIB) ha desmantelado múltiples centros de fraude relacionados con la IA, incluyendo el uso de tecnología de voz e identificación facial para hacerse pasar por oficiales de policía y estafar dinero; o el uso de herramientas de CRM para rastrear el progreso de cada víctima y responder automáticamente. En un caso, se descubrió una sede de fraude de 12 pisos, combinando fraudes con criptomonedas, suplantación de identidad y procesamiento de flujos de dinero.
La UNODC hace un llamado a que, frente a esta revolución del crimen cibernético impulsada por la IA, los países deben acelerar la elaboración de regulaciones, fortalecer la cooperación internacional y el intercambio de recursos, e invertir en herramientas de contraataque de IA como la identificación de deepfakes, las tecnologías de verificación de marcas de agua, entre otras. De lo contrario, el sudeste asiático podría convertirse en un campo de pruebas y un caldo de cultivo para fraudes y herramientas delictivas impulsadas por IA.
¿Está desactualizada la verificación KYC en este artículo? Aumento explosivo de delitos cibernéticos con IA en el sudeste asiático: la ONU advierte sobre la amenaza de fraude automatizado, apareció por primera vez en Chain News ABMedia.