Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Resolución de delitos con IA: la policía de EE. UU. amplía las herramientas de IA
Las herramientas de resolución de delitos mediante IA están siendo adoptadas a un ritmo acelerado por las agencias policiales en todo Estados Unidos, con resultados que pueden ser dramáticos pero que, según expertos y defensores de las libertades civiles, conllevan riesgos graves de pistas falsas, investigaciones injustas y violaciones del debido proceso.
Resumen
El uso de inteligencia artificial por parte de las fuerzas del orden estadounidenses ya no es experimental. Según The Washington Post, agencias policiales en todo el país están desplegando herramientas de IA para ayudar a los investigadores a analizar evidencias, detectar patrones y generar pistas más rápido de lo que permiten los métodos tradicionales. Los resultados han llamado la atención. También las preocupaciones.
Cómo usan la policía la IA y qué puede hacer
Las herramientas de IA se están usando en las fuerzas del orden de EE. UU. para funciones que incluyen reconocimiento facial, policía predictiva, análisis de evidencias y comparación de patrones en varias bases de datos. La tecnología permite a los investigadores procesar información a una escala y velocidad que no sería posible manualmente, y las autoridades policiales dicen que ha ayudado a cerrar casos que de otro modo habrían quedado sin resolver.
La CIA ha señalado un movimiento paralelo en la comunidad de inteligencia. Como informó crypto.news hoy, el subdirector de la CIA, Michael Ellis, confirmó que la agencia planea integrar compañeros de IA en todas las plataformas analíticas en dos años para ayudar a los oficiales a identificar tendencias de inteligencia extranjera y redactar informes, con Ellis afirmando que la CIA “no puede permitir que los caprichos de una sola empresa limiten nuestras capacidades.”
Lo que advierten los expertos
Las preocupaciones planteadas por investigadores y defensores de las libertades civiles se centran en tres áreas principales: la precisión de las pistas generadas por IA, la falta de transparencia en cómo los sistemas de IA llegan a sus conclusiones y el potencial de errores que puedan dañar a personas inocentes antes de que puedan ser identificados y corregidos.
Los sistemas de IA entrenados con datos sesgados pueden generar resultados parciales, y en un contexto policial, una pista falsa de una herramienta de IA puede activar vigilancia, interrogatorios o arrestos antes de que se detecte el error. Como señaló crypto.news, la IA ya ha demostrado su capacidad para escalar operaciones engañosas en contextos financieros y digitales, con la firma de inteligencia blockchain Elliptic advirtiendo que “la gran mayoría de las amenazas relacionadas con IA en cripto están en su infancia” y llamando a la vigilancia.
La cuestión de la responsabilidad
La preocupación más profunda es estructural: cuando una herramienta de IA genera una pista que conduce a una investigación injusta, ¿quién es responsable? Las agencias policiales aún no han dado respuestas claras sobre supervisión, mecanismos de auditoría o remediación. La información del 10 de abril de The Washington Post sugiere que la adopción de estas herramientas ha sido más rápida que los marcos de responsabilidad destinados a gobernarlas.