Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Anthropic demanda al gobierno de EE. UU. por considerarlo un riesgo
Anthropic demanda al gobierno de EE. UU. por llamarla un riesgo
hace 1 día
CompartirGuardar
Kali HaysReportera de Tecnología
CompartirGuardar
Reuters
La empresa de inteligencia artificial (IA) Anthropic ha presentado una demanda sin precedentes contra el gobierno de EE. UU. por afirmar que es un “riesgo en la cadena de suministro”.
El director ejecutivo de la empresa de IA, Dario Amodei, y el Secretario de Defensa, Pete Hegseth, han tenido enfrentamientos públicos debido a la negativa de la compañía a permitir el uso sin restricciones de sus herramientas de IA por parte del ejército.
El Pentágono respondió etiquetando a Anthropic como la primera empresa estadounidense en ser considerada un “riesgo en la cadena de suministro”, pero Anthropic afirmó en su demanda presentada el lunes contra varias agencias del gobierno de EE. UU. que la acción del gobierno fue “sin precedentes e ilegal”.
Un portavoz del Departamento de Defensa de EE. UU. se negó a comentar, citando una política sobre litigios activos.
“La Constitución no permite que el gobierno use su enorme poder para castigar a una empresa por su discurso protegido”, escribió Anthropic. “Ningún estatuto federal autoriza las acciones tomadas aquí.”
La demanda de Anthropic es contra la oficina ejecutiva del presidente Donald Trump; varios líderes del gobierno, incluyendo a Hegseth, al Secretario de Estado Marco Rubio y al Secretario de Comercio Howard Lutnick; y 16 agencias gubernamentales, incluyendo el Departamento de Guerra, el Departamento de Seguridad Nacional y el Departamento de Energía.
El Departamento de Guerra es un nombre secundario dado por Trump al Departamento de Defensa.
Liz Huston, portavoz de la Casa Blanca, dijo a la BBC que Anthropic es “una empresa radical de izquierda, woke” que intenta controlar la actividad militar.
“Bajo la Administración Trump, nuestro ejército obedecerá la Constitución de los Estados Unidos, no los términos de servicio de ninguna empresa de IA woke”, afirmó Huston.
Anthropic argumentó en su queja legal presentada el lunes por la mañana en un tribunal federal de California.
La compañía afirmó que Hegseth le exigió eliminar cualquier restricción de uso en su contrato de defensa, a pesar de que las limitaciones sobre “guerra autónoma letal” y “vigilancia masiva de estadounidenses” siempre han sido parte de sus contratos con el gobierno.
Desde 2024, Anthropic ha sido utilizada por el gobierno y el ejército de EE. UU. y fue la primera empresa de IA avanzada en desplegar sus herramientas en agencias gubernamentales que realizan trabajos clasificados.
‘Castigo público’
Anthropic dijo que trabajó con Hegseth en la revisión del lenguaje del contrato para satisfacer las necesidades militares. Aunque estaban cerca de una negociación exitosa para continuar trabajando con el departamento, que incluiría limitaciones respecto a la vigilancia y armamento, esas conversaciones fueron abruptamente interrumpidas.
En cambio, el Departamento de Defensa “respondió a los intentos de compromiso de Anthropic con castigos públicos”.
Mientras negociaba con funcionarios de defensa, Trump criticó a la empresa calificándola de estar dirigida por “locos de izquierda” y ordenó a todas las agencias gubernamentales dejar de usar las herramientas de Anthropic.
Hegseth rápidamente siguió el anuncio de Trump etiquetando a Anthropic como un “riesgo en la cadena de suministro”, lo que significaba que herramientas como Claude dejaron de considerarse seguras para uso gubernamental. También prohibió que cualquier empresa que trabaje con el gobierno use las herramientas de Anthropic.
Claude es una de las herramientas de IA más populares del mundo, y Claude Code es una parte casi omnipresente en el trabajo de algunas de las mayores empresas tecnológicas de EE. UU., incluyendo Google, Meta, Amazon y Microsoft.
Estas empresas también trabajan con el gobierno. La semana pasada, Microsoft, Google y Amazon dijeron que seguirían usando Claude fuera de cualquier trabajo para agencias de defensa.
Sin embargo, Anthropic afirma que ha sido “irreparablemente” perjudicada por los comentarios de Trump y Hegseth.
“Los contratos actuales y futuros con particulares también están en duda, poniendo en riesgo cientos de millones de dólares en el corto plazo”, dijo la compañía. “Además de estos daños económicos inmediatos, la reputación de Anthropic y sus libertades fundamentales de la Primera Enmienda están siendo atacadas.”
Anthropic también señaló el “efecto de enfriamiento” en la libertad de expresión que la represalia de la Administración Trump está teniendo sobre otras entidades.
Pero para la tarde del lunes, casi 40 empleados de Google y OpenAI presentaron ante el tribunal un amicus supporting a Anthropic y sus esfuerzos por limitar usos indebidos de la IA, ofreciendo su experiencia sobre los peligros que plantea el uso a gran escala de la tecnología.
“Como grupo, somos diversos en nuestras políticas y filosofías, pero estamos unidos en la convicción de que los sistemas de IA de frontera de hoy presentan riesgos cuando se despliegan para habilitar la vigilancia masiva doméstica o la operación de sistemas autónomos de armas letales sin supervisión humana, y que esos riesgos requieren algún tipo de protección, ya sea mediante salvaguardas técnicas o restricciones de uso”, dijeron los firmantes del amicus.
Google y OpenAI son considerados rivales de Anthropic en cuanto a herramientas de IA, y ambas empresas también tienen esas herramientas en uso gubernamental.
El CEO de OpenAI, Sam Altman, admitió la semana pasada que aceleró el proceso del nuevo contrato de la empresa con el Departamento de Defensa tras la caída de Anthropic con el gobierno.
Anthropic no busca daños monetarios en su demanda, sino que pide al tribunal que declare de inmediato que la directiva de Trump “excede la autoridad del presidente” y viola la Constitución, y que rechace inmediatamente su etiquetado como riesgo en la cadena de suministro.
Carl Tobias, profesor en la Universidad de Richmond, dijo que aunque una resolución rápida de la demanda es posible, espera que la Administración Trump adopte un enfoque de “tierra arrasada”.
“Anthropic puede ganar en el tribunal federal, pero este gobierno no tiene miedo de apelar”, dijo Tobias. “Probablemente llegará a la Corte Suprema.”