Anthropic выигрывает судебную приостановку запрета Pentagon на Claude

Федеральный судья США в Сан-Франциско временно заблокировал действия Пентагона против Anthropic, предоставив компании краткосрочную защиту в ее борьбе с администрацией Трампа

Резюме

  • Судья Рита Лин приостановила действия Пентагона против Anthropic и заблокировала федеральный приказ о запрете использования Claude.
  • Anthropic подала иск после того, как Пентагон назвал компанию риском для цепочки поставок в ходе переговоров по контракту.
  • Это решение сохраняет давление на Вашингтон, поскольку Anthropic защищает ограничения на военное и наблюдательное использование.

Решение препятствует федеральным агентствам на данный момент применять приказ о запрете использования против Claude и ставит юридический акцент на том, действовал ли правительство сверх своих полномочий.

Судья Рита Лин из Окружного суда США для Северного округа Калифорнии выдала предварительный судебный запрет в четверг. Этот приказ останавливает Пентагон от применения его ярлыка риска для цепочки поставок против Anthropic, пока дело продолжается.

Решение также приостанавливает директиву президента Дональда Трампа, которая предписывала федеральным агентствам прекратить использование чат-бота Anthropic, Claude. Судья отметила, что материалы дела не поддерживают позицию правительства на данном этапе.

Судья Лин написала,

“Ничто в регулирующем законе не поддерживает орвелловскую концепцию о том, что американская компания может быть названа потенциальным противником и саботажником США за выражение несогласия с правительством.”

Она также охарактеризовала меры против Anthropic как “произвольные, капризные и злоупотребление полномочиями.”

Спор возник из переговоров по контрактам с Пентагоном

Дело возникло после срыва переговоров между Anthropic и Пентагоном. В июле 2025 года компания достигла соглашения, которое сделало бы Claude первой моделью фронтального ИИ, одобренной для использования на секретных сетях.

Этот процесс позже изменил курс. Anthropic заявила, что чиновники Пентагона хотели, чтобы компания разрешила военное использование Claude “для всех законных целей” и без ограничений. Компания отказалась позволить использование, связанное с летальным автономным оружием и массовым внутренним наблюдением.

Anthropic утверждает, что ее технологии не должны поддерживать эти виды деятельности. Разногласия стали публичными после того, как переговоры по контракту провалились в феврале, и компания оспорила ответ правительства в суде.

Суд рассматривает претензию о репрессиях

Anthropic подала свой иск 9 марта в федеральный суд в Вашингтоне, округ Колумбия. Компания утверждала, что министр обороны Пит Хегсетх вышел за пределы своих полномочий, назвав Anthropic риском для цепочки поставок национальной безопасности.

Во время слушания 24 марта в Сан-Франциско судья Лин спросила адвокатов правительства, подверглась ли Anthropic наказанию за публичную критику позиции Пентагона. Решение от 26 марта гласило: “наказание Anthropic за привлечение общественного внимания к позиции правительства по контрактам является классической незаконной репрессией по Первой поправке.”

Позже Anthropic заявила, что она “благодарна суду за быструю реакцию” и отметила, что решение показало, что она, вероятно, добьется успеха по существу.

Кроме того, судебная борьба происходит в то время, как Anthropic занимает сильную позицию в области корпоративного ИИ. Menlo Ventures сообщила, что компания занимала 32% этого рынка в 2025 году, опережая OpenAI с 25%.

Запрет на уровне правительства мог бы ослабить эту позицию. На данный момент судебный приказ предоставляет Anthropic время для защиты своей позиции, пока более широкое дело продолжается.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить