Anthropic отвечает на кризис лимитов Claude Code: рекомендует не использовать Opus и отключить около 1 миллиона контекста, компенсация не упоминается

BlockBeatNews

Согласно мониторингу 1M AI News, участник команды Anthropic Claude Code Lydia Hallie опубликовала результаты своего расследования по спору вокруг ограничений за последние две недели. Вывод таков: в пиковые часы лимиты действительно были ужесточены, потребление в сессиях с контекстом около 1 млн token увеличилось — «вот в этом и заключается большинство причин, которые вы ощущаете». Она заявила, что команда исправила некоторые баги, но подчеркнула: «ни один баг не привёл к тому, что вам было начислено больше, чем нужно».

Затем она дала советы по экономии:

  1. Для Pro по умолчанию использовать Sonnet 4.6, а не Opus, потому что Opus расходуется примерно в два раза быстрее
  2. Если глубокое рассуждение не требуется — снижать уровень рассуждения или отключать extended thinking
  3. Длинные встречи, простаивавшие более часа, не восстанавливать — открыть заново
  4. Установить переменную окружения CLAUDE_CODE_AUTO_COMPACT_WINDOW=200000, чтобы ограничить размер окна контекста

Не было упомянуто ни в какой форме сброса лимитов или компенсации.

Ведущий AI-подкаста Alex Volkov обобщил этот ответ как «вы держите это неправильно» (You’re holding it wrong), указав, что Anthropic сама установила 1 млн контекста как значение по умолчанию и продвигала Opus как флагманскую модель, а теперь советует платным пользователям не пользоваться этими функциями. Он также отметил, что в отличие от OpenAI Codex, который ранее столкнулся с похожими проблемами и затем сбросил пользователям квоты, Anthropic не сделала никакой ретроспективной компенсации.

Утверждение «не было начислено больше» также противоречит собственным записям обновлений Claude Code. Ровно за день до этого был выпущен релиз v2.1.90, исправивший баг регресса кеша, существовавший с v2.1.69: при восстановлении сессии с помощью --resume запросы, которые должны были попасть в кеш, вместо этого запускают полный prompt cache miss и тарифицируются по полной цене. Этот баг сохранялся примерно на протяжении 20 версий, прежде чем его обнаружили и исправили. В ответе Lydia не было упоминания об этом уже подтверждённом аномальном начислении.

С 23 марта многие пользователи с подписками Pro и Max сообщают об аномально быстром исчерпании лимитов. GitHub issue #41930 собрал сотни сообщений: некоторые пользователи утверждают, что квота плана Max 5x заканчивается в течение часа, другие — что одна простая однофразовая реплика доводит использование с 59% до 100%. 30 марта Anthropic признала на Reddit «скорость, с которой пользователи достигают лимитов, существенно превышает ожидания», и заявила, что это внесено в список самых высоких приоритетов для команды.

Главная проблема этого ответа не в том, точны ли технические детали, а в том, что он перекладывает ответственность почти целиком на способ использования пользователями. В Pro/Max- подписке Anthropic продаёт «самую сильную модель + максимальный контекст + максимальные возможности рассуждения», берёт ежемесячно от 20 до 200 долларов, а теперь говорит пользователям — экономьте.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев