AnthropicがClaude Codeの制限危機に対応:Opusの使用を避け、100万のコンテキストを閉じることを提案、補償については言及なし

BlockBeatNews

1M AI News のモニタリングによると、Anthropic Claude Code チームのメンバーである Lydia Hallie が、ここ2週間の上限をめぐる論争についての調査結果を公開しました。結論はこうです。ピーク時の上限は確かに締められており、「100万 token のコンテキストの会話」では消費が増える、「これが、あなたが感じている大部分の原因です」。彼女は、チームがいくつかのバグを修正したと述べたものの、「どのバグも過剰請求につながったわけではない」と強調しました。

その後、彼女は節約の提案を示しました:

  1. Pro ユーザーはデフォルトで Opus ではなく Sonnet 4.6 を使うべきです。Opus は消費速度がおよそ2倍だからです
  2. 深い推論が不要なときは推論強度を下げるか、extended thinking をオフにする
  3. 1時間以上放置された長い会話は復元しないで、新しく開き直す
  4. 環境変数 CLAUDE_CODE_AUTO_COMPACT_WINDOW=200000 を設定して、コンテキストウィンドウのサイズを制限する

いかなる形での上限リセットや補償についても触れられていません。

AI ポッドキャストのホストである Alex Volkov は、この回答を「あなたの持ち方が違う」(You’re holding it wrong) と要約し、Anthropic 自身が 100万のコンテキストをデフォルトに設定し、Opus をフラッグシップモデルとして推している一方で、いまは有料ユーザーにこれらの機能を使わないよう勧めていると指摘しました。彼はまた、OpenAI Codex でユーザーに対して以前同様の問題が起きた後にクォータをリセットしたのとは違い、Anthropic は何も遡及的な補償をしていないとも述べました。

「過剰請求はなかった」という主張は、Claude Code 自身の更新履歴とも相反しています。ちょうどその前日にリリースされた v2.1.90 では、v2.1.69 から存在していたキャッシュの回帰バグが修正されました。–resume によってセッションを復元すると、キャッシュにヒットするはずのリクエストが、完全な prompt cache miss を引き起こし、通常料金で課金されるというものです。このバグは約20のバージョンにまたがってようやく発見され、修正されました。Lydia の回答の中には、この確認済みの課金異常については言及がありません。

3月23日以降、大量の Pro および Max のサブスクユーザーが、上限が異常に速く消費されると報告しています。GitHub issue #41930 には数百件の報告が集まっており、あるユーザーは Max 5x プランのクォータが 1時間以内に使い切られたと言い、別のユーザーは単純な1文の返信だけで使用率が 59% から 100% に引き上げられたと言っています。Anthropic は 3月30日に Reddit 上で「ユーザーが上限に到達する速度が、予想を大幅に上回っている」と認め、すでにチーム内で最優先の事項として扱うと述べていました。

この回答の根本的な問題は、技術的な細部が正確かどうかではなく、それが責任をほぼすべてユーザーの使い方に押し付けている点にあります。Anthropic が売っているのは「最強モデル + 最大コンテキスト + 最高の推論能力」を備えた Pro/Max のサブスクリプションで、毎月 20 から 200 ドルの料金を取っているのに、いまはユーザーに節約して使うように言っているのです。

免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし