品質低下の公式認認

AI コーディング支援ツール「Claude Code」の品質低下についてのユーザーからの指摘に対して、Anthropic が公式に対応内容を説明しました。同社は、これまで認識していなかった複数の技術的問題を同定し、すべてを修正したとしています。

特定された 3 つのエラー源

Anthropic が確認した問題は次の通りです。

1. 推論深度の低下(3月4日~4月7日)

API のレイテンシ低減を目的として、Claude Code の推論を「高」から「中」に設定変更しました。これにより応答速度は改善しましたが、ユーザーから質が落ちたとの報告が相次いだため、4月7日に設定を元に戻しています。

2. キャッシング機構の不具合(3月26日~4月10日)

システムの最適化の過程で、モデルの推論履歴を「1時間後に削除」するはずが、毎ターン直後に削除してしまう機構不良が発生していました。この結果、回を重ねるごとにコンテキスト情報が失われ、品質が段階的に低下していました。

3. プロンプト長制限による問題(4月16日~20日)

システムプロンプトに長さ制限を加える指示を追加したところ、測定可能な約 3% の品質低下が記録されました。この設定も即座にロールバックされています。

Anthropic の対応と今後

Anthropic は以下の施策で品質管理を強化すると述べています。

  • デプロイ前のテストプロトコルの厳格化
  • システムプロンプト修正時の評価スイートの拡充
  • サブスクライバーへの利用制限のリセット(補償)
  • X(旧 Twitter)での専用アカウントを設置し、製品情報をリアルタイムで発信

これらの措置は、同社の品質管理プロセスが本来機能していたはずだが、急速な改善・最適化の試行の過程で検証体制が追いつかなかったことを示唆しています。

業界的背景

Anthropic が品質管理強化を強調する背景には、AI 業界全体が直面する計算資源の不足があります。OpenAI、Google、Meta といった主要企業が高性能モデルの価格引き上げや利用上限の設定を始める中で、AI プロバイダーは性能維持と効率化のバランスを取ることが課題となっています。

ユーザーからの直接的なフィードバックが改善を促した今回の事例は、複雑な AI システムの開発にあたって、透明性と迅速な対応の重要性を示すものです。