Anthropic は本日、SpaceX のデータセンター Colossus-1 の全容量を確保することを発表しました。22 万個以上の NVIDIA GPU と 300 メガワット以上の電力供給を通じて、Claude の大規模スケーリングを実現します。設備は約1ヶ月以内にオンライン予定です。

GPU 確保の規模と意味

22 万個以上の GPU は、業界における単一の展開としては史上最大級です。AI トレーニングと推論のキャパシティ競争が激化する中、Anthropic はこの取引により大規模モデルのスケーリングと高トラフィック対応を一気に強化します。

300MW 以上の電力は小規模な都市に匹敵する規模です。SpaceX による Colossus-1 の設計は、こうした巨大な電力需要に対応できるインフラとして構想されていました。Anthropic がこの全容量を活用することで、Claude の応答性能とスループットが大幅に向上する見込みです。

Claude Code とレート制限の大幅緩和

同時に Anthropic は、Claude Code(開発者向けツール)のレート制限を倍増させることを表明しました。Pro、Max、Team、Enterprise のすべてのティアに対して、5 時間あたりのレート制限が 2 倍になります。さらに、Pro と Max 利用者に対するピークタイム時のスロットリング(速度制限)を完全廃止します。

これはエンジニアが日常的に感じるフラストレーション——急いでいるときに速度が落ちる——を根本的に解決する施策です。

Claude Opus API 上限の大幅引き上げ

API ユーザーに対しても大きな変更があります。Claude Opus の入力トークン上限は以下のように引き上げられます:

  • Tier 1:30,000 TPM(トークン/分)→ 500,000 TPM
  • その他ティア:同等の比率で拡大

これにより、複数の大規模リクエストを同時処理する企業ユーザーの制約が大きく緩和されます。

インフラ競争の激化を映す決定

この取引は、AI 企業による計算資源の確保競争がいかに激化しているかを象徴しています。OpenAI は Microsoft のインフラに大きく依存し、Google は自社の TPU を活用しています。一方 Anthropic は、Amazon、Google、Microsoft との複数パートナーシップに加え、今回の SpaceX との大規模契約により、独立した算出基盤を確保したことになります。

SpaceX による Colossus-1 の構想も興味深い点です。もともと xAI(Elon Musk のAI企業)のための施設でしたが、その全容量を Anthropic に提供することで、両社の綿密な協力関係を示しています。

今後の見通し

設備がオンライン化される見込みは「約1ヶ月以内」です。この時点で Claude の応答速度とスケーラビリティがどの程度向上するか、業界全体が注視しています。同時に、レート制限の緩和がどの程度ユーザー体験を改善するか、実装後の反応も重要な指標になるでしょう。

Anthropic は昨年、Google Cloud との 200 億ドル規模の 5 年間契約を発表しており、大規模インフラへの投資姿勢は一貫しています。今回の SpaceX との取引は、その戦略の具体的な実行形として位置づけられます。

AI スケーリングの競争は、単なる GPU 数の比較ではなく、電力、冷却、ネットワークといった総合的なインフラの確保が鍵になっています。Anthropic のこの決定は、その現実を改めて浮き彫りにするものです。