チップ需要の転換――GPU から CPU へ

Meta と Amazon の契約は、AI インフラの需要構造が大きく変わりつつあることを示しています。

これまで AI 企業は GPU(グラフィックスプロセッサ)に投資を集中させていました。学習フェーズでの計算集約性がため、Nvidia や AMD の GPU が主役でした。

しかし AI エージェントが本格化する中、状況が変わっています。学習済みモデルを使用して推論・実行するエージェントは、コード生成、検索、リアルタイムな意思決定など、異なる種類の計算タスクを要求します。この場合、CPU が効率的に機能します。

AWS Graviton の登場――ARM ベースの最適化

Amazon の AWS Graviton は、ARM アーキテクチャをベースにした自社開発 CPU です。AI エージェント向けのコンピュート需要に最適化されているため、汎用 GPU よりもコスト効率とパフォーマンスで優位性を持ちます。

Meta は数百万個規模の Graviton を契約することで、今後のエージェント実行フェーズへの投資を進めています。

インフラ戦争の激化――クラウドプロバイダーの垂直統合

この契約は、クラウドプロバイダー間の競争の最新展開です。

  • Anthropic: Amazon の Trainium GPU で 1000 億ドル級の大型契約を先行獲得
  • Meta: Google Cloud との既存 100 億ドル(6 年間)契約と並行して、Amazon との CPU 契約を追加
  • Amazon: カスタムチップ(Graviton、Trainium)でシェア拡大を加速
  • Google: 自社開発 TPU で対抗

各プロバイダーは汎用チップではなく自社カスタムチップで顧客をロックインしようとしており、AI インフラの「垂直統合」が産業標準化しつつあります。

ビジネスインパクト

この競争は、AI 企業にとっては複数ベンダーの活用で選択肢が広がる一方、クラウドプロバイダーにとっては高い開発コストと営業効率化の競争になります。また、チップ設計能力を持たないプロバイダーは市場から排除される可能性も高まっています。