ソフトバンクが2025年10月にNVIDIA株3,210万株を売却し、約58.3億ドルを現金化したことが、11月11日の決算で開示されました。四半期純利益は2.5兆円へと拡大。調達した資金は、OpenAIへの追加投資や大規模データセンター計画などAI基盤の自前化に振り向ける構想が示されています。

この動きは「株を売った」以上の意味を持ちます。GPU調達一極集中のボトルネックを回避し、マルチ・アクセラレータ時代に備えるための布石です。以下、NVIDIA以外のアクセラレータやネットワーク/メモリの最新潮流も含め、技術の目線で整理します。

何が起きたのか(ファクト)

  • 売却規模:10月にNVIDIA株3,210万株を売却、約58.3億ドルを現金化。決算資料・複数報道で確認。
  • 資金の使途OpenAIへのフォローオン投資や**米国での超大型DC計画「Stargate」**など、AIインフラ強化に充当する構想。
  • 国内インフラ:大阪・堺で150MW→最大400MW級のAIデータセンター計画を推進。日本発のAI計算基盤拡充に直結。

これから台頭する「NVIDIA以外」の計算基盤

AMD Instinct(CDNA 4 / MI350世代)

  • MI350X/MI355Xを正式発表。世代内で最大35倍の推論性能向上をうたう(対MI300、AMD発表値)。ROCm 7やPollara NIC、Heliosラックでオープン指向のラックスケールを前面に。
  • すでに量産・出荷フェーズに入り、OCIなどで実装が進む。
  • 開発エコシステム:PyTorch/ROCm、vLLMのROCm対応が進展し、推論基盤としての現実解が広がる。

Google TPU(Ironwood)

  • 第7世代TPU「Ironwood」を公開。JAX / PyTorch+XLA / OpenXLAとソフトウェア共設計の最適化で、学習〜推論までのスループットを狙う。
  • 報道ベースではv5p比10倍、v6e比4倍級の性能数字が伝えられ、クラウドTPUの再加速が示唆される。

Intel Gaudi 3

  • Ethernet前提のスケールアウトを特徴に、OEM各社経由で展開。インファレンスでH100対抗の価格性能を訴求する公式資料も。
  • 選択肢の多様化と調達リスク分散の観点で、Hyperscaler以外でも検証が前進。

AWS Trainium 2

  • EC2 Trn2GA。PyTorch/XLA等と統合され、学習・推論の専用最適化を武器に、クラウド一体型のTCO改善を狙う。

要点:NVIDIAのBlackwell(NVLink/NVSwitch/C2C)の“超結合”路線に対し、Ethernetスケールアウト(Gaudi/UEC)やクラウド専用チップ(TPU/Trainium)、オープン指向(AMD+ROCm)の多様な最適解が並び立つ局面に入りました。

ボトルネックは「GPU」だけじゃない:ネットワークとメモリの大変化

UEC(Ultra Ethernet Consortium)で“AI向けEthernet”が前進

  • UEC 1.0が2025年6月に公開。AI/HPC向けの新トランスポート・輻輳制御・現代的RDMAを標準化し、Ethernetの大規模AI適合が加速。
  • Broadcom Tomahawk 6102.4Tbpsのスイッチ帯域を1チップで実現。800G/1.6T時代のAIファブリックを後押し。
  • Thor Ultra 800G NICなど、AI前提NICも登場。パケット単位のマルチパスやO3配信などでRDMAの弱点を補う。

CXLで“メモリをプールする”設計が実用段階へ

  • CXL 3.x + PCIe 6.xの普及で、KVキャッシュや巨大埋め込みを外部メモリにオフロード。AI推論のTCO/レイテンシ最適化に効く。
  • ベンダ/研究からもプーリング事例が続出し、HBM“だけ”に依存しないスケーリングが現実味。
  • 対照的にNVIDIAはNVLink/NVSwitch/EGM密結合&メモリ一体化を極める路線。二大流派が併走する形に。

ソフトバンクの文脈に引き寄せると何が変わる?

  1. 調達の自由度
    NVIDIA偏重を緩め、AMD/TPU/Gaudi/Trainiumワークロード別に最適配置しやすくなる。特に推論やエージェント系ではEthernet×CXLのコスパが効く領域が増える。

  2. 国内×海外の二階建てアーキテクチャ
    大阪・堺のDCで国内推論・RAG、米国の超大型計画で基幹学習といった地産地消+海外大規模の住み分けが取りやすい。

  3. ソフトウェア主導の最適化
    ROCmやOpenXLA、vLLMの成熟で複数HWの抽象化が進む。モデルの**量子化(FP8/FP4/MXFP4)**やKVキャッシュ戦略を合わせることで、同一モデルを異種HWに無理なく載せ替え可能に。


これからチェックしたい技術指標

  • モデル別“最適アクセラレータ”の指針:長文RAG/エージェント/拡張KVの推論TCOで、MI350/Trainium2/TPU/IaaS H100/B200の勝ち筋を更新し続ける。
  • ファブリックの選択UEC Ethernet vs NVLink。規模(数千〜数万GPU/TPU)とアプリの通信パターンで使い分ける。
  • メモリ拡張の実効性CXLプールの実トレース(KVヒット率、TTFT、P99)とEGM/NVSwitchのスループット比較。
  • エコシステムの成熟度PyTorch/ROCmOpenXLA/JAX運用安定性vLLMの最適化の更新速度。

まとめ

ソフトバンクのNVIDIA売却は、AI投資の後退ではなく、多様化と自前化に舵を切るシグナルです。GPUだけに依存しない計算資源の組み合わせ(AMD/TPU/Gaudi/Trainium)と、**ネットワーク(UEC/NVLink)×メモリ(CXL/HBM/EGM)**の設計選択が、コスト・電力・スケールの解の幅を広げています。国内外のデータセンターを舞台に、用途別最適化で“わくわくするAI基盤”をどう組むか。次は、あなたのワークロードに最適な組み合わせを選ぶフェーズです。


参考(一次情報・公式中心)

  • SoftBank Group Q2 FY2025(英語版・売却開示)
  • Reuters/AP(売却額・株数・市場反応)
  • OpenAI/データセンター展開(公式ブログ・報道)
  • SoftBank大阪・堺DC(公式)
  • AMD Instinct MI350(公式・イベント資料)
  • Google Cloud TPU Ironwood(公式)
  • Intel Gaudi 3(公式・報道)
  • AWS Trainium 2 GA(公式)
  • UEC 1.0とAI Ethernet(NetworkWorld)
  • Broadcom Tomahawk 6 / Thor Ultra(各社リリース・報道)
  • ROCm / vLLM対応(公式ドキュメント)

※ 本稿は2025年11月12日(JST)時点の公表情報・一次資料に基づいています。最新の発表で数値や計画が更新される場合があります。