Google、Mira Murati の Thinking Machines Lab に GB300 インフラを提供――マルチB規模の AI 計算能力強化契約
Google Cloud は、元 OpenAI 首席技術者 Mira Murati が創業した Thinking Machines Lab とマルチB規模の提携を締結。Nvidia GB300 チップ搭載のインフラストラクチャを提供し、AI モデル開発を加速。
Google Cloud は 2026 年 4 月、Mira Murati が 2025 年に創業した AI スタートアップ「Thinking Machines Lab」とマルチB(10 億ドル単位)規模の戦略的提携を発表しました。Nvidia の最新 GPU「GB300」を搭載したインフラストラクチャを供給し、Thinking Machines Lab の AI モデル開発を大幅に強化します。
Mira Murati と Thinking Machines Lab
Mira Murati は OpenAI の首席技術者(CTO)として Claude 競争モデルの開発を主導していた人物。2025 年 2 月に OpenAI を離れ、「AI モデル開発の民主化」を掲げて Thinking Machines Lab を設立しました。同社は同年 10 月、AI モデルのカスタマイズを自動化する「Tinker」をローンチ。シード ラウンドで $20 億を調達し、$120 億の評価を受けています。
GB300 チップの優位性
Google Cloud が提供する Nvidia GB300 は、H100・H200 といった前世代 GPU と比べて 学習・推論速度が 2 倍以上へ高速化。Thinking Machines Lab はこの次世代インフラへのアクセスにより、大規模言語モデル(LLM)の学習サイクルを劇的に短縮できます。
特に、Tinker が自動生成する「カスタムモデル」の多数並列学習に適しており、企業向け AI 導入の時間短縮が可能になります。
契約の戦略的背景
Google の AI インフラ競争戦略
Google Cloud は、最近 Anthropic とも TPU キャパシティの契約を拡大。同時に、Amazon も Anthropic との間で 5 ギガワット規模の電力契約を発表しており、クラウド大手の AI インフラ争奪戦が激化しています。Google がこのタイミングで Thinking Machines Lab への投資を加速させるのは、AI スタートアップエコシステムへの「囲い込み戦略」の一環です。
Thinking Machines Lab にとってのメリット
強力な計算能力へのアクセスにより、Tinker の開発ロードマップが加速。特に強化学習(RL)ワークロードに最適化された環境を獲得することで、より高度なモデルパーソナライゼーション機能の実装が可能になります。
市場への波紋
OpenAI・Google・Anthropic の三すくみ競争が続く中、Mira Murati のような「離脱系起業家」への投資は、既存企業の人材流出リスクを露呈させています。同時に、GB300 などの次世代チップへのアクセスが「AI競争力の決定要因」となっていることも明確化。規制当局による「インフラ支配」への監視も強まる見通しです。
Thinking Machines Lab の成長如何では、AI モデル開発のパワーバランスが大きく変わる可能性があります。