米国防総省(Pentagon)は 5 月 1 日、7 つの主要 AI 企業と classified military networks 向けの契約を一括署名しました。SpaceX・OpenAI・Google・Nvidia・Reflection・Microsoft・Amazon Web Services が、米軍の「AI-first fighting force」化を支援する協定です。

同じオファーを拒否した Anthropic との対照によって、シリコンバレーの倫理判断が二つに割れた構図が明確になりました。

Pentagon の戦略転換

Pentagon の Chief Technology Officer Emil Michael は、以下のように述べています:

「我々が学んだのは、いかなるパートナーにも依存するのは無責任だということだ。」

この発言が、今回の広範な企業との契約が必要だという論理です。以前は Anthropic に Claude を依存していましたが、同社の拒否によって複数ベンダー戦略へ切り替わりました。

契約の対象・範囲

契約範囲は以下の通りです:

  • デプロイ対象:classified military networks 全域
  • 用途:mission planning、weapons targeting、その他の防衛運用
  • モデルの種類:proprietary models(OpenAI、Google)と open-source models(Nvidia、Reflection)の混在

open-source models の採用は、特定ベンダーへの依存を減らす戦略と見なされます。

GenAI.mil の規模

Pentagon はすでに GenAI.mil プラットフォームを運用しており、130 万人以上の軍人が利用。月間のプロンプト処理数は数千万件に上ります。新しい契約は、このプラットフォームの多層化を目的としています。

Anthropic の拒否と supply chain risk 指定

2 月、Anthropic は Pentagon と同じ協議の場で拒否を表明しました。その理由は以下の 2 点:

  1. 国内大量監視への AI 使用禁止
  2. 自律型兵器システムへの直接的な制御禁止

Pentagon がこれを受け入れないため、Anthropic は供給チェーン risk として指定され、現在は政府関連契約からほぼ排除。訴訟を提起しています。

OpenAI・Google の「lawful use」受け入れ

これに対し OpenAI・Google は異なる選択をしました。Pentagon が提示する「lawful operational use」(合法的な運用用途)という要件をそのまま受け入れています。

OpenAI は、同時に以下の 3 つの「red line」(安全保証)を設定しました:

  1. 国内大量監視に使用しない
  2. 自律型兵器システムに使用しない
  3. 自動化された高リスク判断に使用しない

ただし、これらの保証には法的拘束力がないという点が問題です。Pentagon が「これは合法的だ」と判断すれば、OpenAI は異議を唱えられません。

THE DECODER の報道によれば、OpenAI 内部からは「これは largely performative(見せかけ)だ」という評価も漏れています。

法的曖昧性の背景

なぜ「合法的用途」という曖昧な言葉になるのか。背景には、米国の法律そのものの loophole があります。

例えば:

  • 「自律型兵器」の定義が不明確(人間が最終決定に関与すれば OK?)
  • 「大量監視」の法的基準が時代遅れ

Anthropic CEO Dario Amodei は、これらの loophole を理由に拒否を貫いています。

まとめ:安全性ガバナンスの課題

Pentagon の AI 軍事化は避けられない流れです。ただし以下の問題が残ります:

  • 透明性の欠如:classified networks では AI がどう使われているか国民は知ることができない
  • 安全性の後付け:OpenAI の red line は技術的拘束力ではなく、あくまで「意向表示」
  • Anthropic 排除のリスク:安全性を優先した企業が政府関係から排除される前例

Pentagon は「ベンダー多層化」を名目に、実質的には最も柔軟な企業を選別した形です。米軍の AI 依存化が進む一方で、その安全性ガバナンスは宣言的なレベルにとどまっています。