Google Pentagon 契約――Anthropic の拒否とは対照的に、classified AI アクセスを提供
Google が米国防総省と classified AI deal を署名。Anthropic が mass surveillance・autonomous weapons 禁止を求めて拒否した同じ条件を Google は受け入れた。安全性保証が法的拘束力を持たないまま、政府 AI 供給の勢力図が大きく変わる。
Google が米国防総省(DoD)と classified work 向けの AI アクセス契約を署名しました。同じ案件で Anthropic が安全性条件を理由に拒否した――その直後の決断です。シリコンバレーの倫理判断が二つに割れ、政府 AI 調達の新局面が始まります。
契約の概要
Google の AI モデルへのアクセスを Pentagon に供給する協定です。契約上、政府は「any lawful government purpose」(いかなる合法的な政府目的)のために Google AI を使用可能。それ以前の 2025 年 11 月に成立した契約を拡張する形です。
一見すると単なるビジネス取引に見えますが、背景が複雑です。
Anthropic との対照――拒否と受け入れ
4 ヶ月前(2026 年 2 月)、Anthropic は Pentagon からの同様のアプローチに対して明確に拒否しました。同社の要求は明確でした:
「domestic mass surveillance(国内大量監視)and autonomous weapons(自律型兵器)への AI 使用を、契約上の禁止条項として明記すること」
Pentagon はこれを受け入れず。Anthropic はスタンスを曲げません。結果、同社は Pentagon から「supply chain risk(サプライチェーンリスク)」と指定され、現在では政府関連契約から事実上排除。現在訴訟中です。
Google と OpenAI は異なる道を選びました。Pentagon の要求「any lawful government purpose」をそのまま受け入れたのです。
Google の契約条件――限界のある「安全性宣言」
Google の契約には、以下の文言が含まれています:
AI is not intended for domestic mass surveillance or autonomous weaponry without appropriate human oversight.
日本語では「本 AI は国内大量監視や適切な人間の監視なしでの自律型兵器に意図されていない」という意味です。
ただし法的には拘束力がありません。 契約は明確に「does not confer any right to control or veto lawful Government operational decision-making」(合法的な政府の運用判断に対して拒否権を持たない)と書かれています。言い換えれば、Pentagon が「これは合法的な目的だ」と判断すれば、どのような用途であっても Google は異議を唱えられないのです。
法律専門家は警告しています:Google の安全性条項は「単に不歓迎の意思を示すだけで、違反にはならない」という解釈です。
社内からの反発
Google の従業員たちは反発しました。600 人以上が抗議書簡に署名し、以下の懸念を述べました:
- classified contracts では透明性がない
- 技術がどのように使用されているか知ることができない
- 倫理的なチェックメカニズムが機能しない
Google 経営陣は耳を貸しませんでした。契約は進行しました。
OpenAI との比較
OpenAI は Google と同様のアプローチをとりました。Pentagon との契約を締結し、制限付きながらも classifier AI アクセスを提供しています。ただし OpenAI は「safety systems の完全な自主性を保つ」という建前を保ちながら、実質的には Pentagon の要求に応じている形です。
背景――「供給の争い」
政府向け生成 AI は現在、クラウド企業間の重要な市場です。
- Anthropic:原則主義。政府との関係は限定的。
- Google:柔軟主義。Pentagon アクセスを提供。
- OpenAI:実用主義。Government 向けサービスを展開済み。
結果的に、Pentagon は Anthropic 以外の二社から AI を調達できるようになりました。
問いかけ
この件が示すのは「AI 安全性」と「政府関係」という二つの力学です。
- Anthropic の立場:AI safety を最優先し、政府との関係は二義的
- Google/OpenAI の立場:ビジネス・政治的圧力に応じ、安全性は宣言的
どちらが「正しい」かは、今後の Pentagon の AI 運用で初めて明らかになるでしょう。Anthropic が拒否した「any lawful government purpose」が、実際にはどのような用途に使われるのか。その時、Google と OpenAI の判断が適切だったのか、市場と倫理が問い直されることになります。