GPT-5.5 が Claude Mythos と同等のサイバー攻撃能力を実証——AISI テストで性能並行
OpenAI の GPT-5.5 が Anthropic の Claude Mythos と同程度のサイバー攻撃成功率を示した。英国 AI 安全機構(AISI)の最新評価で、両モデルとも 70% 前後の成功率でエンタープライズネットワークへの多段階攻撃を完遂。GPT-5.5 は既に ChatGPT と API で公開される一方、Mythos はアクセスが厳格に制限されている。
英国の AI 安全機構(AISI)が実施した最新評価で、OpenAI の GPT-5.5 が Anthropic の Claude Mythos Preview と同程度のサイバー攻撃能力を持つことが確認された。両モデルとも企業向けネットワークに対して高い成功率で多段階攻撃を実行でき、AI モデルのセキュリティリスクが急速に拡大していることを示唆する結果となった。
性能比較:統計誤差範囲内での同等性
AISI の評価によると、GPT-5.5 は専門家向けの難易度レベルで平均 71.4% の成功率を達成した。一方、Claude Mythos Preview は 68.6% と、わずか 2.8 ポイントの差にとどまる。この差は統計的誤差の範囲内であり、実質的には両モデルの性能が匹敵することを意味している。
ネットワーク攻撃シミュレーション:複雑な 32 ステップ攻撃を実行
より実践的なテストである「The Last Ones」というネットワーク侵攻シミュレーションでも、成績がほぼ同じだった。GPT-5.5 は 10 回のシミュレーションうち 2 回で完全な乗っ取りに成功、Mythos は 3 回で成功。複雑な 32 ステップの攻撃フローを、両モデルとも自律的に完遂した。
AISI の評価対象には、以下のような実践的なシナリオが含まれた:
- 95 個の Capture The Flag タスク(複数難易度)
- リバースエンジニアリングと悪用開発
- マルウェア解析
- 複数サブネットと複数ホストにまたがるネットワーク環境
重要な留保:「理想的な環境」での測定値
ただし、この評価には重要な条件がある。テストは「監視がない」「防御ツールが導入されていない」「セキュリティ検知が無効」という理想的な環境下で実施された。現実の企業ネットワークには常時監視、異常検知、インシデント対応チームが存在するため、実運用環境での効果は不確実である。
戦略的矛盾:制限と公開のジレンマ
今回の評価で浮き彫りになったのは、OpenAI と Anthropic の相反する戦略だ。
Anthropic の戦略: Claude Mythos の高い能力を認識し、セキュリティリスクを理由に約 50 社への限定提供を継続している。
OpenAI の戦略: GPT-5.5 Cyber を「重要なサイバー防御者」向けに限定提供と説明しながらも、GPT-5.5 自体は既に ChatGPT と OpenAI API を通じて一般公開されている。
この矛盾は、OpenAI CEO サム・アルトマンが先月 Anthropic のアプローチを「恐怖に基づくマーケティング」と批判した直後に起きた。その後、OpenAI が同じ制限戦略を採用したことで、一貫性に関する疑問が生じている。
セキュリティへの広範な影響
この評価の結果は、AI セキュリティの脅威が急速に拡大していることを示している。両社の最新モデルが同等のレベルで自動化されたサイバー攻撃を実行できるという事実は、企業の防御インフラが AI 時代の脅威に対応する必要があることを強く示唆している。特に、公開モデルと制限モデルの能力が同等である場合、アクセス制限のセキュリティ効果には限界があるという議論も生じ得る。