Anthropic の最新セキュリティモデル Claude Mythos に対する「独占的能力」という前提が揺らいでいます。新しい研究によって、小規模かつ公開されているオープンソース AI モデルでも、Anthropic が誇ってきた脆弱性分析能力を再現できることが判明しました。

Anthropic の限定アクセス戦略の背景

Anthropic は Claude Mythos について、以下の能力を主張していました:

  • ソフトウェアバグの自動発見
  • 独立した動作可能なエクスプロイトの構築
  • 企業ネットワーク全体の乗っ取り

これらの能力の「危険性」を理由に、Anthropic は Project Glasswind という限定プログラムを通じて、わずか11団体のみに Claude Mythos へのアクセスを制限してきました。

小規模モデルで再現される能力

しかし2つの独立した研究グループ(AIASLE と Vidoc Security)の検証により、この限定戦略の根拠が厳しく問われています。

テストの概要と結果

FreeBSD NFS 脆弱性(CVE-2026-4747)

  • テスト対象の8つのモデルすべてが、メモリバグを検出
  • わずか36億パラメータの GPT-OSS-20b でさえ「重大度高」と判定

完全なエクスプロイトチェーンの構築

  • GPT-OSS-120b が完全な公開エクスプロイトチェーンを独立して再構築
  • Qwen3 32B・Deepseek R1 も高い性能を発揮

ばらつきも存在

OpenBSD の脆弱性テストでは、モデル間での性能にばらつきが出現。これは脆弱性分析の難易度が常に均一ではないことを示唆しています。

Anthropic の非公開戦略への疑問

今回の研究結果は、いくつかの重要な質問を投げかけています:

  1. セキュリティリスク本当に Claude Mythos 独占か? 小規模モデルでも同等の能力があれば、限定アクセス制限の正当性は低下する

  2. 競争阻止的では? Project Glasswind による限定は、安全保障より市場支配の側面がないか

  3. 業界標準化の障害 政府・企業の脆弱性分析インフラが Anthropic に依存する構造の継続

学術コミュニティの台頭

今回の検証は、大手 AI 企業の主張を独立した研究で検証する重要性を示しています。オープンソースモデルの進化が加速する中、「非公開モデルでしかできない」という言説は、研究透明性と競争環境に影響を与えるリスク要因として注視される必要があります。

Anthropic が Claude Mythos のアクセス範囲の拡大を検討するのか、あるいは限定戦略の正当性を改めて主張するのかは、今後のセキュリティ AI 市場の姿勢を占う重要なポイントになるでしょう。