OpenAI は 5 月 7 日、セキュリティリサーチャー向けの「Trusted Access for Cyber」プログラムを拡張し、新たに GPT-5.5 および専用セキュリティモデル「GPT-5.5-Cyber」を追加することを発表しました。

Trusted Access for Cyber プログラムの拡張

OpenAI の Trusted Access for Cyber は、検証済みのセキュリティディフェンダー(脆弱性研究者、ペネトレーションテスター、重要インフラを保護する専門家)向けに設計されたプログラムです。

このプログラムを通じて、参加者は以下の利点を享受できます。

  • 脆弱性研究の加速: GPT-5.5 の高度な推論能力により、複雑なセキュリティ問題の分析・診断が効率化
  • 重要インフラ保護: 認可された防御者が AI をツールとして活用し、インシデント対応・予防措置を強化
  • 倫理的な安全保障: OpenAI の検証プロセスにより、研究が正当な目的に限定されることを保証

GPT-5.5 と GPT-5.5-Cyber の違い

今回リリースされたモデルは 2 つに分かれます。

GPT-5.5 は OpenAI の汎用最新モデルで、複数のツール間で自律的にタスクを処理できる agentic 能力を備えています。Trusted Access for Cyber プログラム参加者は、このモデルを脆弱性研究に活用できます。

一方、GPT-5.5-Cyber は、セキュリティ研究に特化した専用モデルです。サイバーセキュリティの知識・推論に最適化され、以下の領域での精度が向上しています。

  • コード脆弱性の検出
  • マルウェア分析
  • ネットワーク攻撃パターンの認識
  • セキュリティアーキテクチャの評価

認可プロセスと対象者

このプログラムへのアクセスは、申請者が以下の基準を満たすことで許可されます。

  • 組織の正当性の確認(政府機関、セキュリティ企業、研究機関)
  • セキュリティ専門性の実証
  • 使用目的が防御的・倫理的であることの確認

OpenAI は、モデルの悪用防止を最優先としながら、セキュリティリサーチのニーズと責任あるリスク管理のバランスをとる方針です。

サイバー脅威への対抗手段としての AI

AI による脆弱性発見と防御支援は、急速に進化するサイバー脅威に対抗するための重要なツールとなっています。OpenAI のこれまでの研究では、AI モデルが人間のセキュリティ研究者と協働することで、発見効率が大幅に向上することが示されています。

GPT-5.5-Cyber による専門化は、このアプローチを次のステップへ進めるものです。セキュリティ防御側が AI の推論能力を活用できる体制が整備されれば、インフラの脆弱性を事前に発見・修正する期間が短縮され、全体的なセキュリティ態勢の向上が期待できます。

業界への示唆

Trusted Access for Cyber プログラムの拡張は、OpenAI が AI の「明確な悪用リスク」がある領域(サイバー攻撃支援等)と「防御的な価値」を生み出す領域(脆弱性発見等)を区別し、後者を慎重にサポートする戦略を示しています。

今後、セキュリティ研究の効率化を求める政府・企業は、このようなプログラムへのアクセス申請を検討する動きが広がる可能性があります。

アップデート

THE DECODER の報道により、GPT-5.5-Cyber の機能詳細が追加報告されました。

安全フィルターの削減: GPT-5.5-Cyber は標準的なチャットボットと比較して「セキュリティ関連のリクエスト拒否が大幅に減少」(refuses far fewer requests)するよう設計されています。これにより、セキュリティリサーチに必要な多くのシナリオで、モデルが有用な回答を提供できるようになっています。

実際の攻撃実行能力: デモンストレーション時、GPT-5.5-Cyber は既知の脆弱性に対して実装レベルの詳細なエクスプロイトを生成するだけでなく、「テストサーバーに対して実際に攻撃を実行し、システムの制御奪取を行い、システム情報の読み取りまで実行可能」という能力が確認されています。この機能は検証済みディフェンダーの脆弱性発見プロセスを大幅に加速させます。

競合環境: OpenAI の GPT-5.5-Cyber は、Anthropic が同時期に発表した「Mythos Preview」と直接競合する立場にあります。Mythos も同様にセキュリティリサーチに最適化されたモデルで、Mozilla との協働で Firefox の多数の脆弱性検出実績があります。