OpenAI が強力なサイバーセキュリティ AI へのアクセスを制限、Anthropic に追随
OpenAI は強力なサイバーセキュリティ機能を持つ新しい AI モデルの提供を一部企業に制限する方針を取っており、Anthropic と同様の安全保障戦略を進めている。
OpenAI は強力なサイバーセキュリティ機能を備えた新しい AI モデルの提供を限定する方針を進めている。Axios の報道によれば、OpenAI は悪用される恐れのある強力な AI ツールを管理するため、Anthropic と同様の戦略を採用している。
OpenAI の具体的な施策
OpenAI は 2026 年 2 月に GPT-5.3-Codex をリリースした後、「Trusted Access for Cyber」というパイロット プログラムを開始した。このプログラムに参加した企業は、高度なセキュリティ モデルへのアクセスと同時に 1000 万ドルの API クレジットを提供される。ただし OpenAI は、より広い公開アクセスが今後提供されるかについては明言していない。
Anthropic の先例に続く動き
Anthropic は同週、新しい「Mythos Preview」モデルへのアクセスを テクノロジーおよびセキュリティ企業に限定すると発表した。同社は「強力なハッキング機能」を理由に、このモデルを一般公開する前に「適切なセーフガード(安全装置)が整備されるまで」待つ必要があると述べている。Mythos クラスのモデルは、必要なセーフガードが確保されるまで公開されない方針だ。
業界の共通課題
OpenAI と Anthropic の動きは、強力なサイバーセキュリティ ツールの悪用防止に向けた業界共通の課題を浮き彫りにしている。両企業は段階的なアクセス制限を通じて、攻撃者による悪用を最小化しながら、防御力向上に取り組む組織の利益を守ろうとしている。
この戦略は、AI の能力が増すほど、その開発企業が社会への影響を厳しく問われる傾向を反映している。単なる性能向上だけでなく、責任ある利用環境の構築が、次世代 AI の市場導入における重要な要件となりつつあるのだ。