AIの安全ルールが更新されました。OpenAIはGPT-5.1 CodexMaxの対策をSystem Cardとして公開しています。System Cardは製品やモデルの安全性に関する設計書のようなものです。

なぜ注目なのか

短く言えば、モデルとプロダクトの両面から安全対策が設計された点が新しいのです。城に例えるなら、石垣(モデル)と濠(プロダクト)の両方を整えるような対策です。詳細は公式ページで確認できます: https://openai.com/index/gpt-5-1-codex-max-system-card

全体像:二つのレイヤー

System Cardは大きく二つの層で構成されています。ひとつはモデルレベル。もうひとつはプロダクトレベルです。

モデルレベルで何をするか

モデルレベルの対策は学習段階や内部の振る舞いに関するものです。主なポイントは次の通りです。

  • 有害なタスクへの対応強化。危険なリクエストを学習で抑える工夫です。
  • プロンプトインジェクション対策。プロンプトインジェクションとは、利用者の入力に悪意ある命令を混ぜ込み、モデルを誤誘導する手法です。具体的には入力の検査やコンテキストの分離で防ぎます。

モデル側の対策は、まず『やらないこと』を学ばせる設計に近いです。

プロダクトレベルで何をするか

プロダクトレベルは実際にサービスとして動かす際の守りです。注目点は次の通りです。

  • エージェントのサンドボックス化。動作する範囲を限定して、外部への影響を抑えます。
  • 構成可能なネットワークアクセス管理。どの外部リソースにアクセスできるかを設定で制御します。

たとえば、エージェントが外部APIにアクセスする場合、許可リストを厳格にすることでリスクを下げられます。

誰に影響するのか

公式文書は利用者や開発者、運用者に向けた指針を示していますが、具体的な影響範囲は読み手が設定や運用次第で判断する形です。現場では次の立場が関係します。

  • プラットフォーム開発者:設定と実装責任がある人。
  • 運用チーム:ログや監査の設計を担う人。
  • エンドユーザー:利用時の挙動が変わる場合がある人。

要は、誰もが設定と運用で安全性に寄与できます。

今後の展開と注意点

現時点で明確なロードマップは示されていません。System Cardは現状の説明を優先しています。注意すべき点は次の通りです。

  • 設定次第で安全性の水準が上下すること。
  • カードの更新や追加資料で実務手順が変わる可能性があること。

実務では、設定のテストやログ監査を早めに組み込むのが賢明です。

実務導入の落としどころ

大事なのは対策を丸暗記することではなく、設定と運用を現場に落とし込むことです。モデルとプロダクト、両方の視点でチェックリストを作りましょう。小さな設定ミスが大きな事故につながることもありますので、継続的な検証をおすすめします。

最後に一言。System Cardは設計図の公開です。道具が変わっても、使い方次第で安全にも危険にもなります。読み手の皆様には、公式の更新を注視しつつ、自分たちの現場でどう適用するかを考えていただければと思います。