OpenAI が Responses API に WebSocket 対応 を実装し、AI エージェントワークフローのパフォーマンスを大幅に向上させる機能を導入しました。

WebSocket 統合による効率化

Responses API に WebSocket サポートが追加されることで、Codex エージェントループの処理効率が飛躍的に改善されます。API オーバーヘッドが削減され、モデルのレイテンシが短縮される設計です。

接続スコープ キャッシング

新しい 接続スコープ キャッシング 機能は、WebSocket 接続内でプロンプト キャッシュ を利用することで:

  • API コール数を削減
  • 不要なネットワーク往復を排除
  • リアルタイムなエージェント応答時間を短縮

この最適化により、複数ステップのエージェント推論が必要なワークフローでも、効率的に処理できるようになります。

Codex エージェントループへの適用

Codex(コード生成 AI エージェント)をベースとしたエージェントループでは、複数の API 呼び出しが連鎖的に発生します。WebSocket + 接続スコープ キャッシングにより:

  1. エージェントが推論結果を WebSocket で返却
  2. キャッシュ層が接続内で前のステップの結果を保持
  3. 次のステップで重複計算を回避
  4. 全体的なレイテンシと API コストを削減

開発者への影響

Responses API の既存ユーザーは、WebSocket オプションを有効化することで、すぐに性能向上の恩恵を受けられます。エージェント構築フレームワーク(OpenAI SDK など)の統合も段階的に進む見込みです。

AI エージェントの実運用化が加速する中、OpenAI は API レベルでのパフォーマンス最適化を継続的に推進しています。