
OpenAIのAIエージェント開発ツールが進化、ファイル操作や安全なコード実行が可能に
2026/4/16

当サイトではアフィリエイトプログラムを利用して商品を紹介しています。
OpenAIは2026年4月、Responses APIにWebSocket接続モードを正式導入しました。これにより、CodexのようなAIエージェントがツール実行のたびにAPIを繰り返し呼び出す「エージェントループ」の処理速度が最大40%向上します。 従来のResponses APIでは、エージェントがツールを実行するたびに新しいHTTP接続を確立し、会話の全履歴を毎回送信していました。これがGPT-5.3-Codex-Sparkなど毎秒1,000トークン超の高速モデルが登場した際の大きなボトルネックとなっていました。WebSocket接続では、接続が続く間に前回のレスポンス状態をメモリ上にキャッシュし、新しい部分だけを送受信することで無駄な処理を大幅に削減しています。 開発者側の使い方はほぼ変わらない設計になっており、既存の`response.create`と`previous_response_id`を使うだけでWebSocketの恩恵を受けられます。アルファ版のテストでは、VercelのAI SDKが最大40%、コーディングエージェントClineが39%、CursorのOpenAIモデルが30%それぞれ高速化されており、実用的な効果が広く確認されています。 本番環境でもCodexがトラフィックの大部分をWebSocket経由に切り替え済みで、最大4,000トークン毎秒というバースト速度も記録されています。