ChatGPTが会話の流れから危険を察知する新機能

当サイトではアフィリエイトプログラムを利用して商品を紹介しています。
会話の文脈からリスクを察知する新機能
OpenAIは2026年5月、ChatGPTが会話の流れからリスクの高まりを検知する安全機能の強化を発表しました。単一のメッセージだけでなく、会話の中で徐々に変化するサインを組み合わせて判断できるよう改善されています。
対象となるのは自傷・自殺・他者への危害といった高リスクのシナリオです。日常的な何億件もの無害な会話と区別しながら、本当に注意が必要な場面だけで適切に対応できることを目指しています。
複数会話をまたぐ安全サマリーの仕組み
今回の中核となる機能が「安全サマリー」です。ある会話で見られた危険サインを短い事実メモとして保存し、別の会話でも文脈として活用できる仕組みで、単独では無害に見える会話でも過去の文脈を踏まえた判断ができるようになります。
このサマリーは一定期間のみ保持され、深刻な安全上の懸念がある場合にのみ参照されます。一般的なパーソナライズや長期記憶とは目的が異なり、安全に特化した情報として設計されています。
![この一冊で全部わかる ChatGPT & Copilotの教科書[改訂第2版]](/_next/image?url=https%3A%2F%2Fm.media-amazon.com%2Fimages%2FI%2F51VN-1vjvYL._SL500_.jpg&w=192&q=75)
内部評価で示された安全応答の改善効果
内部評価では、長い単一会話での安全応答率が自傷・自殺ケースで50%、他者への危害ケースで16%改善しました。また、複数会話をまたいだテストでは、GPT-5.5 Instantで他者危害ケースが52%、自傷・自殺ケースが39%向上しています。
安全サマリー自体の品質評価では、4,000件以上の評価で安全関連スコアが5点満点中4.93点、事実精度が4.34点を記録。通常の会話品質には影響を与えないことも内部テストで確認されています。
精神科医との共同開発と今後の応用展開
これらの機能は、精神科医や心理士などGlobal Physicians Networkの医療専門家と協力して開発されました。安全サマリーをいつ作成すべきか、どのくらいの文脈が必要かなどの判断に専門家の知見が活かされています。
今後は生物兵器やサイバー安全など他のリスク分野への応用も慎重に探索する予定です。現在は自傷と他者への危害に特化していますが、AIの安全性を高める継続的な取り組みとして発展させていきます。
関連商品をチェック
![この一冊で全部わかる ChatGPT & Copilotの教科書[改訂第2版]](/_next/image?url=https%3A%2F%2Fm.media-amazon.com%2Fimages%2FI%2F51VN-1vjvYL._SL500_.jpg&w=384&q=75)





自傷や危機サインを会話の流れから読み取れるのは、本当に大切な機能だと思う。困っている人の助けに少しでもなるといいな。