AI製品
AIの安全性を高める「gpt-oss-safeguard」発表、自分でルールの設定可能に
2025/10/30 6:13:18
•OpenAI News
当サイトではアフィリエイトプログラムを利用して商品を紹介しています。
OpenAIは、AIの安全性を高めるための新しいオープンソースモデル「gpt-oss-safeguard」を発表しました。 このモデルは、AIがユーザーのメッセージや会話内容を、開発者が設定した「安全に関するルール(ポリシー)」に従って分類する能力を持っています。120億、20億の2つのサイズがあり、どちらも無料で利用・改変・配布が可能です。従来のAIが学習データから安全な応答の境界線を推測するのではなく、gpt-oss-safeguardは、AIが動くその場で、開発者が直接与えたルールを解釈して判断を行います。このため、AIの判断理由が分かりやすく、開発者は必要に応じてルールを簡単に変更して、AIの安全性能を向上させることができます。 この技術は、新しい危険な話題が次々と現れる場合や、特定の分野に特化した細かいルールが必要な場合、あるいは十分な学習データがない場合など、様々な状況で役立ちます。開発者は、例えばオンラインゲームのフォーラムで不正行為に関する投稿を検出したり、レビューサイトで偽のレビューを見つけたりするために、独自のルールを作成できます。 今回の発表は、AIの安全性をさらに高め、より信頼できるAIの開発を目指すOpenAIの姿勢を示すものです。このモデルは、AIの安全分野の研究者や開発者からのフィードバックを受けながら、今後も改良が続けられる予定です。


