AIニュース
AIの安全性を高める外部テストの取り組みについて
2025/11/20 6:12:53
•OpenAI News
当サイトではアフィリエイトプログラムを利用して商品を紹介しています。
OpenAIは、AIの安全性をさらに高めるため、外部の専門家による検証を重視する方針を発表しました。 同社は、開発中の先進的なAIモデルの安全性に関する主張を裏付け、潜在的なリスクや盲点を発見するために、独立した第三者機関による評価が不可欠であると考えています。これにより、AIの能力やリスクについて、より透明性を高め、外部からの信頼を得ることを目指しています。 具体的には、「独立した評価」「評価手法のレビュー」「専門家による直接的な検証」の3つの形式で外部評価を実施しています。これらの評価結果は、AIモデルの展開決定に役立てられるほか、システムカードへの要約掲載や、評価機関による詳細な発表の支援などを通じて、透明性をもって公開されます。 こうした外部との協力関係は、AIの安全性を高めるだけでなく、進化し続けるリスクに対応できる、より強固な安全基準やガバナンスの構築に繋がると期待されています。


