AIニュース

AnthropicがAI安全管理の新ルール「責任あるスケーリングポリシー第3版」を公開

2026/2/25 6:33:29
Anthropic News
via Responsible Scaling Policy Version 3.0
AnthropicがAI安全管理の新ルール「責任あるスケーリングポリシー第3版」を公開

当サイトではアフィリエイトプログラムを利用して商品を紹介しています。

AI安全性の研究・開発で知られるAnthropicが、AIシステムが引き起こす可能性のある深刻なリスクを軽減するための自主的な枠組み「責任あるスケーリングポリシー(RSP)」の第3版を2026年2月24日に公開しました。2023年9月の初版から2年以上が経過し、実際の運用で得た知見をもとに大幅な改訂が行われています。 RSPの核心は「条件付きコミットメント」という考え方です。AIの能力が一定のレベルを超えた場合に、より厳格な安全対策を義務付ける仕組みで、各能力レベルを「ASL(AIセーフティレベル)」と呼んで段階管理しています。2025年5月には生物・化学兵器への悪用リスクに対応する「ASL-3」基準を実際に適用し、高精度な入出力フィルタリングシステムの開発にもつながりました。この取り組みはOpenAIやGoogle DeepMindにも類似フレームワークの採用を促し、EU AI法やアメリカ各州の法律にも影響を与えました。 一方で、想定どおりに進まなかった面も率直に認めています。AIの能力評価には依然として不確実性があり、特に生物リスクの判断では「リスクが高い」とも「低い」とも言い切れない曖昧なゾーンが存在するとしています。また、政府レベルでのAI安全規制の整備が想定より大幅に遅れており、競争力・経済成長を優先する政策環境の中で安全性に関する議論がなかなか進まない現状も明かしています。 今回の改訂では透明性と説明責任のさらなる強化が図られました。将来さらに強力なAIモデルが登場した際には、一社単独での対策には限界があり、各国政府との連携が不可欠になるとされており、業界全体での取り組みを促す長期的な視点が反映された内容となっています。

関連記事