AIニュース
AIの危険性管理、透明性法に対応する枠組みを公開
2025/12/20 6:12:46
•Anthropic News当サイトではアフィリエイトプログラムを利用して商品を紹介しています。
Anthropicは、カリフォルニア州の「フロンティアAI透明法(SB 53)」への対応として、自社のAI開発における危険性評価・管理の枠組みを公開しました。 この枠組みは、AIが引き起こす可能性のあるサイバー攻撃、化学・生物・放射性・核物質による脅威、AIによる破壊行為や制御不能になるリスクなどをどのように評価し、対策を講じているかを説明しています。モデルの能力をリスクごとに段階分けして評価するシステムや、リスク軽減策、モデルの重み(データ)保護、安全上の問題発生時の対応についても詳述されています。 この公開された「フロンティアコンプライアンスフレームワーク(FCF)」は、同社が長年培ってきた安全対策の実践を基にしており、2023年から運用している「レスポンシブル・スケーリング・ポリシー(RSP)」や、新しいモデル発表時に公開してきた「システムカード」の内容をさらに発展させたものです。 Anthropicは、SB 53のような州法だけでなく、将来的には国全体で統一されたAIの安全基準が整備されることを望んでおり、そのための連邦レベルでの枠組みの必要性を訴えています。この連邦基準は、AI開発における透明性を確保しつつ、技術の進歩に合わせて柔軟に対応できるものであるべきだと考えています。


