
Anthropic CEO、国内大規模監視と自律型兵器へのAI提供を拒否
2026/2/28

当サイトではアフィリエイトプログラムを利用して商品を紹介しています。
米国のヘグセス戦争長官が、AI企業AnthropicをSNS上で「サプライチェーンリスク」に指定すると表明しました。この措置は、AI「Claude」の軍事利用をめぐる交渉が決裂したことによるもので、Anthropicが「米国民の大規模監視」と「完全自律型兵器」への利用拒否を求めたことが発端です。 Anthropicがこの2つの例外を譲らない理由として、現在の最先端AIは自律型兵器として使うには信頼性が不足しており、兵士や市民を危険にさらす可能性がある点を挙げています。また、米国民を大規模に監視することは基本的な権利の侵害にあたるとの立場を示しました。 Anthropicは、米国企業に対するこの種の指定は歴史的に前例がなく、法的根拠も乏しいと強く反発。いかなる指定も法廷で争う方針を明らかにしました。2024年6月から米軍の機密ネットワークにAIを提供してきた同社にとって、今回の展開は「深く悲しい」としています。 顧客への影響について、個人・商業契約のユーザーはClaudeを引き続き利用できます。国防省の契約業者も、同省関連業務以外での利用は影響を受けないとしており、長官には法律上それ以上の制限を課す権限はないと説明しています。