Anthropicが自律兵器AIを拒否し対立

Anthropic倫理的立場

致死的自律兵器へのClaude提供を拒否
大量監視システムへの無制限アクセスも拒否
Dario Amodei CEOが「良心上受け入れられない」と声明
DoD条件への公開拒絶という異例の姿勢
安全・倫理ガイドラインの優先宣言

政府-AI企業の構造的緊張

国防総省が民間AIに無制限アクセス要求
AI倫理基準と軍事需要の根本的矛盾
Wiredが「擬似的vs代理的AI」問題として分析
業界内での倫理基準設定の先例に
詳細を読む

AnthropicのCEO Dario Amodei氏は2026年2月26日、米国防総省(Pentagon)が求める致死的自律兵器システムおよび大量監視システムへのClaude AIの無制限提供について「良心上受け入れることができない」との声明を発表しました。

Pentagonの要求はAnthropicの安全・倫理ガイドラインと根本的に相容れないとAmodei氏は説明しており、国防省が「民間企業ではなく軍が指揮権を持つ」という立場を強調していると述べています。

Wiredの分析によると、この対立は「アジェンティック(実行者)かミメティック(模倣者)か」という新しい判断軸での試金石となっており、AI企業が倫理的境界線をどこに引くかという問いを業界全体に突きつけています。

この決断はAnthropicの企業評判と長期的なビジネス戦略に大きな影響を与えます。政府契約という巨大な市場を失うリスクを取りながら倫理的立場を維持するという判断は、AIベンダーの姿勢として前例となりえます。

一方でOpenAIはPentagonとの協力を維持しており、AI大手間でも軍事利用方針に明確な分岐が生じています。この対立の行方は今後の政府-AI企業関係を大きく規定するでしょう。