Anthropicが自律兵器AIを拒否し対立
詳細を読む
AnthropicのCEO Dario Amodei氏は2026年2月26日、米国防総省(Pentagon)が求める致死的自律兵器システムおよび大量監視システムへのClaude AIの無制限提供について「良心上受け入れることができない」との声明を発表しました。
Pentagonの要求はAnthropicの安全・倫理ガイドラインと根本的に相容れないとAmodei氏は説明しており、国防省が「民間企業ではなく軍が指揮権を持つ」という立場を強調していると述べています。
Wiredの分析によると、この対立は「アジェンティック(実行者)かミメティック(模倣者)か」という新しい判断軸での試金石となっており、AI企業が倫理的境界線をどこに引くかという問いを業界全体に突きつけています。
この決断はAnthropicの企業評判と長期的なビジネス戦略に大きな影響を与えます。政府契約という巨大な市場を失うリスクを取りながら倫理的立場を維持するという判断は、AIベンダーの姿勢として前例となりえます。
一方でOpenAIはPentagonとの協力を維持しており、AI大手間でも軍事利用方針に明確な分岐が生じています。この対立の行方は今後の政府-AI企業関係を大きく規定するでしょう。