詳細を見る
2026年3月、米国防総省(DoD)がAnthropicのClaudeを供給網リスクに指定し、連邦機関へ同社技術の段階的廃止を命じたことで、AI軍事利用を巡る対立が法廷闘争にまで発展した。
対立の発端は、国防長官ピート・ヘグセスがAnthropicのCEOダリオ・アモデイに対し、AIシステムの無制限利用を認めるよう期限を設けて要求したことです。Anthropicはこれを拒否し、国内市民への監視利用禁止と完全自律型標的選定への反対という2点を堅持しました。
OpenAIが代替契約を締結したことへの反発として、ChatGPTのアンインストールが295%急増し、Claudeがアプリストアの上位にランクインするなど、一般ユーザーの反応が企業の立場を直接左右する異例の展開となりました。また、OpenAIの幹部少なくとも1名が、契約の拙速さを理由に辞任しています。
この問題の本質は単なる調達紛争を超えています。国防総省が既存契約の条件変更を求めたこと自体が前例のない事態であり、スタートアップ企業にとって連邦市場参入リスクを根本的に再評価させる契機となっています。航空宇宙やサイバーセキュリティなど高リスク分野では、請負業者が安全基準や運用上の制限を課すことは通常の商業慣行であり、AIだけをその例外とすべき理由はありません。
専門家は、軍事AIのガードレールを閣僚とCEOの非公開交渉で決めるべきではなく、議会が自律型兵器や監視権限に関する法的枠組みを明確化し、国防総省が人的管理・監査・説明責任の原則を公開文書として整備すべきだと指摘します。民主主義国家の強みは透明な制度的制約にあり、行政の一方的命令によるAIガバナンスはその優位性を損なうと警告しています。