米国防総省がAnthropicをサプライチェーンリスクに正式指定
詳細を読む
米国防総省は2026年3月5日、AIスタートアップのAnthropicとその製品を正式にサプライチェーンリスクに指定しました。この措置は通常、外国の敵対勢力に適用されるもので、米国企業が公に同指定を受けるのは史上初のことです。
対立の発端は、国防総省がAnthropicのAIを「あらゆる合法的用途」に無制限で使用する権利を求めたことにあります。Anthropic CEOのダリオ・アモデイ氏は、米国民への大量監視と人間の監視なき完全自律型兵器の2点を譲れない一線として拒否しました。
交渉決裂後、OpenAIが国防総省と代替契約を締結し、AIシステムの「あらゆる合法的用途」での使用を認めました。一方、アモデイ氏は社内メモでOpenAIとの契約を「安全性の茶番劇」と批判し、政府との関係悪化の背景に「トランプ氏への献金や独裁者的な賛辞を送っていないこと」があると述べています。
しかしその後、アモデイ氏は国防総省のエミル・マイケル次官と再交渉を開始したことが報じられました。Claudeは機密情報を扱える唯一のフロンティアAIであり、イラン作戦を含む軍事作戦で実戦投入されているため、急な切り替えは国防総省側にも大きな混乱をもたらす状況です。
Anthropicはサプライチェーンリスク指定を「法的根拠がない」として連邦裁判所で争う方針を表明しました。アモデイ氏は、同指定の適用範囲は国防総省との直接契約に限定され、大半の顧客には影響しないと説明しています。同社は移行期間中も名目的な費用でモデル提供を継続すると約束しました。