Palantir軍事デモが示すAIチャットボットの作戦立案活用

国防総省とAI企業の対立

Anthropicが無条件アクセスを拒否
国防総省がサプライチェーンリスク指定
Anthropic2件の訴訟を提起
Palantir経由でClaude軍事利用継続

AIプラットフォームの軍事機能

Mavenが衛星画像で敵検知
AIPアシスタント攻撃計画を自動生成
標的推薦や爆撃割当を支援
情報分析レポートを数分で作成

透明性と懸念

Claude統合先の具体的システムは非公開
イラン作戦やマドゥロ拘束に関与報道
詳細を読む

Palantirが米軍に販売するソフトウェアにおいて、AnthropicのAIモデル「Claude」がどのように軍事作戦の立案に活用されているかを示すデモや公開資料の全容が、WIREDの調査により初めて明らかになりました。

Anthropicは2026年2月下旬、米国民の大規模監視や完全自律型兵器への使用を禁じる条件を付け、政府への無条件アクセスを拒否しました。これに対し国防総省はAnthropicを「サプライチェーンリスク」と指定し、同社はトランプ政権による違法な報復だとして2件の訴訟を提起しています。

Palantirが開発するMaven Smart Systemは、衛星画像にコンピュータビジョンを適用して敵の装備を自動検知し、標的の可視化や爆撃の割り当て推薦まで行います。陸軍・空軍・宇宙軍・海軍・海兵隊および中央軍が利用可能で、国防総省全体に展開されています。

PalantirAIPアシスタントのデモでは、軍事オペレーターがチャットボットに質問するだけで、敵部隊の特定から3つの攻撃オプション生成、戦場分析、部隊移動ルート作成、通信妨害装置の配置まで、一連の作戦計画を数分で完了する様子が示されました。

Anthropicの公共セクター担当者によるデモでは、Claudeがウクライナのドローン攻撃作戦に関する高度な情報分析レポートやインタラクティブダッシュボードを短時間で生成しました。従来は5時間かかる作業がAIにより大幅に効率化される一方、軍事AIの透明性と倫理に関する議論が一層激化しています。