DeepSeek V4公開、米国最先端モデルに迫る性能を7分の1の価格で提供
詳細を読む
中国のAIスタートアップDeepSeekは2026年4月24日、次世代大規模言語モデルDeepSeek V4のプレビュー版を公開しました。V4-Proは総パラメータ1.6兆、稼働パラメータ49BのMixture-of-Experts構成で、オープンウェイトモデルとしては世界最大です。コンテキスト長は100万トークンに対応し、APIの標準価格はGPT-5.5の約7分の1、Claude Opus 4.7の約6分の1に設定されています。DeepSeekは「フロンティアモデルとの差を事実上埋めた」と主張しています。
ベンチマーク結果を見ると、V4-Pro-MaxはBrowseCompで83.4%を記録し、Claude Opus 4.7の79.3%を上回りました。SWE Verifiedでは80.6%でOpus 4.6 Maxの80.8%にほぼ並び、MCPAtlas Publicでも73.6%と僅差です。一方、GPQA Diamondでは90.1%にとどまり、GPT-5.5の93.6%やOpus 4.7の94.2%には及びません。総合的にはGPT-5.5とOpus 4.7がリードを保つものの、価格対性能比ではDeepSeekが圧倒的です。
技術面では、Compressed Sparse Attention(CSA)とHeavily Compressed Attention(HCA)を交互に配置するハイブリッドアテンションが最大の特徴です。100万トークン時点でV3.2比KVキャッシュ使用量を10%、推論FLOPsを27%に削減しました。従来型のGrouped Query Attentionと比較するとKVキャッシュは約2%で済みます。エージェント用途では、ツール呼び出しを含む会話で推論履歴をターンをまたいで保持する仕組みも導入されています。
地政学的にも注目すべき点があります。DeepSeekはHuawei Ascend NPUでのファインチューニングと推論を公式に検証し、非Nvidia環境で1.5倍から1.73倍の高速化を達成したと報告しました。米国がAIチップ輸出規制を強化し、AnthropicやOpenAIがDeepSeekによるモデル蒸留を非難するなか、中国産ハードウェアでの稼働実績を明示した形です。モデルはMIT Licenseで公開され、商用利用に制限はありません。
廉価モデルのV4-Flashは入力100万トークンあたり0.14ドル、出力0.28ドルと、GPT-5.5比で98%以上安い水準です。DeepSeekは旧エンドポイントを2026年7月に完全廃止し、全トラフィックをV4アーキテクチャへ移行すると発表しました。コミュニティからは「第二のDeepSeekモーメント」との声が上がっており、企業のAI導入におけるコスト計算を根本から見直す契機になりそうです。