Arceeが米国製オープンソース400Bモデルを公開

基盤モデル市場動向Arcee AI

Trinity-Largeの概要

399Bパラメータの推論特化モデル
Apache 2.0で完全商用利用可能
30人のチームが2048基のB300 GPUで訓練
推論時は13Bパラメータのみ稼働

性能と市場での位置づけ

PinchBenchで91.9、Claude Opus 4.6に迫る
出力100万トークンあたり0.90ドルの低価格
中国勢の非公開化で生じた空白を狙う
規制産業向けに生チェックポイントも公開
詳細を読む

米Arcee AIは2026年4月、399億パラメータのオープンソース推論モデル「Trinity-Large-Thinking」をApache 2.0ライセンスで公開しました。テキスト専用のMixture-of-Experts構成で、推論時にはわずか130億パラメータしか使わず、同規模モデルの2〜3倍の速度で動作します。

サンフランシスコ拠点の30人チームが開発を担い、総調達額約5000万ドルのうち2000万ドルを33日間の訓練に投入しました。NVIDIAの最新Blackwell GPU 2048基を使用し、20兆トークンのデータで学習しています。合成データとキュレーション済みWebデータを半々で構成し、著作権リスクの低減にも注力しています。

エージェント系タスクの評価指標PinchBenchでは91.9を記録し、プロプライエタリ首位のClaude Opus 4.6(93.3)に肉薄しました。IFBenchでも52.3対53.1と僅差です。一方でSWE-bench Verifiedでは63.2対75.6と差があり、コーディング領域では課題が残ります。

最大の差別化要因は価格です。出力100万トークンあたり0.90ドルで、Opus 4.6の25ドルと比べ約96%安価です。OpenRouterでは米国で最も利用されるオープンモデルとなり、ピーク時には1日806億トークンを処理しています。

オープンソースAI市場では、中国のQwenやz.aiがプロプライエタリ路線へ転換し、MetaもLlama 4の品質問題を受けフロンティア競争から後退しました。400B以上の高性能オープンモデルの空白が生じており、Arceeはその需要を満たす「米国製オープンウェイト」の旗手を目指しています。

規制産業向けには、instruction tuning前の生チェックポイント「TrueBase」も公開されました。金融や防衛分野での監査やカスタムアライメントに活用でき、ブラックボックスを排除した透明性の高い運用が可能です。今後はTrinity Largeの知見をMini・Nanoモデルへ蒸留する計画です。