Poolsideがローカル実行可能な無料コーディングAIモデルを公開

Lagunaモデルの概要

Apache 2.0で公開のXS.2
33Bパラメータ、活性3Bの軽量MoE
ローカルGPU1枚で動作可能
企業向け225BのM.1も同時発表

性能と開発環境

SWE-bench Proで44.5%達成
独自合成データとRLで訓練
ターミナル型エージェントpool提供
モバイル対応IDE shimmer公開
詳細を読む

米AIスタートアップPoolsideは2026年4月28日、コーディング特化の大規模言語モデル「Laguna」シリーズ2モデルを発表しました。小型モデルのLaguna XS.2はApache 2.0ライセンスで無料公開され、消費者向けGPU1枚でローカル実行できるのが大きな特徴です。同社は2023年にサンフランシスコで設立された約60人の組織で、政府・公共セクター向けにセキュアなAI開発を進めてきました。

Laguna XS.2は総パラメータ数33B、活性パラメータ数3BのMixture of Experts構成を採用しています。Apple SiliconのMacでは統合メモリ36GB以上、PCではRTX 5090など24〜32GB以上のVRAMがあれば4ビット量子化で動作します。一方、上位モデルのLaguna M.1は225BパラメータのMoEで、企業や政府向けの高セキュリティ環境での複雑なソフトウェア工学タスクに最適化されています。

ベンチマーク性能は注目に値します。XS.2はSWE-bench Proで44.5%を達成し、Claude Haiku 4.5の39.5%やGemma 4 31Bの35.7%を上回りました。M.1もSWE-bench Proで46.9%、SWE-bench Verifiedで72.5%を記録しています。訓練には30兆トークンが使われ、そのうち約13%は合成データです。独自のMuonオプティマイザにより標準手法より約15%速く学習が進むとしています。

開発者向けツールも同時に公開されました。poolはターミナルベースのコーディングエージェントで、同社が内部のRL訓練に使うのと同じAgent Client Protocolサーバとして機能します。shimmerクラウドネイティブの開発環境で、スマートフォンからでもフル機能の開発が可能です。GitHubとの連携や既存リポジトリのインポートにも対応しています。

Poolsideがオープンウェイト公開に踏み切った背景には、「西側諸国には強力なオープンウェイトモデルが必要」という信念があります。中国企業のDeepSeekやXiaomiが低コストのオープンモデルで存在感を示すなか、米国発のオープンな対抗馬として位置づけを狙っています。なお、同社のモデルは他社のようにQwenベースのファインチューニングではなく、独自にゼロから訓練されたものです。コミュニティによる評価とファインチューニングを通じた改善を期待しているとしています。