OSS Mac用AIサーバーOsaurusが注目集める

ローカルとクラウドの統合

ローカル・クラウドAIを自在に切替
ファイルやツールを自端末に保持
仮想サンドボックスで安全性を確保

充実の機能と今後の展望

20以上のネイティブプラグイン搭載
MCP対応で外部クライアントと連携
累計11万超ダウンロード達成
法務・医療など企業向け展開を検討
詳細を読む

OsaurusはMac専用のオープンソースLLMサーバーで、ローカルとクラウドの両方のAIモデルを単一インターフェースで切り替えて利用できるのが最大の特徴です。元TeslaおよびNetflixのエンジニアであるTerence Pae氏が共同創業し、デスクトップAIコンパニオン「Dinoki」の開発経験から着想を得ました。ユーザーのファイルやツールをすべて自身のハードウェア上に保持したまま、AIの能力を活用できます。

技術面では、ハードウェア分離された仮想サンドボックス内でAIを実行することでセキュリティを確保しています。OpenClawやHermesといった既存のAIハーネスツールが開発者向けであるのに対し、Osaurusは開発者でも使いやすいUIを提供する点で差別化しています。MCP(Model Context Protocol)サーバーとしても機能し、メール・カレンダー・ブラウザ・Gitなど20以上のネイティブプラグインを搭載しています。

対応モデルはMiniMax M2.5、Gemma 4、Qwen3.6、LlamaDeepSeek V4などのローカルモデルに加え、OpenAIAnthropicGeminiなどのクラウドサービスにも接続可能です。Appleオンデバイス基盤モデルやLiquid AIのLFMファミリーにも対応しています。ただし、ローカル実行には最低64GBのRAMが必要で、大規模モデルには128GB以上が推奨されます。

公開から約1年で累計11万2,000回以上のダウンロードを記録しました。OllamaやLM Studioなどの競合と比較して、非開発者にも親しみやすいオプションとして位置づけています。現在、NYのアクセラレーターAllianceに参加中で、法務や医療など機密性の高い業界向けの企業展開を検討しています。Pae氏はローカルAIの性能向上が続けばデータセンター依存を減らせると展望を語っています。