Hugging Face、OpenClawのオープンモデル移行手順を公開

2つの移行経路

HF推論API経由が最速
ローカル実行で完全無料化
GLM-5を推奨モデルに指定
HF PRO会員は月2ドル無料枠

ローカル環境構築

llama.cppでローカル推論
Qwen3.5-35Bが32GB RAMで動作
OpenAI互換APIとして接続
プライバシーと完全制御を実現
詳細を読む

Hugging Faceは、OpenClawやPiなどのAIエージェントをクローズドモデルからオープンモデルへ移行するための具体的な手順を公開しました。ホスト型とローカル型の2つの方法が提示されています。

ホスト型の方法では、Hugging Face Inference Providersを利用します。APIトークンを取得し、OpenClawの設定コマンドで認証を行うだけで、数千のオープンソースモデルから選択して即座にエージェントを復旧できます。

推奨モデルとしてGLM-5が挙げられており、Terminal Benchで高いスコアを記録しています。設定ファイルのrepo_idを変更するだけでモデルの切り替えが可能で、HF PRO会員には月額2ドルの無料クレジットが付与されます。

ローカル型の方法では、オープンソースの推論ライブラリllama.cppを使用します。macOS・Linux・Windowsいずれにも対応しており、パッケージマネージャから簡単にインストールできます。

ローカル実行ではQwen3.5-35B-A3Bが推奨されており、32GBのRAMで動作します。APIコストゼロ、レート制限なし、完全なプライバシー保護が実現でき、クローズドモデルに依存せずエージェントを運用できる点が強調されています。