LangChain、AIエージェント自律コンテキスト圧縮機能を公開

自律圧縮の仕組み

モデル自身が圧縮タイミング判断
古いメッセージを要約で置換
直近10%のコンテキスト保持
タスク境界での自動発動を想定

設計思想と実績

固定閾値圧縮の非効率を解消
ハーネスの手動調整を排除する方針
保守的な発動で誤圧縮を防止
CLI・SDK両方で利用可能
詳細を読む

LangChainは2026年3月、AIエージェント開発フレームワーク「Deep Agents」のSDKおよびCLIに、モデルが自らのコンテキストウィンドウを適切なタイミングで圧縮する自律コンテキスト圧縮機能を追加しました。

従来のエージェントハーネスでは、コンテキストウィンドウの85%に達した時点で一律に圧縮を実行していました。しかし複雑なリファクタリングの最中など、圧縮すべきでないタイミングで実行されるケースが課題となっていました。

新機能では、タスクの区切りや大量の新コンテキスト読み込み前、計画の実行開始時など、モデル自身が最適なタイミングを判断して圧縮を実行します。これにより、ユーザーが手動で/compactコマンドを発行する必要がなくなります。

圧縮時には直近メッセージの10%をそのまま保持し、それ以前のメッセージを要約に置き換えます。全会話履歴は仮想ファイルシステムに保存されるため、圧縮後も復元が可能です。

LangChainは独自評価スイートやTerminal-bench-2でテストを実施し、エージェント保守的に圧縮を発動しつつも、ワークフロー改善に明確に寄与するタイミングを選択することを確認しました。この機能は、ハーネスの固定ルールを減らしモデルに作業記憶の制御権を委ねるという、エージェント設計の新たな方向性を示しています。