LangChain(企業)に関するニュース一覧

FLORA、Vercel基盤で画像生成AIエージェント「FAUNA」を構築

FAUNAの特徴と狙い

50以上の画像生成モデルを統合
アイデアから自動で多方向の視覚探索を展開
ワークフロー設計の負担をエージェントが代替

Vercel移行の効果

AI SDKとWorkflow SDKで基盤を一本化
本番投入までの速度が2倍に向上
インフラ議論からプロダクト議論へ転換

今後の展望と周辺機能

UI/UX以外の全デザイン業務を支援対象
Vercelがチーム間のDB移行機能も追加

クリエイティブワークフロー基盤を提供するFLORAは、VercelAIスタック上に画像生成AIエージェントFAUNA」を構築したと発表しました。50以上の画像モデルを統合し、ファッションキャンペーンなどの視覚制作を効率化する狙いです。

FAUNAは従来のノードベースのキャンバスとは異なり、ユーザーがアイデアを伝えるだけで参考画像の収集、モデル選択、バリエーション生成を自動で行います。ワークフロー設計の知識がなくても、プロ品質のビジュアル探索が可能になります。

技術面では、画像動画生成は数分かかり、1回のセッションで多数の並行ジョブが発生します。FAUNAはVercelAI SDKエージェントフレームワークとWorkflow SDKの永続化機能を組み合わせ、長時間実行や障害時の再試行に対応しています。

FLORA開発チームは以前LangChainとTemporalを併用していましたが、2つのシステムの保守負担が課題でした。Vercelへの移行により基盤が一本化され、本番投入速度が2倍に向上したと報告しています。インフラの議論が不要になり、プロダクト改善に集中できるようになりました。

FLORAはUI/UX以外の全デザイン業務の支援を最終目標に掲げています。また、Vercelは同時期にダッシュボードからチーム間でDB移行ができる機能も公開しました。Prisma、Neon、Supabaseに対応し、今後対応プロバイダーを拡大する予定です。

LangChainとMongoDBがAIエージェント基盤で戦略提携

統合プラットフォームの全容

Atlas上でベクトル検索・状態管理を一元化
自然言語からMongoDB問い合わせを自動生成
LangSmithエージェント全工程を可視化

導入企業の活用事例

Kai Securityが1日で本番運用を実現
Fortune 500企業が金融・医療分野で採用
コンプライアンスや顧客対応を自動化

オープンな設計思想

LLMプロバイダー・クラウド自由に選択可能
LangGraph等の主要コンポーネントはOSS公開

LangChainMongoDBは2026年3月、AIエージェントの開発から本番運用までを単一プラットフォームで完結させる戦略的パートナーシップを発表しました。6万5000社以上が利用するMongoDB Atlas上にエージェント基盤を構築する統合ソリューションです。

統合の中核は、Atlas Vector SearchによるRAG検索拡張生成の実装です。セマンティック検索、ハイブリッド検索、GraphRAGを単一のMongoDBデプロイメントから実行でき、ベクトルデータと業務データを同じ基盤で管理するため、同期処理や二重管理の負担がなくなります。

MongoDB Checkpointerエージェントの状態をMongoDBに永続化する仕組みで、会話履歴の保持、障害からの自動復旧、任意時点への巻き戻しデバッグが可能です。LangSmithデプロイメント環境で設定するだけで、アプリケーションデータと同じデータベースにエージェントの状態が保存されます。

Text-to-MQL機能では、自然言語をMongoDBクエリ言語に自動変換し、エージェントが業務データに直接アクセスできます。「過去30日間の配送遅延注文を表示」といった質問を、カスタムAPIなしで処理できるため、開発工数を大幅に削減できます。

サイバーセキュリティ企業のKai Securityは、この統合により1日で本番デプロイを達成しました。従来は別途データベース層の構築に1カ月を要していた作業が、既存のMongoDB基盤上で一時停止・再開、障害復旧、監査証跡を即座に実装できたとしています。

LangChain CEOのHarrison Chase氏は「MongoDBの顧客はプロトタイプから本番エージェントまで、既存インフラを離れずに完結できる」と述べています。全統合機能は即日利用可能で、AWS・Azure・GCPのマルチクラウドに対応し、主要コンポーネントはオープンソースとして公開されています。

LangChain、AIエージェント評価の実践チェックリストを公開

評価の事前準備

トレース20〜50件の手動確認が最優先
成功基準は曖昧さを排除して定義
能力評価と回帰評価の明確な分離
障害原因の分類体系構築が必須

評価設計と運用

3段階の評価レベルを使い分け
コード・LLM・人間の専門グレーダー選定
数値スケールより二値判定を推奨
本番障害をフライホイールでデータセットに還元

LangChainエンジニアVictor Moreira氏が、AIエージェント評価の実践的なチェックリストをブログで公開しました。エージェント評価は従来のソフトウェアテストとは異なるアプローチが必要であり、段階的に構築していく手順を体系的にまとめています。

評価構築の前段階として、まず20〜50件の実トレースを手動で確認し、障害パターンを把握することが最重要とされています。成功基準は専門家2人が合否判定で一致できる水準まで明確化し、能力評価と回帰評価を分離して管理することで、改善と品質保護を両立させる方針です。

評価レベルはシングルステップ・フルターン・マルチターンの3段階に分類されます。多くのチームはフルターン評価から着手すべきとし、最終出力の正確性だけでなく、実際の状態変更(DBの更新やファイル生成)の検証が不可欠であると強調しています。

グレーダー設計では、客観的な検証にはコードベースの判定器、主観的な評価にはLLM-as-Judge、曖昧なケースには人間を使い分けることを推奨しています。また数値スケールよりも二値の合否判定が明確なシグナルを得やすく、エージェントが取った経路ではなく最終成果物で評価すべきとしています。

本番運用に向けては、高い合格率を維持する能力評価を回帰テストに昇格させ、CI/CDパイプラインに統合する流れを提示しています。ユーザーフィードバックの収集と本番トレースの定期的な手動探索を組み合わせることで、自動評価では発見できない障害モードを継続的にデータセットへ還元する仕組みの構築を推奨しています。

LangChainがエージェント基盤カスタマイズ用ミドルウェア機構を公開

ミドルウェアの仕組み

フックでループ各段階に介入
PII除去やコンプライアンスを確実適用
実行時にツールやモデルを動的切替
コンテキスト要約でトークン超過防止

Deep Agentsの評価手法

行動単位の標的型evalを重視
正確性・効率性・遅延の多軸計測
理想軌道との比較で無駄なステップ検出
pytestとCI連携で再現性確保

LangChainは、AIエージェントの中核ループをカスタマイズできる「AgentMiddleware」機構を公開しました。モデル呼び出しの前後やツール実行時にフックを挿入し、業務固有のロジックを組み込めます。

ミドルウェアはコンポーザブル設計で、PII検出・動的ツール選択・コンテキスト要約・リトライ制御など主要パターンが標準搭載されています。開発者AgentMiddlewareクラスを継承し、独自のビジネスロジックも追加できます。

同社のDeep Agentsはこのミドルウェア基盤上に構築されたオープンソースのエージェントハーネスです。ファイルシステム管理・サブエージェント・要約・スキル開示など複数のミドルウェアを組み合わせ、本番運用に耐える構成を実現しています。

Deep Agentsの品質管理では、大量のベンチマークを闇雲に追加するのではなく、本番で重要な行動を特定し、それを検証可能な形で計測する標的型evalを設計しています。正確性に加え、ステップ比率・ツール呼び出し比率・遅延比率・解決速度の多軸で効率性も評価します。

評価データは自社のドッグフーディングやTerminal Bench・BFCLなど外部ベンチマークから厳選し、各evalにカテゴリタグと目的を明記しています。全実行トレースをLangSmithに記録することで、チーム全体での障害分析と継続的改善を可能にしています。

NVIDIA、オープンAI基盤モデル連合を設立

連合の概要と初動

Nemotron Coalition発足
データ・評価・専門知識を共有
Hugging Face最大組織に成長

業界リーダーの展望

AIエージェント高度な同僚
マルチモデルオーケストレーション時代
オープンと独自の共存が不可欠
専門特化モデルで差別化実現

NVIDIAは2026年3月のGTCカンファレンスにおいて、オープンなフロンティアAI基盤モデルの開発を推進する国際連合「Nemotron Coalition」の設立を発表しました。Mistral AIをはじめとする主要AI研究機関が参画し、データや計算資源を共有します。

CEOのジェンスン・フアン氏は「独自かオープンかではなく、独自もオープンも」と述べ、両方のアプローチの共存が不可欠であるとの見解を示しました。NVIDIAは現在Hugging Faceで最大の組織となり、約4,000人のチームメンバーを擁しています。

連合の最初のプロジェクトとして、Mistral AINVIDIA基盤モデルを共同開発します。連合メンバーがデータ提供や評価、ドメイン専門知識で貢献し、オープンエコシステムに公開される予定です。Nemotronモデルはすでに4,500万回以上ダウンロードされています。

GTCのパネルではCursorPerplexityLangChain、Thinking Machines LabなどのAI業界リーダーが登壇しました。AIエージェントが数時間・数日かかるタスクを処理する「同僚」になるとの見通しや、複数モデルの自動オーケストレーションの重要性が議論されました。

パネリストらは、汎用モデルと専門特化モデルの両立が社会に価値をもたらすと強調しました。オープンな基盤の上に各組織が独自データを組み合わせることで差別化が可能になり、学術界を含む幅広い参加者がAIの進歩に貢献できる環境が整うと述べています。

LangChain、エージェント間で業務知識を共有する「スキル」機能を公開

スキルの概要と特徴

業務知識エージェントに付与
関連時のみスキルを自動読込
ワークスペース全体で共有・同期
退職者の知見も組織に残存

作成方法と拡張性

AIとの対話から自動生成可能
テンプレートや手動作成にも対応
CLIでコード開発環境に連携
バージョン管理と権限拡張を予定

LangChainは2026年3月、AIエージェント開発基盤LangSmith Fleetにおいて、エージェント間で業務知識を共有できる「スキル」機能を正式に公開しました。スキルとは、特定タスクに必要な手順やドメイン知識をまとめた指示セットです。

現在のAIエージェント推論能力に優れる一方、業務固有の知識がなければ実用性に限界があります。たとえばサポートエージェントがSLAの優先度を知らなければ、すべての問い合わせを同一に扱ってしまいます。スキルはこの課題を解決する仕組みです。

スキルの作成方法は多彩で、AIとのチャットから自動生成する方法、エージェント作成時の自動提案、テンプレートからの選択、手動記述の4通りが用意されています。作成したスキルはワークスペースに共有でき、チーム全員のエージェントが即座に利用可能になります。

特筆すべきはポータビリティの高さです。LangSmith CLIを使えば、Fleet上のスキルをローカル開発環境にダウンロードし、Claude CodeCursorCodexなど任意のコーディングエージェントにそのまま連携できます。知識の再記述やコピーは不要です。

今後の機能拡張として、スキルのバージョン固定とロールバック、および複数オーナーによる共同編集権限の追加が予定されています。エージェントが高度な業務を担うほど、指示の質が成果を左右するとLangChainは強調しています。

Moda、AIデザインエージェントを本番投入し非デザイナー向け設計基盤を構築

マルチエージェント構成

3種のエージェントが協調動作
デザイン・リサーチ・ブランドの役割分担
Deep Agents基盤で構築
LangSmithで全実行をトレース

コンテキスト工学の工夫

独自DSLでレイアウト抽象化
トリアージでスキル動的注入
キャンバス規模に応じた文脈制御

UXと今後の展開

Cursor型サイドバーで対話的編集
B2B営業チーム向けにPMFを確認

Modaは、マーケターや創業者などデザイン未経験者向けのAIネイティブデザインプラットフォームです。LangChain Deep Agentsを基盤としたマルチエージェントシステムにより、プレゼン資料やSNS投稿、PDFなどをプロ品質で自動生成する仕組みを本番環境で稼働させています。

システムの中核は、デザインエージェント、リサーチエージェントブランドキットエージェント3つのエージェントで構成されています。リサーチエージェントは外部ソースから構造化コンテンツを取得し、ブランドキットエージェントはロゴやフォント、カラーなどのブランド資産を取り込み、一貫したデザインを実現します。

AIデザインの最大の課題は、PowerPointのXML仕様のようなXY座標ベースの表現がLLMの推論に不向きな点です。Modaは独自のコンテキスト表現レイヤーを開発し、HTMLのFlexboxのようなレイアウト抽象化をLLMに提供することで、トークンコストを削減しつつ出力品質を大幅に向上させました。

各リクエストはまず軽量なトリアージノードで分類され、適切なスキルが動的に注入されます。コアツールは12〜15個に抑え、追加の約30ツールは必要時のみ読み込む設計により、プロンプトキャッシュの効率を最大化しています。LangSmithによるノード単位のコスト追跡が、この最適化を可能にしました。

UX面では、生成と置換の一方通行ではなく、完全に編集可能な2Dベクターキャンバ上でAIが直接操作する設計を採用しています。Cursor風のサイドバーで反復的な対話を行い、ユーザーとAIが協調してデザインを仕上げます。B2B企業の営業チームを中心にプロダクトマーケットフィットを確認しており、今後はメモリ機能の統合やマルチブランド対応の拡張を予定しています。

LangSmith Fleetがエージェント認可を2種類に分類

2つの認可モデル

Assistant型はユーザー代理で動作
Claw型は固定資格情報を保持
専用アカウントでアクセス範囲を制御
チャネル連携でSlackに展開可能

運用と今後の展望

Human-in-the-loopで危険操作を制御
メール応答エージェントClaw型で運用
ユーザー別メモリ権限を今後導入
WorkOSと連携し認可を高度化

LangChainは2026年3月にエージェント管理基盤「LangSmith Fleet」を正式リリースし、エージェントが外部ツールを利用する際の認可方式として「Assistant」と「Claw」の2種類を導入しました。

Assistant型はユーザーの代理として動作する方式です。たとえばオンボーディングエージェントNotionやRipplingにアクセスする場合、操作者本人の資格情報を使用します。これによりAliceはBobの非公開情報にアクセスできず、適切なアクセス制御が実現されます。

一方のClaw型は、OpenClawの登場を契機に生まれた概念です。エージェント作成者が設定した固定の資格情報で動作するため、誰が利用しても同一の権限範囲となります。作成者個人の認証情報を使う代わりに、専用アカウントを作成してアクセス範囲を限定する運用が推奨されています。

実際の活用例として、オンボーディングエージェントはAssistant型でSlackNotionに連携し、メール応答エージェントはClaw型でカレンダー確認やメール送信を実行します。Claw型では危険な操作に対してHuman-in-the-loopのガードレールを設けることが重要とされています。

今後の展開として、エージェント種別に応じたメモリ権限の細分化が計画されています。現在はアクセス権限ベースで管理していますが、将来的にはユーザー固有のメモリを導入し、Assistant型でAliceの機密情報がBobとの会話に漏洩しない仕組みを構築する方針です。

ByteDance、AIエージェント基盤DeerFlow 2.0をOSS公開

DeerFlow 2.0の特徴

MIT Licenseで商用利用可
Docker sandbox内で安全に実行
複数サブエージェントの並列処理
長時間タスクの自律実行に対応

企業導入の論点

完全ローカル運用が可能
GPU・VRAMの大量確保が必要
ByteDanceで規制審査の対象に
独立セキュリティ監査は未実施

ByteDanceは2026年2月、AIエージェント・オーケストレーション基盤「DeerFlow 2.0」をMITライセンスでオープンソース公開しました。複数のAIサブエージェントを統合し、数時間に及ぶ複雑なタスクを自律的に実行できる「SuperAgent」フレームワークです。

DeerFlow 2.0はDockerベースのサンドボックス環境を採用し、エージェントの実行をホストシステムから完全に分離しています。ブラウザ、シェル、永続ファイルシステムを備えた独立環境で、bashコマンドの実行やファイル操作を安全に行えます。

技術的にはLangGraph 1.0LangChainで全面的に書き直された新設計です。OpenAIAnthropicDeepSeekOllamaなどモデル非依存で動作し、Kubernetes上での分散実行やSlack・Telegram連携にも対応しています。

公開後わずか数週間でGitHub上で3万9千スターを獲得し、ML研究者やインフルエンサーの間で急速に注目が高まっています。SaaSエージェントサービスの価格破壊につながるとの見方も広がっています。

一方、企業導入には課題も残ります。セットアップにはDocker・YAML・CLIの知識が必要で、独立したセキュリティ監査は未実施です。またByteDanceが開発元であるため、金融・医療・防衛など規制業種ではソフトウェアの出自に関する審査が求められる可能性があります。

LangChain、エージェント群管理基盤「LangSmith Fleet」を公開

Fleet の主要機能

エージェント共有と3段階権限
認証情報の一元管理
Slack連携で個別ボット運用
全操作の監査トレース記録

企業向け管理体制

Inboxで承認を一元化
Claw型とAssistant型のIDモデル
OAuth対応のユーザー別認証
編集・実行・複製の権限制御

LangChainは、企業向けAIエージェント管理基盤「LangSmith Fleet」を発表しました。複数のエージェントを組織全体で作成・共有・運用するためのワークスペースで、権限管理や認証、監査機能を備えています。

Fleet最大の特徴は、エージェント共有モデル権限管理です。個人またはワークスペース全体への共有が可能で、「複製可」「実行可」「編集可」の3段階の権限を設定できます。コアチームには編集権限、一般ユーザーには実行のみといった柔軟な運用が実現します。

エージェント認証モデルには2種類があります。「Claw」型は共有サービスアカウントで全ユーザーが同一認証情報を使用し、「Assistant」型は各ユーザーがOAuthで個別認証します。用途に応じた使い分けにより、セキュリティと利便性を両立させています。

Slack連携では、各エージェントに専用のSlackボットを割り当てられます。@vendor-intakeや@weekly-sales-numbersのように個別ハンドルで呼び出せるため、チームメンバーはチャンネル上でエージェントにタスクを直接依頼できます。

企業運用に不可欠な監査機能も充実しています。全エージェントの操作を一元管理する「Inbox」で承認・却下が可能なほか、LangSmithのトレース機能により、どのエージェントが誰の代理でどのデータにアクセスしたかを完全に記録・検索できます。

DataRobotとNebiusがAIエージェント基盤で提携

共同基盤の特徴

AI Factoryで数日で本番化
Nebius GPU基盤で低遅延推論実現
トークン従量課金で実験コスト削減
50以上のNIMモデルをワンクリック展開

ガバナンスと運用

OpenTelemetry準拠の監視体制
OAuth 2.0とRBACによる統合認証
Workload APIで任意コンテナ展開
コンプライアンス自動レポート生成

DataRobotNebiusは、企業向けAIエージェントの開発・運用・ガバナンスを加速する共同ソリューション「AI Factory for Enterprises」を発表しました。従来数カ月かかっていたエージェントの本番化を数日に短縮することを目指します。

NebiusはAI専用設計GPUクラウド基盤を提供し、H100からGB300 NVL72まで最新のNVIDIA GPUを搭載しています。汎用クラウドで課題となる「ノイジーネイバー問題」を排除し、ベアメタル性能と予測可能なスループットを実現します。

DataRobotのAgent Workforce Platformは、LangChain・CrewAI・LlamaIndexなど主要フレームワークに対応し、MCPやマネージドRAGも標準搭載しています。独自のノードアーキテクチャツール(NAT)により、YAMLベースでエージェントを構造的に定義・テストできます。

ガバナンス面では、OpenTelemetry準拠のトレーシングによりエージェント実行パスの可視化を実現します。PII検出・プロンプトインジェクション防御・毒性検知などのガードレールを標準装備し、監視データから規制対応文書を自動生成する機能も備えています。

両社は2026年3月16〜19日にサンノゼで開催されるNVIDIA GTC 2026で本ソリューションを展示予定です。NebiusのToken Factoryによる従量課金モデルで実験段階のコストを抑え、本番移行時にはNIM専用デプロイへシームレスに切り替えられる点が、企業の段階的AI導入を後押しします。

LangSmith全機能にAIアシスタントPollyが正式対応

Pollyの主な進化

全ページで利用可能に
会話コンテキスト永続化
プロンプト修正等の実行操作対応
評価コード自動生成機能

デバッグ支援の強化

300ステップのトレース解析
スレッド全体の感情分析
実験結果の比較と推奨提示
ページ横断での文脈維持

LangChainは、LLMアプリ開発プラットフォームLangSmithに搭載するAIアシスタントPolly」の一般提供を開始しました。従来は一部ページに限定されていた機能が、全ページ・全ワークフローで利用可能になっています。

Pollyの最大の特長は、数百ステップに及ぶトレースを自動的に読み解き、障害の原因箇所を特定できる点です。エージェント開発特有の複雑なデバッグ作業において、従来は人手で追跡していた長大なログ解析をAIが代行します。

今回の更新ではページ間のコンテキスト維持が実現しました。トレースの確認から実験の比較、データセットへの追加、プロンプトの修正まで、一連のワークフローを通じてPollyが文脈を保持し続けるため、作業の中断や再説明が不要になります。

さらにPollyは質問への回答だけでなく、プロンプトの更新、失敗した実行からのデータセット作成、評価コードの生成といった実行操作にも対応しました。スレッド全体のユーザー感情分析や、実験結果に基づく最適な構成の推奨も可能です。

利用にはLangSmithアカウントとモデルプロバイダーのAPIキー設定が必要です。Cmd+I(Mac)またはCtrl+I(Windows/Linux)で任意のページから即座に起動でき、エージェント開発チームの生産性向上が期待されます。

LangChainがエージェント向け安全なコード実行環境を公開

Sandboxesの概要

LangSmith SDKから1行で起動
microVMによるカーネル級隔離
Docker独自イメージの持ち込み対応
プール事前確保でコールドスタート回避

主要機能と安全設計

認証プロキシで秘密情報を隔離
長時間セッションとWebSocket配信
複数エージェント共有アクセス対応
Python・JavaScript両SDK対応

LangChainは、AIエージェントが安全にコードを実行できるサンドボックス環境「LangSmith Sandboxes」をプライベートプレビューとして公開しました。エージェントによる任意コード実行のリスクを軽減する目的で開発されています。

従来のコンテナは既知のアプリケーションコード向けに設計されており、エージェントが生成する予測不能なコードの実行には適していませんでした。LangSmith Sandboxesは各サンドボックスをハードウェア仮想化されたmicroVMで隔離し、Linuxの名前空間だけに頼らないカーネルレベルの保護を提供します。

セキュリティ面では認証プロキシを介して外部サービスに接続する仕組みを採用し、認証情報がサンドボックス内に一切残らない設計です。CPU・メモリ・ディスクのリソース制限も組み込まれており、エージェントの暴走を防止します。

実行機能としては、長時間タスクのタイムアウトなし動作、WebSocketによるリアルタイム出力ストリーミング、複数スレッドにまたがる永続的な状態保持に対応します。また、ウォームプールの事前確保とオートスケーリングにより、需要増加時にも待ち時間を最小化します。

今後は共有ボリュームによるエージェント間の状態共有、実行可能バイナリの制御、仮想マシン内の全プロセス・ネットワーク呼び出しの完全トレーシング機能を開発予定です。同社のOpen SWEプロジェクトでも内部利用されており、コーディングエージェント構築の基盤として位置づけられています。

LangChain、社内コーディングエージェント基盤Open SWEを公開

主要企業の共通設計

Stripe・Ramp・Coinbaseが独自開発
隔離サンドボックスで安全に実行
Slack起点の既存ワークフロー統合
厳選ツールセットの品質重視運用

Open SWEの構成要素

Deep Agents基盤で拡張容易
サンドボックスはプラグイン式
サブエージェントによるタスク分割
ミドルウェアで確実なPR作成

LangChainは、企業が社内向けコーディングエージェントを構築するためのオープンソースフレームワーク「Open SWE」を公開しました。Deep AgentsとLangGraph上に構築され、Stripe・Ramp・Coinbaseなど大手企業が独自開発した社内エージェントの共通設計パターンを再現しています。

Open SWEの中核は隔離されたクラウドサンドボックスです。各タスクは専用のLinux環境で実行され、リポジトリのクローンとフル権限が与えられる一方、エラーの影響範囲はその環境内に封じ込められます。Modal、Daytona、Runloopなど複数のサンドボックスプロバイダーに対応しています。

ツールセットは約15種に厳選されており、シェル実行・Webフェッチ・GitHub PR作成・Linear連携・Slack返信などを備えます。Stripeが約500ツールを運用する中でも「量より品質管理が重要」と指摘しており、Open SWEもこの方針を踏襲しています。

サブエージェントとミドルウェアの二層構造が特徴です。複雑なタスクは専門の子エージェントに分割委譲され、ミドルウェアはPR自動作成やフォローアップメッセージの注入など確実に実行すべき処理を担います。これにより柔軟性と信頼性を両立させています。

呼び出しはSlack・Linear・GitHubの3チャネルに対応し、開発者は既存のワークフロー内でエージェントを起動できます。MITライセンスで公開されており、サンドボックス・モデル・ツール・システムプロンプトなど主要コンポーネントはすべてカスタマイズ可能な設計です。

LangChain、エージェント一発デプロイCLIを公開

deploy CLIの主要機能

langgraph deployで即時デプロイ
Docker構築からインフラ自動構成まで一貫
Postgres・Redisも自動セットアップ
CI/CDパイプラインへの組み込みに対応

管理コマンドと開発支援

デプロイ一覧・ログ確認・削除を完備
uvx経由で即座に利用可能
deep agent・simple agentテンプレート提供

LangChainは、langgraph-cliパッケージに新たなdeploy CLIコマンド群を追加し、コマンドライン一つでAIエージェントLangSmith Deploymentデプロイできる機能を公開しました。

中核となるlanggraph deployコマンドは、ローカルのLangGraphプロジェクトからDockerイメージを自動構築し、本番運用に必要なインフラを一括で構成します。手動でのサーバー設定が不要になり、開発者の負担を大幅に軽減します。

インフラ面では、永続化のためのPostgreSQLとメッセージストリーミング用のRedisが自動的にセットアップされます。これにより、エージェントは追加設定なしに本番環境で安定稼働できます。

GitHub ActionsやGitLab CI、Bitbucket Pipelinesなど既存のCI/CDワークフローとの統合も容易です。デプロイの一覧表示、ログ確認、削除といった管理コマンドも同時に提供されています。

開発者向けにはdeep agentとsimple agentの新テンプレートも公開されており、langgraph newコマンドで雛形を生成できます。uvxを使えばインストール不要で即座に試用が可能です。

LangChainとNVIDIAがエージェントAI開発基盤で包括提携

統合プラットフォームの全容

LangGraphとNIM統合で本番運用
NeMo Agent Toolkitとの連携
推論レイテンシの自動最適化機能
NIMで最大2.6倍のスループット向上

評価・監視と今後の展開

LangSmithで150億トレース処理実績
Nemotronモデル群での横断評価
LangChainNemotron Coalition参加
GPU環境でのDeep Agents実行構想

LangChainは2026年3月16日、NVIDIAとの包括的な統合を発表し、企業向けエージェントAI開発プラットフォームを提供すると明らかにしました。累計ダウンロード数10億回を超える同社のオープンソースフレームワーク群と、NVIDIAのAIツールキットを組み合わせた構成です。

プラットフォームはLangGraphによるマルチエージェントのオーケストレーション、Deep Agentsによるタスク計画とサブエージェント生成、そしてNVIDIA AI-Q Blueprintによるディープリサーチ機能を備えます。NeMo Agent Toolkitにより既存のLangGraphエージェントを最小限のコード変更で導入できます。

実行面ではNIMマイクロサービスが標準デプロイ比で最大2.6倍のスループットを実現します。Nemotron 3 SuperのMoEアーキテクチャにより単一GPUでのコスト効率の高い展開が可能です。並列実行や投機的実行によるレイテンシ削減も自動的に適用されます。

監視面ではLangSmithが150億トレース・100兆トークンの処理実績を持ち、分散トレーシングやコスト監視を提供します。NeMo Agent Toolkitのテレメトリと統合することで、インフラレベルとアプリケーションレベルの可観測性を一元化できます。

さらにLangChainNVIDIANemotron Coalitionに参画し、オープンなフロンティアモデルの共同開発に取り組みます。将来的にはDeep AgentsがCUDA-Xライブラリを活用したGPUアクセラレーション環境で動作し、金融や医療分野での大規模データ処理を可能にする構想も示されました。

LangChain が提唱するAIエージェント「ハーネス」設計論

ハーネスの基本構造

モデル+ハーネスエージェント
ファイルシステムが最重要基盤
Bashで汎用ツール実行を実現
サンドボックスで安全な実行環境構築

長期自律実行の課題

コンテキスト腐敗への対策が必須
記憶と検索継続学習を実現
Ralph Loopで作業を自動継続
自己検証ループで品質担保

LangChainのVivek Trivedy氏が、AIエージェントの構造を「モデル+ハーネス」と定義し、モデルを実用的な作業エンジンに変えるためのハーネス設計論を体系的に解説しました。ハーネスとはモデル以外のすべてのコード・設定・実行ロジックを指します。

ハーネスの最も基本的な構成要素はファイルシステムです。エージェントに永続的な作業空間を提供し、中間出力の保存やセッション間の状態維持を可能にします。さらにGitによるバージョン管理を加えることで、作業の追跡やロールバック、複数エージェント間の協調作業も実現できます。

汎用ツールとしてのBash実行環境も重要な要素です。事前に設計されたツールに依存せず、モデルが自律的にコードを書いて問題を解決できるようになります。サンドボックスにより安全な実行環境を確保し、ブラウザやテストランナーによる自己検証ループも構築可能です。

コンテキスト腐敗への対策も不可欠です。コンテキストウィンドウが埋まるにつれモデルの推論能力が低下する問題に対し、コンパクション(要約による圧縮)、ツール出力のオフロード、スキルによる段階的開示といったハーネスレベルの戦略が求められます。

長期自律実行では、Ralph Loopパターンによる自動継続や計画ファイルを活用した進捗管理が鍵となります。モデルの訓練とハーネス設計の共進化が進む一方、最適なハーネスは必ずしも訓練時のものとは限らず、タスクに応じた最適化で性能が大幅に向上する事例も報告されています。

LangChain、AIエージェント自律コンテキスト圧縮機能を公開

自律圧縮の仕組み

モデル自身が圧縮タイミング判断
古いメッセージを要約で置換
直近10%のコンテキスト保持
タスク境界での自動発動を想定

設計思想と実績

固定閾値圧縮の非効率を解消
ハーネスの手動調整を排除する方針
保守的な発動で誤圧縮を防止
CLI・SDK両方で利用可能

LangChainは2026年3月、AIエージェント開発フレームワーク「Deep Agents」のSDKおよびCLIに、モデルが自らのコンテキストウィンドウを適切なタイミングで圧縮する自律コンテキスト圧縮機能を追加しました。

従来のエージェントハーネスでは、コンテキストウィンドウの85%に達した時点で一律に圧縮を実行していました。しかし複雑なリファクタリングの最中など、圧縮すべきでないタイミングで実行されるケースが課題となっていました。

新機能では、タスクの区切りや大量の新コンテキスト読み込み前、計画の実行開始時など、モデル自身が最適なタイミングを判断して圧縮を実行します。これにより、ユーザーが手動で/compactコマンドを発行する必要がなくなります。

圧縮時には直近メッセージの10%をそのまま保持し、それ以前のメッセージを要約に置き換えます。全会話履歴は仮想ファイルシステムに保存されるため、圧縮後も復元が可能です。

LangChainは独自評価スイートやTerminal-bench-2でテストを実施し、エージェント保守的に圧縮を発動しつつも、ワークフロー改善に明確に寄与するタイミングを選択することを確認しました。この機能は、ハーネスの固定ルールを減らしモデルに作業記憶の制御権を委ねるという、エージェント設計の新たな方向性を示しています。

Google、マルチモーダル埋め込みモデルGemini Embedding 2を公開

技術的な革新点

テキスト・画像動画音声を単一空間に統合
3072次元の統一ベクトル空間で横断検索
Matryoshka表現学習で次元数を柔軟に調整
中間LLM変換不要でレイテンシ最大70%削減

企業導入と料金体系

Gemini APIとVertex AIの2経路で提供
テキスト・画像動画100万トークン0.25ドル
音声は計算負荷により0.50ドルの倍額設定
LangChainLlamaIndex等主要フレームワーク対応

導入判断の要点

既存コーパスの再インデックスが移行コスト
法務・医療など高精度用途で検索精度20%向上

Googleは2026年3月10日、新しい埋め込みモデル「Gemini Embedding 2」のパブリックプレビューを開始しました。従来のテキスト専用モデルとは異なり、テキスト・画像動画音声・文書を単一のベクトル空間にネイティブ統合する初の本格的マルチモーダル埋め込みモデルです。

最大の技術革新は、動画音声をテキストに変換する中間処理が不要になった点です。従来は動画検索の際にまずテキストへの書き起こしが必要でしたが、本モデルは音声波形や動画の動きを直接理解します。これにより変換時の情報損失がなくなり、クロスモーダル検索が実現しました。

Matryoshka表現学習と呼ばれる技術により、3072次元のフルベクトルから768次元まで柔軟に圧縮でき、精度とストレージコストのバランスを企業が自ら調整できます。法務文書など高精度が求められる用途ではフル次元を、推薦エンジンなどでは圧縮版を使い分けることが可能です。

早期導入パートナーからは顕著な成果が報告されています。クリエイターエコノミー企業Sparkonomyはレイテンシを最大70%削減し、意味的類似度スコアをほぼ倍増させました。法律テック企業Everlawは訴訟証拠開示において、テキスト検索では見逃していた画像動画内の証拠発見に活用しています。

料金はGemini APIでテキスト・画像動画100万トークンあたり0.25ドル音声は0.50ドルです。入力上限はテキスト8192トークン、動画128秒、音声80秒、PDF6ページとなっています。LangChainLlamaIndex、Weaviateなど主要フレームワークとの統合も完了しており、既存ワークフローへの組み込みが容易です。

コーディングエージェントがEPD組織の役割を根本から変革

開発プロセスの変化

PRD起点の開発フローが終焉
ボトルネックが実装からレビューへ移行
プロトタイプが新たな起点に
プロダクト要件文書自体は依然必要

求められる人材像

ゼネラリストの価値が急上昇
全職種にプロダクトセンスが必須
システム思考が最重要スキルに
ビルダーかレビュアーの二極化

LangChain共同創業者のHarrison Chase氏が、コーディングエージェントがソフトウェア企業のEPD(エンジニアリング・プロダクト・デザイン)組織に与える構造的変化について分析しました。コードの生成コストが劇的に低下したことで、従来のPRD→モック→実装という開発フローが崩壊しつつあると指摘しています。

従来の開発プロセスでは、プロダクトマネージャーがPRD(プロダクト要件文書)を作成し、デザイナーがモックを起こし、エンジニアが実装するというウォーターフォール型の流れが主流でした。しかしコーディングエージェントの登場により、アイデアから直接動作するプロトタイプを生成できるようになり、この従来型フローは終わりを迎えています。

最も大きな変化は、ボトルネックが実装からレビューへ移行した点です。誰でもコードを書ける時代になったことで、生成されるプロトタイプの数が急増しています。エンジニアリング・プロダクト・デザインの各機能は、それぞれの専門性からアーキテクチャの堅牢性、ユーザー課題の適合性、UIの使いやすさを審査する役割へと変化しています。

Chase氏は、今後のEPD人材はビルダーレビュアーの二類型に収束すると予測しています。ビルダーはプロダクト思考とエージェント活用力を備え、小規模機能をアイデアから本番まで一人で完遂できる人材です。レビュアーは高度なシステム思考力を持ち、大量のプロトタイプを迅速に評価できる専門家を指します。

また、プロダクトセンスの欠如はエージェント時代において致命的だと警告しています。悪いプロダクトアイデアでもプロトタイプが容易に作れるため、レビュー負荷が増大し組織のリソースを浪費します。専門特化の閾値も上がり、ドメインの卓越性に加え高速レビュー力とコミュニケーション力が不可欠になると述べています。

Google、初のマルチモーダル埋め込みモデル「Gemini Embedding 2」公開

対応モダリティと性能

テキスト・画像動画音声・PDFを統合
8192トークンの大規模コンテキスト対応
100言語以上の意味的理解が可能
テキスト/画像/動画で最高水準の精度

実装と活用事例

Gemini APIとVertex AIでパブリックプレビュー提供
Paramountの動画検索Recall@1が85.3%達成
Sparkonomy社でレイテンシを70%削減
LangChainLlamaIndex等の主要フレームワーク対応

Googleは2026年3月10日、Geminiアーキテクチャを基盤とした初の完全マルチモーダル埋め込みモデル「Gemini Embedding 2」をGemini APIおよびVertex AIでパブリックプレビューとして公開した。

同モデルはテキスト・画像動画音声・PDFドキュメントを単一の統一埋め込み空間にマッピングする。テキストは最大8192トークン、画像は1リクエスト最大6枚、動画は最大120秒に対応しており、RAGや意味検索、感情分析、データクラスタリングなど幅広いユースケースを簡素化する。

柔軟な出力次元を実現するMatryoshka Representation Learning(MRL)技術を採用しており、デフォルト3072次元から1536・768次元へと動的に削減できる。これにより開発者はパフォーマンスとストレージコストのバランスを最適化できる。

早期アクセスパートナーからは顕著な成果が報告されている。Paramount Skydanceは動画資産検索のRecall@1を85.3%に向上させ、Sparkonomy社はLLM推論を排除することでレイテンシを最大70%削減、テキスト・画像間の意味的類似度スコアを0.4から0.8へほぼ2倍に改善した。

同モデルはLangChainLlamaIndex・Haystack・Weaviate・Qdrant・ChromaDB・Vector Searchなど主要なフレームワークおよびベクターデータベースと統合可能であり、既存ワークフローへの最小限の変更での導入が可能だ。

LangChainがGTMエージェントで商談転換率250%向上を達成

主な成果

商談転換率が250%向上
パイプライン収益が3倍に拡大
営業担当者が月40時間を回収
低意図リードへのフォロー97%増
週次アクティブ利用率86%達成

技術構成

Deep Agentsで長期マルチステップ処理
Salesforce・Gong・LinkedInを自動連携
LangSmithで全行動をトレース記録
担当者編集から自動学習するメモリ機構
サブエージェント並列実行でスケール対応

LangChainは2025年12月から2026年3月にかけて、営業チーム向けGTMエージェントを自社開発・運用し、リードから有望商談への転換率を250%向上させ、パイプライン収益を3倍に拡大した成果を公表しました。

このエージェントSalesforceに新リードが登録されると自動起動し、サポートチケットの有無や直近の接触履歴を確認してから、Gongの通話記録やLinkedInプロフィール、Exaによるウェブ調査を組み合わせてパーソナライズされたメール下書きを生成します。

担当者はSlack上で下書きの内容とエージェント推論根拠を確認し、送信・編集・キャンセルを選択できる仕組みで、ヒューマン・イン・ザ・ループを徹底することで誤送信リスクを排除しています。

担当者がSlackで下書きを編集すると、LLMが変更差分を解析してスタイル上の傾向を抽出し、PostgreSQLにレップごとに記録します。次回以降の下書きはこの個人メモリを参照して自動改善されます。

GTMエージェントはSDR向けとして始まりましたが、Salesforce・Gong・BigQuery・Gmailへのアクセスを持つ点が口コミで広まり、エンジニアやカスタマーサクセスなど社内各チームが想定外の用途で自発的に活用を始めており、組織横断的なAIエージェント活用の好例となっています。

LangChain CEO、AIエージェント実用化に「ハーネス工学」が不可欠と提唱

ハーネス工学の核心

コンテキスト工学の発展形
LLM自身が文脈を制御する設計
長時間自律動作が実現可能に
AutoGPTの失敗から得た教訓

Deep Agentsの設計思想

仮想ファイルシステムで進捗管理
サブエージェントへの並列委任
コンテキスト分離でトークン効率化
スキル動的読み込みで柔軟性確保

LangChainの共同創業者兼CEOであるハリソン・チェイス氏は、VentureBeatのポッドキャストで、AIモデルの性能向上だけではエージェントの本番運用に到達できないと主張しました。鍵を握るのは、モデルを包む「ハーネス」の進化です。

チェイス氏が提唱するハーネス工学とは、コンテキスト工学の拡張概念です。従来のハーネスがモデルのループ実行やツール呼び出しを制約していたのに対し、エージェント向けハーネスはLLM自身に文脈の制御権を委ね、より自律的な長時間タスク遂行を可能にします。

かつて最も急成長したGitHubプロジェクトだったAutoGPTを引き合いに、チェイス氏は現在のトップエージェントと同じアーキテクチャでありながらモデル性能不足で衰退した事例を紹介しました。モデルの進化により、ようやくハーネスの継続的改善が意味を持つ段階に入ったと述べています。

LangChainが開発したDeep Agentsは、計画機能・仮想ファイルシステム・コード実行・スキルとメモリ機能を備えた汎用ハーネスです。サブエージェントへのタスク委任とコンテキスト分離により、大規模な作業結果を圧縮してトークン効率を高める設計が特徴です。

チェイス氏は「エージェントが失敗するのは正しい文脈がないとき、成功するのは正しい文脈があるとき」と強調しました。適切な情報を適切なフォーマットで適切なタイミングに届けるコンテキスト工学こそが、実用的なAIエージェント構築の核心であると結論づけています。

LangChain、コーディングエージェント向けスキル評価手法を公開

評価パイプラインの要点

Dockerで再現性ある環境構築
制約付きタスクで採点精度向上
バグ修正型タスクが検証に有効
スキル有無で完了率を比較

スキル設計の知見

XMLタグでモジュール化推奨
AGENTS.mdで確実な呼び出し実現
スキル数は12以下で正確に選択
LangSmithで軌跡を可視化

LangChainは2026年3月、Claude CodeCodexなどのコーディングエージェントに与える「スキル」の評価手法とベストプラクティスをブログで公開しました。スキルとは、特定領域でエージェントの性能を高めるための指示・スクリプト・リソースの集合体です。

評価パイプラインの基本は、タスクを定義し、スキルの有無エージェントの成績を比較する手法です。テスト環境には軽量なDockerコンテナを用い、ディレクトリの初期状態を統一することで再現性を確保しています。

タスク設計では、オープンエンドな課題よりもバグ修正型の制約付きタスクが有効であると報告されています。採点が容易になるだけでなく、エージェントの設計空間を適切に限定できるためです。評価指標には、スキルの呼び出し有無、タスク完了率、ターン数、実行時間などを採用しています。

スキル設計においては、AGENTS.mdCLAUDE.mdにスキルの使用方法を記載することで呼び出し率が安定しました。スキルを単独でプロンプト任せにした場合の呼び出し率は最大70%にとどまる一方、事前読み込みファイルに案内を記載すると一貫した呼び出しが実現できたと報告されています。

実験の結果、スキルを搭載したClaude Codeのタスク完了率は82%に達した一方、スキルなしでは9%に低下しました。LangSmithのトレース機能でエージェントの全行動を記録・分析し、失敗原因の特定とスキル内容の反復改善を高速に回すワークフローが紹介されています。

LangChain、AIエージェント開発向けSkills機能を公開

Skills機能の概要

動的読み込みで性能劣化を回避
Claude Codeの正答率が29%→95%
LangSmith用も17%→92%に向上

LangSmith新機能

Agent Builderに統合チャット追加
トレース表示のカスタム設定が可能に
Insights Agentで定期レポート自動化
実験のベースライン固定で差分比較

エージェント運用の知見

ハーネス工学でベンチTop5達成
本番監視の専用手法を体系化

LangChainは2026年2月、AIコーディングエージェントの専門性を高める「Skills」機能を公開しました。LangChain、LangGraph、Deep Agentsの3カテゴリ計11スキルを提供し、エージェント開発の精度を大幅に向上させます。

Skillsはマークダウンファイルとスクリプトで構成される携帯可能な指示セットです。タスクに関連する場合のみ動的に読み込む「プログレッシブ・ディスクロージャー」方式を採用し、ツール過多による性能劣化の問題を解決しています。

評価セットでは、Skills導入によりClaude CodeLangChainタスク正答率が29%から95%へ、LangSmithタスクでは17%から92%へと劇的に改善しました。npx skillsコマンドで簡単にインストールでき、プロジェクト単位またはグローバルに設定可能です。

同時にリリースされたLangSmith CLIは、エージェントネイティブな設計思想で構築されています。トレース取得、データセット管理、実験実行をターミナルから完結でき、エージェントによる改善ループの自動化を実現します。

LangSmithプラットフォームでも複数の新機能が追加されました。Agent Builderの統合チャット、ファイルアップロード対応、トレーステーブルの入出力カスタマイズ、Insights Agentによる定期レポートなど、本番運用を見据えた機能強化が進んでいます。

技術ブログでは、コーディングエージェントがモデル変更なしでTerminal Bench 2.0のTop30からTop5へ躍進した事例も紹介されました。自己検証ループやループ検知ミドルウェアなどの「ハーネス工学」が成功の鍵とされています。

LangChainがAIエージェント本番を警告

本番展開の課題

本番環境で初めて問題行動が発覚するリスク
テスト環境では見えないエッジケースが多発
継続的監視と本番学習が不可欠

LangChainのブログは、AIエージェントが実際に本番環境で動作するまで真の挙動を把握することは不可能であると警告しています。テスト環境では想定外の入力や状況に対応できないケースが多いのが現実です。

エンタープライズがAIエージェントを展開する際、段階的な本番デプロイと強力な監視体制の構築が必須だという実務的な教訓を提示しています。

エージェント本番運用をLangChainが解説

エージェント可観測性と評価

エージェントは実行するまで何をするか不明という根本的特性
LangChainトレースエージェント評価の中核に位置づけ
ソフトウェア可観測性とは質的に異なるエージェント監視の必要性
LangSmithエージェント評価フレームワークの詳細を初公開
複雑タスクの評価困難性をトレースで克服するアプローチ

メモリシステムと監査ループ

Agent Builderのメモリシステムはノーコードで実装済み
シャドウモードで本番前にエージェントを並行テスト
ドリフトアラートでモデル挙動の変化を自動検知
監査ログコンプライアンスデバッグの要に
スタティックコンプライアンスからリアルタイム監視

2026年2月22日、LangChainは三つの重要なブログ記事を通じて、AIエージェントの本番運用に向けた包括的なフレームワークを公開しました。これらの記事は、AIエージェントが単なる実験から本番システムへと移行する際に直面する核心的な課題に答えるものです。

エージェント可観測性の記事では、AIエージェントが実行されるまでその行動を予測できないという根本的な特性を起点に、トレース(実行ログの詳細記録)をエージェント評価の基盤とするアプローチを詳述しています。従来のソフトウェア監視とは異なり、エージェントは開かれたタスクを実行するため、評価基準自体を動的に設計する必要があります。

Agent Builderのメモリシステムに関する記事では、ノーコードツールがどのようにして会話履歴、ユーザー設定、長期記憶を管理するかを技術的に詳説しています。メモリはエージェントの文脈理解と一貫性を確保する上で不可欠ですが、その設計にはプライバシーとストレージのトレードオフがあります。

VentureBeatの記事では、シャドウモード(新エージェントを本番システムと並行稼働させ比較するテスト手法)、ドリフトアラート(AIモデルの更新による挙動変化の自動検知)、監査ログ(コンプライアンスデバッグ用の完全な実行記録)を組み合わせた「現代の監査ループ」を解説しています。

これら三つの記事が同日に公開されたことは偶然ではありません。AIエージェントを本番環境で安全・適法・信頼できる形で運用するためのエンタープライズMLOpsの成熟が急速に進んでいます。2026年はAIエージェントの「実験から本番」への転換年になるとの見方が強まっています。

monday.comがLangSmithでAI評価

LLMOpsの実践事例

LangSmithで評価基盤を構築
コードファーストのテスト戦略
CS業務でのAI精度向上

monday.comはLangSmithLangChain社の評価ツール)を用いて、コードファーストのAI評価戦略を構築した事例を公開しました。

この事例では、顧客サポート業務でのAIモデルの精度と信頼性を継続的に測定・改善するためのパイプラインが紹介されています。LLMOpsの実践として参考になる内容です。

ハーネス設計でエージェントがTop5に浮上

ハーネスエンジニアリングの効果

Terminal Bench 2.0でTop5入り
自己検証とトレーシングが有効
モデル変更なしの大幅改善

LangChainは自社のコーディングエージェントをTerminal Bench 2.0でTop30からTop5に引き上げることに成功しました。驚くべきことに、モデル自体は変更せずエージェントを動かす「ハーネス」の設計のみを改良した結果です。

自己検証エージェントが自分のアウトプットを検証するループ)とトレーシングの組み合わせが特に効果的でした。これはモデル性能だけでなく、エージェント設計が重要であることを示す実証例です。

LangSmith、GCPマーケットプレイスに登場

提供内容

エージェント運用基盤
GCP課金で簡単導入
既存契約での利用が可能

意義と展望

LLMOpsの導入障壁低下
エンタープライズ採用を促進
LangChainのエコ系拡大

LangChainエージェントエンジニアリングプラットフォーム「LangSmith」がGoogle Cloud Marketplaceで利用可能になりました。

Google Cloudの既存アカウントで調達できるため、請求の一元化や導入手続きの簡素化が実現します。企業での採用障壁が大幅に下がります。

LangSmithはAIエージェント評価、トレース、デバッグを行う運用基盤です。LLMアプリケーションの品質管理不可欠なツールとなっています。

クラウドマーケットプレイスでの提供はエンタープライズ顧客の調達プロセスに合致しており、大企業での導入が加速する見込みです。

LangChainエコシステムの拡大は、AIエージェント開発ツール市場における同社のリーダーポジションを強化するものです。

エージェントのサンドボックス接続指南

2つのパターン

直接接続型のアーキテクチャ
仲介型のアーキテクチャ
ワークスペース設計の指針

実装の考慮点

コード実行の安全性確保
パッケージ管理の統合
E2B等の実装事例

LangChainがAIエージェントをサンドボックス環境に接続する2つの主要パターンを解説する技術記事を公開しました。

エージェントがコード実行やパッケージインストール、ファイルアクセスを行うワークスペースの必要性が高まっています。安全な実行環境の設計がとなります。

E2B、Runloop、Zo Computerなどのプロバイダーからのレビューも含まれており、実装の具体例が示されています。

直接接続型はシンプルで低レイテンシですが、仲介型はセキュリティやリソース管理の面で優位性があるとされています。

エージェント開発におけるインフラ選択は、パフォーマンスとセキュリティのトレードオフを伴う重要な設計判断です。

LangChain 2026年1月ニュースレター:エコシステムの主要アップデート

主な更新内容

LangChainフレームワーク改善
新しいインテグレーション
エージェントツール強化

エコシステムの動向

コミュニティ成長
エンタープライズ採用増加
競合との比較

LangChainの2026年1月ニュースレターでは、フレームワークの重要な改善と新しいインテグレーションが紹介されています。エージェントツールの強化が目立ちます。

LangChainエコシステムは引き続き成長しており、エンタープライズ向けのAIエージェント開発において標準的なフレームワークとしての地位を確立しつつあります。

LangChainがマルチエージェントアプリ構築ツールを強化

新機能の概要

Deep Agentsフレームワーク公開
Agent Builderテンプレート追加
複数エージェント協調設計
即時デプロイ可能なテンプレート

開発者への影響

エージェント開発の高速化
低コードでのマルチエージェント構築
ベストプラクティスの標準化

LangChainは「Deep Agents」フレームワークと「Agent Builder」テンプレートを公開し、マルチエージェントアプリケーションの構築をより簡単にするツールを提供した。エージェント間の協調設計が容易になった。

Agent Builderではユースケース別のテンプレートが用意されており、開発者はゼロから設計することなく即座にエージェントデプロイできる。開発速度の大幅な向上が期待される。

LangChainはAIエージェント開発の事実上の標準として定着しており、今回の強化でその地位をさらに固める。エンタープライズでのエージェント採用をさらに加速させるだろう。

RemoteがLangChain・LangGraphを使い何千もの顧客のAIオンボーディングを実現

実装の概要

LangChainでAIフローを構築
LangGraphエージェントを制御
オンボーディングを自動化
数千社の顧客に適用
カスタマイズも自動で対応

技術的な成果と示唆

人手対応を大幅に削減
スケール可能なAIワークフロー
複雑な分岐処理を実現
エラー回復のロジックを組み込み
本番運用でのノウハウを公開

グローバル人材管理プラットフォームのRemoteは、LangChainとLangGraphを使って顧客のオンボーディングプロセスをAI化し、数千社もの企業を効率的に処理できるようにしました。

従来は複雑な顧客ごとのカスタマイズが必要だったオンボーディング作業を、AIエージェントが自動的に対話しながら情報収集・設定を行うフローに変換しました。

LangGraphを用いたステートフルなグラフ型ワークフローにより、複雑な条件分岐や再試行ロジックを管理できる点が大きな価値を発揮しています。

この事例は「エンタープライズでのAIエージェント実装」の先進的なケーススタディとして、同様の課題を持つ企業の参考になります。

マルチエージェントAIの設計論が実用段階へ、オーケストレーションが鍵に

設計原則と実践

エージェントの「発言」より「協調」が重要
オーケストレーション層の設計が成否を分ける
タスク分割・委任・結果集約のパターン
エラー処理と再試行戦略の重要性
監視・観測可能性の組み込みが必須

企業実装の課題

エージェント間の信頼と権限管理
状態管理と整合性の確保
コストと遅延のトレードオフ
デバッグの複雑性が増す
テスト・評価フレームワークの不足

VentureBeatとa16zのブログが相次いでマルチエージェントAI設計のベストプラクティスを取り上げ、エージェントオーケストレーションが企業AIシステムの中核技術として浮上してきました。個々のエージェントの能力よりも、複数エージェントをどう連携させるかが実用システムの成否を分けるという認識が広まっています。

具体的な設計課題として、エージェント間のタスク委任と結果統合のパターン設計、エラー時の再試行・エスカレーション戦略、状態管理の一貫性確保などが挙げられています。

企業がマルチエージェントシステムを本番環境で運用するためには、可観測性・コスト管理・セキュリティを設計段階から組み込む必要があります。LangChainLlamaIndex、各種クラウドプロバイダーのエージェントフレームワークが競合する市場は急速に成熟しています。

LangChain:AIシステムの「ドキュメント」はトレースが担う

トレースが新しいドキュメントとなる理由

LangChainが「AIシステムではトレースがドキュメント」という考え方を提示
ソフトウェアではコードが実装を記録するが、AIでは実行ログが重要
入力・出力・中間ステップがすべて記録されたトレースで動作を理解
LLMの確率的な挙動はコードだけでは把握できない
可観測性(Observability)がAI開発の必須要素に
LangSmithなどのトレーシングツールの役割が急速に重要化

LangChainエンジニアは「ソフトウェア開発ではコードがアプリを記録するが、AI開発ではトレースが記録する」というテーゼを提示しました。確率的に動作するLLMにおいては、実際の実行ログ(トレース)を見ることが唯一の正確な理解手段です。

特定の入力に対してどのようなプロンプトが送られ、モデルが何を返し、どのツールが呼び出されたかという実行の連鎖をトレースとして記録・可視化することで、初めてシステムの動作を「文書化」できます。

この観点はAIシステムのデバッグ品質管理・改善のすべてに影響します。LangSmithやWeights & Biases、Arizeなどのトレーシングプラットフォームが、従来のAPIドキュメントやコードコメントに相当する役割を担う時代の到来を示しています。

OrchestralがLangChainの複雑さを解消する再現可能なAIエージェントを提供

LangChainへの代替アプローチ

OrchestralLangChainに代わる軽量なAIエージェントフレームワークを発表
再現可能なパイプライン設計でデバッグが容易
プロバイダー非依存の設計でベンダーロックインを回避
設定・実行・ログの透明性を重視した構造
小規模チームでも本番運用できる低複雑度
LangChainの過度な抽象化問題に正面から対処

Orchestralは、LangChainに代わるAIエージェントフレームワークとして、再現可能性と透明性を核心原則に設計されたツールを公開しました。LangChainは多くの企業で採用されていますが、複雑な抽象化レイヤーがデバッグを困難にし、本番環境での動作が不安定になりやすいという批判がありました。

Orcheralはパイプラインのすべてのステップをログ化し、特定の入力に対して毎回同じ結果が得られる決定論的な動作を保証します。OpenAIAnthropicMistralなど複数のAIプロバイダーに対応しており、切り替えが容易です。

LangChainはコミュニティの大きさとエコシステムの豊富さで優位ですが、エンタープライズの本番環境では信頼性と透明性が最重要です。Orchestralはこのニーズを捉えた製品として、エンジニアリングチームから注目を集めています。

DatabricksのInstructed Retrieverが従来型RAGを凌駕

新しいRAG手法の技術的優位性

DatabricksInstructed Retrieverを発表
指示に従ったデータ取得で従来RAGを超える精度
複雑なクエリや暗黙的な情報ニーズへの対応力
指示チューニングでretrieverを特化させる手法
ベクター検索と組み合わせたハイブリッドアプローチ
DatabricksのUnity Catalogと統合して利用可能

エンタープライズRAGへの応用

企業内ナレッジの精度の高い取得が可能に
従来の「質問に似た文書を探す」から「意図を理解して探す」へ
コンテキスト不明確なクエリでも適切な情報を取得
社内文書・法務・財務データへの応用が期待
Databricksを使う企業のRAGパイプライン改善に直結
既存のLangChainLlamaIndexとの互換性を維持

Databricksは、従来のRAG検索拡張生成)の限界を超える「Instructed Retriever」という新しいデータ取得手法を発表しました。従来のベクター類似検索は「質問に意味的に近い文書を探す」ものでしたが、Instructed Retrieverは明示的な指示に従って意図を理解した上で情報を取得します。

複雑なビジネスクエリや、ユーザーが何を求めているか明示的に伝えていないケースでも、文脈と意図を推定して適切なデータを取得できます。Databricksの統合データプラットフォームUnity Catalogと組み合わせることで、企業全体のデータ資産へのRAGアクセスが改善されます。

エンタープライズRAGの精度は、AIエージェントの有用性に直結する根幹技術であり、この改善はDatabricksを使うデータ・エンジニアリングチームにとって即座に価値が生まれる成果です。競合のSnowflake Cortex AIとの差別化にも貢献します。

エージェントAIの混乱を解消する新フレームワーク登場

複雑化するエージェントエコシステム

ツールとフレームワークの数が爆発的に増加
開発者の選択麻痺が深刻な問題に
LangChain・CrewAI・AutoGenなど乱立
適切なツール選択に明確な基準がない
モデル選択と設計判断が複雑に絡み合う
業界標準の欠如が採用の壁になっている

新フレームワークの整理軸

タスク複雑性に応じた階層分類を提案
シングルエージェントとマルチエージェントの判断基準
オーケストレーションvs直接制御の使い分け
ツール利用・計画・記憶の3軸で評価
研究論文ベースの客観的な比較を提供
実務適用のデシジョンツリーを整備

エージェントAIのエコシステムが爆発的に拡大する中、開発者がどのツールやフレームワークを選べばよいか分からなくなっています。新しい研究が、この「選択麻痺」を解消するための包括的なフレームワークを提案しています。

LangChain、CrewAI、AutoGen、LlamaIndex、そしてカスタムエージェントなど、選択肢の増殖が問題の核心です。各フレームワークは異なる設計哲学を持ち、得意不得意も異なります。まずタスクの複雑性と必要な自律性のレベルを定義することが起点です。

新フレームワークはツール利用・計画・記憶という3軸で既存ソリューションを分類し、具体的なユースケースへの適合性を評価します。シングルエージェントで十分なケースにマルチエージェントを採用する過設計を防ぐ判断基準も提示されています。

この種の整理は実務者にとって価値が高く、2026年のエージェント本格普及に向けてオーケストレーションの標準化が進むことへの期待が高まっています。

AIが通信・教育・生命科学の現場を変える

LangGraphで実現した通信大手の顧客対応エージェント

Fastweb+VodafoneがLangChain/LangGraphでAIエージェントを本番稼働
顧客向けSuper TOBiは約950万人に対応、正答率90%・解決率82%を達成
コールセンター向けSuper AgentはOne-Call解決率86%超に貢献
Neo4jナレッジグラフとRAGを組み合わせた手順主導のトラブル解決
LangSmithによる日次自動評価でモデル改善サイクルを継続運用
Supervisorパターンが意図ルーティングを決定論的に制御

AI支援で生命科学の実験効率を79倍に向上

OpenAIGPT-5がHiFi DNA分子クローニング手順を自律最適化
RecA/gp32という新規酵素ペアを提案しRAPF-HiFi手法を発案
酵素アセンブリと形質転換の両最適化を合わせ79倍の効率改善を確認
ロボットシステムによる自律実験でヒト実験比89%の性能を実証
Replit Learnがコーディング不要の無料AI開発教育プラットフォームを開始
バイブコーディング」の概念でAIとの反復的な試作学習を提供

イタリアの通信大手Fastweb+VodafoneはLangChainとLangGraphを基盤として、顧客向けチャットボット「Super TOBi」とコールセンター支援ツール「Super Agent」の2つのAIエージェントを本番環境に展開しました。約950万人の顧客に対応するSuper TOBiは正答率90%、解決率82%を達成しています。

Super Agentは、Neo4jに格納されたナレッジグラフとベクトルストアを組み合わせたハイブリッドRAGによって、コンサルタントへリアルタイムで最適な次のアクションを提示します。One-Call解決率は86%を超え、オペレーターの対応品質と一貫性が大幅に向上しました。

LangSmithを初日から導入した同社は、日次で自動評価パイプラインを稼働させ、チャットボット応答を分類・採点して継続的な改善フィードバックを生成しています。この仕組みにより、ビジネス担当者と技術チームが連携しながら目標品質水準を維持しています。

OpenAIGPT-5を用いて湿式実験室における分子生物学のクローニング手順を自律最適化する実験を実施しました。固定プロンプトで人的介入なしに複数ラウンドの反復実験を行い、最終的に79倍の効率改善を達成したと報告しています。

特筆すべき発見はGPT-5が提案した新しい酵素メカニズムです。大腸菌由来の組換え酵素RecAとファージT4のgp32タンパク質を組み合わせたRAPF-HiFi手法は、DNA末端の安定化とホモロジー検索を促進し、既存のHiFi Gibsonクローニングより2.6倍の改善をもたらしました。

形質転換工程ではT7プロトコルがコンピテントセルの濃縮処理により36倍の改善を達成し、酵素と形質転換の両手法を組み合わせることで累計79倍という成果に至りました。これらの結果はAIが実際の実験室研究を意味ある形で支援できることを示しています。

一方でReplitコーディング経験不要の無料教育プラットフォーム「Replit Learn」を公開しました。アプリの仕組み、LLMの基礎、バイブコーディングという3つのレッスンから構成されるAI Foundationsコースを提供し、誰でもAIを使ったアプリ開発を学べる環境を整えています。

これら3つの事例はいずれも、AIがドメイン固有の複雑な課題に対して実務レベルで機能し始めていることを示しています。通信の顧客対応、生命科学の実験最適化、そしてノーコードのソフトウェア教育という異なる領域で、エージェント型AIの実用化が着実に進んでいます。

AIエージェント構築・検証・微調整の最前線

自律エージェントの精度を高める新アプローチ

ReplitのAgent 3がREPLベース検証で200分以上の自律動作を実現
ブラウザ自動化とコード実行を組み合わせ「見せかけ実装」を自動検出
IBM製オープンソースフレームワークCUGAがHugging Face Spacesに統合
AppWorldベンチマーク1位・WebArena上位を達成した設定可能な汎用エージェント
プランナー/エグゼキューター分離とコードアクト方式で幻覚を抑制
MCP・OpenAPI・LangChain対応のマルチツール連携機能を提供

エージェントAIを支えるデータ基盤と軽量ファインチューニング

Twilioレポートで54%の消費者がAIの文脈保持の欠如を指摘
会話型AIには静的CDPではなくリアルタイム会話メモリが必要と提言
NVIDIAがNemotron 3ファミリーをエージェントAI微調整向けに発表
Unslothを使い低メモリNVIDIA GPULoRA/QLoRAによる効率的なファインチューニングが可能

ReplitはAgent 3の開発において、コードが「動いているように見えるだけ」の問題、いわゆる「ポチョムキン実装」に悩まされてきました。この課題を解決するためREPL(対話型実行環境)とブラウザ自動化を組み合わせた独自の検証システムを構築し、エージェントが生成したコードを実際に実行・操作して機能の実在性を確認できるようにしました。

この仕組みによりAgent 3は200分以上にわたって自律的にタスクを継続でき、単に見た目を整えるだけの実装を自動的に検出・修正するサイクルを回せるようになりました。自己テスト型の検証ループはエージェント品質保証に新たな基準を示しています。

IBMが開発したCUGA(Configurable Generalist Agent)はオープンソースの汎用AIエージェントフレームワークです。AppWorldベンチマークで1位、WebArenaでも上位を記録しており、WebやAPIを跨ぐ複雑なマルチステップタスクを高い精度でこなします。

CUGAは現在Hugging Face Spacesに統合され、オープンモデルと組み合わせて誰でも試せる環境が整いました。推論モードをコスト・レイテンシに応じて切り替えられる柔軟な設計が特徴で、MCP・OpenAPI・LangChain経由の多様なツール連携にも対応しています。

Twilioの調査によると、消費者の54%が「AIは過去のやりとりをほとんど覚えていない」と感じており、AIから人間担当者へ引き継がれる際に全文脈が共有されると答えたのはわずか15%でした。エージェントAIが真に機能するには、リアルタイムで携帯可能な会話メモリが不可欠です。

この問題を解決するには、従来のCRMやCDPを使い続けるのではなく、会話メモリをコミュニケーションインフラの内部に組み込む必要があると指摘されています。Twilioはこうした次世代の顧客データ基盤の構築を推進しています。

NVIDIAはNemotron 3ファミリーを発表し、エージェントAIの微調整に最適化されたオープンモデルとライブラリを提供しました。GeForce RTXラップトップからDGX Sparkまで幅広いNVIDIA GPUで動作します。

Unslothを使ったLoRA/QLoRAによるファインチューニングは、フルパラメータ更新より少ないメモリと時間でモデルを特定タスクへ特化させる手法です。製品サポートや個人アシスタントなどの用途で小型言語モデルの精度を高める実用的なアプローチとして注目されています。

LangChain、複雑なAIエージェントの解析・修正を自動化

AIがログ解析・修正提案

膨大な実行ログからエラー原因を特定
自然言語でプロンプト修正案を自動生成

CLIで開発フローを統合

ターミナルからトレースデータを直接取得
ログをコーディングAIに渡し修正を自動化

複雑なエージェント開発を支援

数百ステップに及ぶ長時間処理を可視化
人手困難な解析作業をAIが代替

LangChainは10日、LLMアプリ開発プラットフォーム「LangSmith」にて、自律型AIエージェントデバッグを支援する新機能「Polly」と「Fetch」を発表しました。複雑化するAI開発において、エンジニアの負担を劇的に軽減し、生産性を高めるツールとして注目されます。

近年のAIエージェントは数百のステップを経て数分間稼働するなど複雑化し、「ディープエージェント」と呼ばれます。その結果、膨大な実行ログの中からエラー原因や非効率な挙動を人間が目視で特定することが極めて困難になり、開発のボトルネックとなっていました。

新機能の「Polly」は、ログ画面に常駐するAIアシスタントです。「どこで間違えたか」「より効率的な方法はないか」とチャットで問うだけで、AIが膨大なトレースを解析し回答します。さらに、改善点に基づきシステムプロンプトの具体的な修正案も提示します。

同時に発表されたCLIツール「Fetch」は、ターミナルやIDEでの開発を加速します。直近の実行ログをコマンド一つで取得し、Claude CodeなどのコーディングAIに直接パイプすることで、原因究明からコード修正までを半自動化するワークフローを実現します。

従来、多くの時間を要していたログ解析作業をAIに任せることで、エンジニアは本質的なロジック構築やアーキテクチャ設計に集中できます。これらのツールは、高度なAIエージェント開発の生産性と品質を同時に高める強力な武器となるでしょう。

AI実用化の鍵「エージェントエンジニアリング」の全貌

従来開発との決定的な違い

入出力が予測不能な非決定論的システム
「出荷」はゴールでなく学習の手段
無限の入力パターンが存在

求められる3つのスキル

振る舞いを定義するプロダクト思考
実行基盤を作るエンジニアリング
性能を測定するデータサイエンス

成功への反復サイクル

構築・テスト・出荷・観察のループ
本番データに基づく迅速な改善

LangChainは2025年12月、AIエージェント開発における新たな規律「エージェントエンジニアリング」を提唱しました。LinkedInやCloudflareなど、実用的なエージェント導入に成功している企業は、従来のソフトウェア開発手法ではなく、非決定論的なAIの挙動を前提としたこの新しいアプローチを採用し始めています。

従来のソフトウェアは入力と出力が定義可能でしたが、AIエージェントはユーザーがあらゆる入力をし得るため、その挙動は無限かつ予測不可能です。「開発環境では動くが本番では動かない」という乖離が激しく、従来のデバッグ手法やテスト計画だけでは品質を保証できないのが現実です。

そこで提唱されるのが、プロダクト思考、エンジニアリング、データサイエンスを融合させた「エージェントエンジニアリング」です。これは特定の職種を指すのではなく、プロンプト設計、インフラ構築、性能測定といった異なるスキルセットを組み合わせ、チーム全体でAIの信頼性を高める取り組みを指します。

最大の特徴は「出荷(Ship)」の位置づけが変わることです。完璧な状態でのリリースを目指すのではなく、「出荷して学ぶ」ことを重視します。本番環境での実際の対話データやツールの使用状況を観察(Observe)し、そこから得た洞察をもとにプロンプトやロジックを即座に洗練(Refine)させるのです。

今後、AIが複雑な業務フローを担うにつれ、この「構築・テスト・出荷・観察・改善」の高速サイクルが標準となります。予測不可能なAIを制御し、ビジネス価値を生む信頼性の高いシステムへと昇華させるには、本番環境を最大の教師とし、泥臭く改善を続ける姿勢こそが不可欠です。

DeepAgents CLI、ベンチマークでClaude Codeと同等性能

オープンソースのCLI

Python製のモデル非依存ツール
シェル実行やファイル操作が可能

89タスクでの実力証明

Sonnet 4.5で42.5%を記録
Claude Code同等の性能

隔離環境での厳密な評価

Harborで隔離環境を構築
大規模な並列テストに対応

LangChainは、自社のDeepAgents CLIが評価指標Terminal Bench 2.0において約42.5%のスコアを記録したと発表しました。この数値はClaude Codeと同等の水準であり、エンジニアにとって有力な選択肢となります。オープンソースかつモデル非依存のエージェントとして、実環境での高い運用能力と将来性が実証された形です。

DeepAgents CLIは、Pythonで記述された端末操作型のコーディングエージェントです。特定のLLMに依存せず、ファイル操作やシェルコマンド実行、Web検索などを自律的に行います。開発者の承認を経てコード修正を行うため、安全性も考慮されています。

今回の評価には、89の実践的タスクを含むTerminal Bench 2.0が使用されました。ソフトウェア工学からセキュリティまで多岐にわたる分野で、エージェントが端末環境を操作する能力を測定します。複雑なタスクでは100回以上の操作が必要となります。

評価の信頼性を担保するため、Harborというフレームワークが採用されました。DockerやDaytonaなどの隔離されたサンドボックス環境でテストを行うことで、前回のテストの影響を排除し、安全かつ大規模な並列実行を実現しています。

今回の結果により、DeepAgents CLIがコーディングエージェントとして強固な基盤を持つことが証明されました。LangChainは今後、エージェントの挙動分析や最適化を進め、さらなる性能向上を目指す方針です。

LangChain流「AIエージェント評価」5つの鉄則

複雑な自律AIに必須の検証手法

データごとに成功基準を定義し個別検証
シングルステップで意思決定を単体テスト
フルターンで最終成果物と軌跡を確認

効率的なテスト戦略と環境構築

条件分岐でマルチターン対話を再現
テスト毎にクリーンな環境へリセット
外部APIはモック化しコスト削減

LangChainは12月3日、自律型AI「Deep Agents」の開発を通じて得られた評価手法の知見を公開しました。従来の単発的なLLM評価とは異なり、長期的なタスクを遂行するエージェントには、状態や行動履歴を含めた多層的な検証が不可欠であると結論付けています。

従来の画一的な評価に対し、Deep Agentsにはデータポイントごとに個別のテストロジックが必要です。「特定のファイルを正しく更新したか」といった具体的な成功基準を設け、エージェントの行動(Trajectory)と内部状態の変化をコードベースで精密に検証します。

検証コストを下げるため、一連の動作を完了させる前に「次の1手」だけを確認するシングルステップ評価が有効です。これにより、特定の状況下で正しいツールを選択したかをユニットテストのように高速に確認でき、問題の早期発見とデバッグが可能になります。

実運用に近い評価には、対話の分岐を考慮したマルチターン評価や、テスト毎に環境を初期化するサンドボックスが重要です。外部API通信をモック化して再現性を担保するなど、エンジニアは堅牢な評価基盤(Evals)の構築に注力すべきです。

LangSmith、対話で作れる自律AI構築機能を一般公開

チャットで自律エージェント開発

会話のみでノーコード開発
動的な判断でタスクを自律完遂
詳細プロンプト自動生成

社内ツール連携とチーム共有

MCP社内システムと接続
APIで既存ワークフロー統合
チーム内での共有と再利用

LangChainは2025年12月2日、コーディング不要で実用的なAIエージェントを作成できる「LangSmith Agent Builder」をパブリックベータ版として公開しました。従来の固定的な手順書型とは異なり、チャットで指示するだけで、自律的に判断・実行する高度なエージェントを誰でも短時間で構築・展開できる点が画期的です。

最大の特徴は、エンジニアでなくとも対話形式で開発が完結する点です。ユーザーの曖昧なアイデアから、システムが自動で詳細なプロンプトを作成し、必要なツールを選定します。これにより、現場の担当者が自ら業務特化型AIを作ることが可能です。

従来の手順型自動化とは異なり、このエージェントは状況に応じて動的に計画を修正しながらタスクを遂行します。複雑な調査や分析など、事前に手順を定義しきれない業務でも、エージェントが試行錯誤を繰り返して目的を達成するため、生産性が向上します。

企業利用を見据え、拡張性も強化されました。MCPサーバーを介して社内データやAPIと安全に接続できるほか、作成したエージェントをAPI経由で呼び出すことも可能です。また、タスクに応じてOpenAIAnthropicなどのモデルを選択できます。

先行ユーザーにより、営業リサーチやチケット管理など多岐にわたる事例が生まれています。チーム内でテンプレートを共有し、個々のニーズに合わせて微調整することで、開発リソースを使わずに組織全体の業務効率化を加速させることができます。

LangChain、自律エージェントに「Skills」機能実装

ファイルシステム活用の新潮流

Anthropic提唱のSkillsに対応
マークダウン形式で動的に指示を読込
汎用エージェントツール数削減に寄与
シェル操作と連携し多様なタスク実行

コンテキスト効率と拡張性の向上

トークン消費を抑えコンテキスト節約
エージェント認知負荷を大幅軽減
CLIでフォルダ配置だけで機能拡張
エージェント自身によるスキル生成も視野

LangChainは2025年11月25日、オープンソースの自律エージェント基盤「Deep Agents」に対し、Anthropicが提唱する「Skills」機能を追加したと発表しました。これにより、エージェントは外部ファイルとして定義された手順書やスクリプトを必要に応じて動的に読み込み、複雑なタスクを効率的に実行することが可能になります。

Claude CodeManusといった最新の汎用エージェントは、個別の専用ツールを多数装備するのではなく、ファイルシステムへのアクセス権とコマンド実行という「少数の強力な手段」で多様な作業をこなす傾向にあります。今回実装された「Skills」はこの潮流を体系化したもので、`SKILL.md`を含むフォルダ単位で能力をモジュール管理する仕組みです。

従来のツール定義(Function Calling)はすべての情報を常にプロンプトに含めるためトークンを大量消費していましたが、Skillsは概要のみを提示し、詳細は実行が必要な時だけ読み込む「プログレッシブ・ディスクロージャー」を採用しています。これにより、コンテキストウィンドウの消費を劇的に抑え、より長い文脈での推論を可能にします。

この仕組みは、ツール選択肢の過多によるエージェントの「コンテキストの混乱」を防ぎ、認知負荷を低減する効果もあります。ユーザーは`deepagents-CLI`の所定フォルダにスキルセットを配置するだけで機能を拡張でき、将来的にはエージェント自身が新しいスキルを作成・共有する「継続的な学習」への発展も期待されています。

AIエージェントのコンテキスト制御はファイルシステムで進化する

既存の検索とコンテキストの課題

検索結果過多によるトークンコストの増大
ウィンドウサイズを超える情報量の欠落
意味検索では拾えないニッチ情報の検索

ファイルシステム活用の利点

結果を一時保存し必要な箇所のみ抽出
grep等の活用で正確な情報特定
指示やスキルを保存し継続的に学習

LangChainは、AIエージェントがファイルシステムを操作することで、性能を飛躍的に高める手法を解説しました。これは「コンテキストエンジニアリング」の核心であり、コスト削減と精度向上を両立する重要な鍵となります。

従来のウェブ検索ツール等は大量のトークンを消費し、LLMの容量やコストを圧迫していました。また、意味検索だけでは、コード内の特定の行や正確な設定値といったニッチな情報を見つけ出すことが困難な場合もあります。

ファイルシステムを一時的な「メモ帳」として使えば、数万トークンの検索結果を保存し、必要な情報だけをコマンドで抽出可能です。これにより、会話履歴を汚さずにコストを大幅に抑制し、効率的な処理を実現します。

さらに、エージェントは自身の計画や学んだスキルをファイルに書き出せます。これにより、長期的なタスク実行時の記憶保持や、ユーザーの好みに合わせた自己進化が可能になり、将来の対話においても有用な情報を参照できます。

ファイルシステムは単なる保存場所ではなく、エージェントが無限の情報を柔軟に扱うためのインターフェースです。これを活用することで、エンジニアはより複雑で信頼性の高い自律型エージェントを構築できるようになります。

独JimdoがLangChain採用、個人事業主の注文数が40%増

課題と技術的アプローチ

人事業主の専門知識不足を解決
LangGraphで文脈認識AIを構築
10以上のデータを統合分析

導入効果と今後の展望

初成約の達成率が50%向上
注文や問い合わせが40%増加
提案から実行の自動化へ進化

ドイツのWebサイト作成サービスJimdoは、LangChainを活用したAI「Jimdo Companion」を開発しました。個人事業主が抱える集客や運営の課題に対し、10以上のデータソースを分析して最適な行動を提案します。このAI導入により、ユーザーの注文数が40%増加するなど顕著な成果を上げています。

多くの個人事業主はWebサイトを作成できても、SEOやマーケティングの専門知識が不足しています。その結果、トラフィックやコンバージョンを伸ばせず、効果的な施策を打てないという課題がありました。

開発チームはLangGraph.jsを採用し、状況に応じて動的に判断するAIを構築しました。ユーザーのビジネス状況や過去の行動履歴といった文脈を保持しつつ、複数の分析を並行して実行できる点が特徴です。

「Companion Assistant」はユーザーのブランドトーンを学習し、SEOや予約管理などを支援します。ダッシュボードでは、次に優先すべきアクションを具体的に提示し、意思決定をサポートします。

導入効果は明確で、AI利用者は利用しない層に比べて最初の顧客獲得率が50%高くなりました。単なる集客増だけでなく、提供価値の明確化や価格設定の最適化にも貢献しています。

AIの信頼性を担保するため、LangSmithを用いて回答精度や遅延を監視しています。評価プロセスを確立することで、継続的なプロンプトの改善やバグ修正の迅速化を実現しました。

今後は「アドバイス」から「実行」の自動化へ進化します。設定や最適化を自律的に行うエージェント群を強化し、個人事業主がビジネスの本質に集中できるプラットフォームを目指します。

ServiceNow、AIエージェント連携で顧客体験を革新

散在するエージェントの課題

部署ごとに断片化したAIエージェント
顧客体験の一貫性の欠如

LangChainによる高度な連携

LangGraphで複雑な連携を構築
LangSmith挙動を可視化デバッグ
人間が開発に介在し効率化

厳格な評価と今後の展望

独自の評価基準で性能を測定
成功例から品質データを自動生成
本番稼働後の継続的な監視

デジタルワークフロー大手のServiceNowが、セールスとカスタマーサクセス業務の変革を目指し、LangChainのツール群を活用したマルチエージェントシステムを開発しています。顧客獲得から契約更新まで、一貫した顧客体験を提供することが狙いです。本記事では、その先進的なアーキテクチャと開発手法を解説します。

これまで同社では、AIエージェントが各部署に散在し、顧客のライフサイクル全体を横断する複雑なワークフローの連携が困難でした。この「エージェントの断片化」が、一貫性のある顧客対応を提供する上での大きな障壁となっていたのです。

この課題を解決するため、ServiceNowは顧客ジャーニー全体を統括するマルチエージェントシステムを構築しました。リード獲得、商談創出、導入支援、利用促進など各段階を専門エージェントが担当し、スーパーバイザーエージェントが全体を指揮する構成です。

システムの核となるエージェント間の連携には、LangGraphが採用されました。これにより、複雑な処理をモジュール化して組み合わせることが可能になりました。また、開発者が途中で処理を停止・再開できる機能は、開発効率を劇的に向上させました。

一方、エージェントの挙動監視とデバッグにはLangSmithが不可欠でした。各ステップの入出力や遅延、トークン数を詳細に追跡できるため、問題の特定が容易になります。これにより、開発チームはエージェントのパフォーマンスを正確に把握し、改善を重ねることができました。

品質保証の仕組みも高度です。LangSmith上で、エージェントのタスクごとに独自の評価基準を設定。さらに、LLMを判定者として利用し、出力の精度を評価します。基準を満たした成功例は「ゴールデンデータセット」として自動で蓄積され、将来の品質低下を防ぎます。

システムは現在、QAエンジニアによるテスト段階にあります。今後は本番環境でのリアルタイム監視に移行し、収集したデータで継続的に品質を向上させる計画です。ServiceNowのこの取り組みは、AIを活用した顧客管理の新たな標準となる可能性を秘めています。

LangChain、安全なコード実行サンドボックス発表

AIエージェント開発の課題

悪意あるコード実行のリスク
開発環境の複雑化と汚染
複数エージェントの並列実行
長時間タスクによるPC占有

サンドボックスがもたらす価値

隔離環境で安全なコード実行
クリーンな環境を即時構築
リソース競合なく並列処理
チーム間で実行環境を統一

LangChain社が、AIエージェント開発プラットフォーム「DeepAgents」向けに、生成されたコードを安全に実行するための新機能「Sandboxes」を発表しました。この機能は、Runloop、Daytona、Modalの3社と提携し、ローカルマシンから隔離されたリモート環境でコードを実行することで、悪意のあるコードによるリスクを排除します。開発者は安全性と環境の再現性を両立できます。

なぜサンドボックスが必要なのでしょうか。AIエージェントは自律的にコードを生成・実行するため、意図せずシステムに損害を与える危険性がありました。また、開発環境に特定のライブラリを追加する必要があるなど、環境構築の複雑化も課題でした。サンドボックスは、こうした安全性や環境汚染の問題を解決し、クリーンで一貫性のある実行環境を提供します。

DeepAgent自体は開発者のローカルマシンなどで動作しますが、コードの実行やファイルの作成といった命令はリモートのサンドボックス内で行われます。エージェントはサンドボックス内のファイルシステムやコマンド出力を完全に把握できるため、あたかもローカルで作業しているかのように、自然な対話と修正を繰り返すことが可能です。

導入は非常に簡単です。提携するサンドボックスサービスのアカウントを作成し、APIキーを環境変数として設定します。その後、DeepAgentsのコマンドラインツール(CLI)で簡単なコマンドを実行するだけで、サンドボックスをエージェントに接続し、利用を開始できます。セットアップスクリプトで環境の事前準備も可能です。

サンドボックスは強力ですが、万能ではありません。悪意のあるプロンプト入力によって機密情報が漏洩する「プロンプトインジェクション」のリスクは残ります。対策として、人間による監視(Human-in-the-loop)や、有効期間の短いAPIキーを使うなどの対策が推奨されています。

LangChainは今後、サンドボックスの設定オプションをさらに拡充し、実際の業務で活用するための具体例を共有していく計画です。AIエージェントがより安全かつ強力なツールとしてビジネスの現場で活用される未来に向け、開発者コミュニティと共に機能を進化させていく方針です。

LangChain、人の思考模倣でAI精度向上

ベクトル検索手法の限界

文書構造を壊すチャンキング
頻繁な再インデックスの手間
引用元が不明確になる問題

新アプローチの核心

人間の思考を模倣したワークフロー
API経由での直接データアクセス
複雑な問合せに対応するDeep Agent

AI開発フレームワークを提供するLangChain社が、自社のサポート用チャットボット「Chat LangChain」を再構築しました。従来のベクトル検索ベースの手法では社内エンジニアの複雑なニーズに応えられず、利用されていなかったためです。新しいアプローチでは、エンジニアの調査プロセスを模倣した「Deep Agent」アーキテクチャを採用し、回答の精度と信頼性を劇的に向上させました。

なぜ従来のチャットボットは使われなかったのでしょうか。その原因は、一般的な文書検索で用いられるベクトル埋め込み手法の限界にありました。文書を断片化(チャンキング)するため文脈が失われ、頻繁な更新には再インデックスが必要でした。さらに、引用元が曖昧で、ユーザーは回答の正しさを検証するのが困難でした。

そこで同社が注目したのは、熟練エンジニアの思考プロセスです。彼らは問題解決の際、①公式ドキュメント、②ナレッジベース、③ソースコード、という3つの情報源を順に参照していました。この人間のワークフローをそのまま自動化するアプローチを採用。各情報源に特化した「サブエージェント」が調査し、その結果を統括役の「Deep Agent」が集約して最適な回答を生成します。

この新アーキテクチャの強みは、文脈の過負荷を防ぐ点にあります。各サブエージェントは独立して動作し、膨大な情報から最も重要なエッセンスのみを抽出します。これにより、統括エージェントは整理された情報に基づいて最終的な回答を合成できるため、ノイズに惑わされることなく、深く、的確な回答が可能になります。

この事例は、AIエージェント開発における重要な教訓を示唆しています。それは「最適なワークフローを模倣せよ」ということです。ベクトル検索は非構造化データには有効ですが、構造化されたドキュメントやコードには不向きな場合があります。ユーザーの実際の行動を観察し、その思考プロセスを自動化することが、真に役立つAIを構築する鍵となるでしょう。

LangChain、誰でもAIエージェントを開発できる新ツール

ノーコードで誰でも開発

開発者でも対話形式で構築
従来のワークフロービルダーと一線
LLMの判断力で動的に応答
複雑なタスクをサブエージェントに分割

連携と自動化を加速

Gmail等と連携するツール機能
イベントで起動するトリガー機能
ユーザーの修正を学習する記憶機能
社内アシスタントとして活用可能

AI開発フレームワーク大手のLangChainは10月29日、開発者以外のビジネスユーザーでもAIエージェントを構築できる新ツール「LangSmith Agent Builder」を発表しました。このツールは、プログラミング知識を必要としないノーコード環境を提供し、対話形式で簡単にエージェントを作成できるのが特徴です。組織全体の生産性向上を目的としています。

新ツールの最大の特徴は、従来の視覚的なワークフロービルダーとは一線を画す点にあります。あらかじめ決められた経路をたどるのではなく、大規模言語モデル(LLM)の判断能力を最大限に活用し、より動的で複雑なタスクに対応します。これにより、単純な自動化を超えた高度なエージェントの構築が可能になります。

エージェントは主に4つの要素で構成されます。エージェントの論理を担う「プロンプト」、GmailSlackなど外部サービスと連携する「ツール」、メール受信などをきっかけに自動起動する「トリガー」、そして複雑なタスクを分割処理する「サブエージェント」です。これらを組み合わせ、目的に応じたエージェントを柔軟に設計できます。

開発のハードルを大きく下げているのが、対話形式のプロンプト生成機能です。ユーザーが自然言語で目的を伝えると、システムが質問を重ねながら最適なプロンプトを自動で作成します。さらに、エージェント記憶機能を備えており、ユーザーによる修正を学習し、次回以降の応答に反映させることができます。

具体的な活用例として、メールやチャットのアシスタントSalesforceとの連携などが挙げられます。例えば、毎日のスケジュールと会議の準備資料を要約して通知するエージェントや、受信メールの内容に応じてタスク管理ツールにチケットを作成し、返信案を起草するエージェントなどが考えられます。

LangSmith Agent Builder」は現在、プライベートプレビュー版として提供されており、公式サイトからウェイトリストに登録できます。同社は、オープンソースのLangChainやLangGraphで培った知見を活かしており、今後もコミュニティの意見を取り入れながら機能を拡張していく方針です。

LangChain、DeepAgents 0.2公開 長期記憶を実装

DeepAgents 0.2の進化

プラグイン可能なバックエンド導入
ローカルやS3を長期記憶に活用
大規模なツール結果の自動退避機能
会話履歴の自動要約で効率化

各ライブラリの役割

DeepAgents: 自律エージェント用ハーネス
LangChain: コア機能のフレームワーク
LangGraph: ワークフローランタイム
3つのライブラリは階層構造で連携

AI開発フレームワークのLangChainは2025年10月28日、自律型AIエージェント構築用のパッケージ「DeepAgents」のバージョン0.2を公開しました。複雑なタスクを長時間実行できるエージェント開発を加速させることが目的です。最大の目玉は、任意のデータストアを「ファイルシステム」として接続できるプラグイン可能なバックエンド機能で、エージェントの長期記憶や柔軟性が大幅に向上します。

これまでDeepAgentsのファイルシステムは、LangGraphのステートを利用した仮想的なものに限定されていました。しかし新バージョンでは、「Backend」という抽象化レイヤーが導入され、開発者はローカルのファイルシステムやクラウドストレージなどを自由に接続できるようになりました。これにより、エージェントがアクセスできるデータの範囲と永続性が飛躍的に高まります。

特に注目すべきは、複数のバックエンドを組み合わせる「コンポジットバックエンド」です。例えば、基本的な作業領域はローカルを使いつつ、「/memories/」のような特定のディレクトリへの操作だけをクラウドストレージに振り分ける設定が可能。これにより、エージェントはセッションを越えて情報を記憶・活用する長期記憶を容易に実装できます。

バージョン0.2では、バックエンド機能の他にも実用的な改善が多数追加されました。トークン数が上限を超えた場合に、ツールの大規模な実行結果を自動でファイルに退避させたり、長くなった会話履歴を要約したりする機能です。これにより、長時間稼働するエージェントの安定性とリソース効率が向上します。

LangChainは今回、`DeepAgents`を「エージェントハーネス」、`LangChain`を「フレームワーク」、`LangGraph`を「ランタイム」と位置づけを明確にしました。それぞれが階層構造で連携しており、開発者はプロジェクトの目的に応じて最適なライブラリを選択することが推奨されます。自律性の高いエージェント開発にはDeepAgentsが最適です。

LangChain提唱、AIエージェント開発の3分類

3つの新たなツール分類

開発を抽象化するフレームワーク
本番実行を支えるランタイム
即戦力の多機能ツール群ハーネス
代表例はLangChain、LangGraph

階層構造と使い分け

ハーネス > フレームワーク > ランタイム
開発フェーズに応じたツール選択が鍵
複雑な開発を整理する思考の枠組み

AI開発ツール大手のLangChain社が、AIエージェント開発ツールを「フレームワーク」「ランタイム」「ハーネス」の3つに分類する新たな概念を提唱しました。これは、乱立する開発ツール群を整理し、開発者がプロジェクトの目的やフェーズに応じて最適なツールを選択しやすくするための「思考の枠組み」を提供するものです。本記事では、それぞれの定義と役割、そして適切な使い分けについて解説します。

まず「フレームワーク」は、開発の抽象化と標準化を担います。代表例は同社の「LangChain」で、開発の初期段階で迅速にプロトタイプを構築するのに役立ちます。一方で、抽象化が進むことで内部動作が不透明になり、高度なカスタマイズが難しい場合があるという課題も指摘されています。

次に「ランタイム」は、エージェント本番環境で安定して実行するための基盤です。「LangGraph」がこれに該当し、耐久性のある実行や人間による介入(ヒューマン・イン・ザ・ループ)など、インフラ層の機能を提供します。フレームワークよりも低レベルな層で動作し、堅牢なアプリケーションの構築を支えます。

最後に「ハーネス」は、フレームワークよりさらに高レベルな、「すぐに使える」多機能パッケージを指します。同社の新プロジェクト「DeepAgents」がその一例で、デフォルトのプロンプトやツールが予め組み込まれています。特定のタスクに特化した「即戦力」として、迅速な開発と導入が可能です。

これら3つは、ハーネスがフレームワーク上に構築され、フレームワークがランタイム上で動作するという階層関係にあります。開発者は、迅速な試作ならフレームワーク本番運用ならランタイム特定用途ですぐに使いたいならハーネス、というように目的応じて使い分けることが重要になるでしょう。

この分類はまだ黎明期にあり定義も流動的ですが、AIエージェント開発の複雑性を理解する上で非常に有用な思考の枠組みと言えます。自社の開発プロジェクトがどの段階にあり、どのツールが最適かを見極めるための一助となるのではないでしょうか。

LangSmith、AIエージェントの本番監視・評価を強化

利用状況を自動で可視化

膨大な利用ログを自動分類
ユーザーの意図をパターン化
失敗原因の特定を支援

対話全体の成否を評価

複数回のやり取り全体を評価
ユーザー目的の達成度を測定
LLMによる自動スコアリング

LangChain社が、LLMアプリ開発基盤「LangSmith」にAIエージェントの監視・評価を強化する新機能を追加しました。2025年10月23日に発表された「Insights Agent」と「Multi-turn Evals」です。これにより開発者は、本番環境でのユーザーの利用実態を深く理解し、エージェントの品質向上を加速できます。

AIエージェントが本番投入される事例が増える一方、その品質評価は大きな課題でした。従来の監視手法では、単なる稼働状況しか分からず、エージェントが「ユーザーの真の目的」を達成できたかまでは把握困難でした。膨大な対話ログの全てに目を通すのは非現実的です。

新機能「Insights Agent」は、この課題に応えます。本番環境の膨大な利用ログをAIが自動で分析し、共通の利用パターンや失敗モードを抽出。「ユーザーは何を求めているか」「どこで対話が失敗しているのか」をデータに基づき把握でき、改善の優先順位付けが格段に容易になります。

もう一つの新機能「Multi-turn Evals」は、複数回のやり取りからなる対話全体を評価します。個々の応答の正しさだけでなく、一連の対話を通じてユーザーの最終目的が達成されたかを測定。LLMを評価者として活用し、対話の成否を自動でスコアリングできるのが特徴です。

これら2つの機能を組み合わせることで、開発サイクルは劇的に変わるでしょう。「Insights Agent」で"何が起きているか"を把握し、「Multi-turn Evals」で"それが成功か"を測定する。この本番データに基づいた高速な改善ループこそが、信頼性の高いエージェントを構築する鍵となります。

LangChain社は、エージェント開発における「本番投入後の改善」という重要課題に正面から取り組みました。今回の新機能は、開発者実世界のデータから学び、迅速に製品を改良するための強力な武器となるでしょう。今後の機能拡充にも期待が高まります。

LangChain v1.0公開、開発速度と本番運用を両立

LangChain: 柔軟性と速度

新機能`create_agent`で高速開発
エージェントループをミドルウェアで制御
パッケージを簡素化しコア機能に集中
モデル非依存の標準コンテンツ出力

LangGraph: 堅牢性と制御

永続的状態管理で中断からの再開
人間による介入(HITL)を標準支援
複雑なワークフローをグラフで構築
本番環境での長期運用に最適化

AI開発フレームワークを手がけるLangChain社は2025年10月22日、主要ライブラリ「LangChain」と「LangGraph」のバージョン1.0を正式リリースしました。今回の更新は、開発者のフィードバックを反映し、APIの安定性を約束するとともに、本番環境での利用を容易にすることを目的としています。LangChainはミドルウェア導入で柔軟性を、LangGraphは永続化機能で堅牢性を高め、開発の迅速性とシステムの信頼性を両立させます。

LangChain 1.0の最大の目玉は、エージェント開発を高速化する新機能`create_agent`です。これはLangGraphの堅牢なランタイム上で動作します。さらに「ミドルウェア」という新概念が導入され、エージェントの実行ループの各段階で、人間による承認や個人情報のマスキングといったカスタム処理を簡単に追加できるようになりました。これにより、柔軟な制御が可能になります。

LangGraph 1.0は、本番環境で長期稼働する、信頼性の高いAIエージェントの構築に焦点を当てています。最大の特徴は永続的な状態管理機能です。これにより、システムが中断しても会話の文脈を失うことなく、処理を正確に再開できます。また、人間が介入して監視・承認を行う「ヒューマン・イン・ザ・ループ」のパターンもネイティブでサポートし、重要な意思決定を伴う業務にも対応します。

2つのフレームワークはどう使い分けるべきでしょうか。LangChainは、標準的なパターンですばやくエージェントを構築したい場合に最適です。一方、LangGraphは、複数の処理が絡み合う複雑なワークフローや、コストとレイテンシを厳密に管理したい場合に強みを発揮します。重要なのは、両者がシームレスに連携できる点です。LangChainで始め、必要に応じてLangGraphの低レベルな制御へと移行できます。

今回のv1.0リリースは、APIの安定性への強いコミットメントを示すものです。バージョン2.0まで破壊的変更を行わない方針が明言されており、開発者は安心して長期的なプロジェクトに採用できます。合わせてドキュメントサイトも刷新され、PythonとJavaScriptのドキュメントが統合されました。これにより、開発者はより効率的に学習を進めることが可能になります。

LangChain、評価額1900億円でユニコーン入り

驚異的な成長スピード

2022年にOSSとして始動
23年4月にシードで1000万ドル調達
1週間後にシリーズAで2500万ドル調達
評価額1年半で6倍以上

AIエージェント開発基盤

LLMアプリ開発の課題を解決
Web検索やDB連携を容易に
GitHubスターは11.8万超
エージェント構築基盤へと進化

AIエージェント開発のオープンソース(OSS)フレームワークを提供するLangChainが10月21日、1億2500万ドル(約187億円)の資金調達を発表しました。これにより、同社の評価額は12億5000万ドル(約1900億円)に達し、ユニコーン企業の仲間入りを果たしました。今回のラウンドはIVPが主導し、新たにCapitalGやSapphire Venturesも参加。AIエージェント構築プラットフォームとしての進化を加速させます。

同社の成長は驚異的です。2022年にOSSプロジェクトとして始まった後、2023年4月にBenchmark主導で1000万ドルのシードラウンドを、そのわずか1週間後にはSequoia主導で2500万ドルのシリーズAラウンドを完了。当時2億ドルと報じられた評価額は、わずか1年半余りで6倍以上に跳ね上がったことになります。

LangChainは、初期の大規模言語モデル(LLM)を用いたアプリ開発における課題を解決し、一躍注目を集めました。Web検索、API呼び出し、データベースとの対話といった、LLMが単体では不得手な処理を容易にするフレームワークを提供。開発者から絶大な支持を得ており、GitHubでのスター数は11.8万を超えています。

最先端のモデルメーカーがインフラ機能を強化する中で、LangChainも単なるツールからプラットフォームへと進化を遂げています。今回の発表に合わせ、エージェントビルダーの「LangChain」やオーケストレーションツール「LangGraph」など主要製品のアップデートも公開。AIエージェント開発のハブとしての地位を確固たるものにしています。

AIが医療データを可視化・分析

活用技術

Amazon BedrockのAI基盤
LangChainで文書処理
StreamlitでUI構築

主な機能

自然言語での対話的分析
データの動的可視化機能
複数のAIモデル選択可能

導入のポイント

Guardrailsでの利用制限

AWSは、Amazon BedrockやLangChain、Streamlitを活用した医療レポート分析ダッシュボードを開発しました。自然言語での対話と動的な可視化を通じて、複雑な医療データの解釈を支援します。

このソリューションは、Amazon BedrockのAI基盤、LangChainの文書処理、StreamlitのUI技術を組み合わせています。これにより、医療データへのアクセスと分析が容易になります。

ユーザーはダッシュボード上で自然言語で質問すると、AIがレポート内容を解釈して回答します。健康パラメータの推移を示すグラフによる可視化機能も搭載されています。

このシステムの強みは、会話の文脈を維持しながら、継続的な対話分析を可能にする点です。これにより、より深く、インタラクティブなデータ探索が実現します。

医療データを扱う上で、セキュリティコンプライアンスは不可欠です。実運用では、データ暗号化やアクセス制御といった対策が求められます。

特にAmazon Bedrock Guardrailsを設定し、AIによる医療助言や診断を厳しく制限することが重要です。役割はあくまでデータ分析と解釈に限定されます。

この概念実証は、生成AIが医療現場の生産性と意思決定の質を高める大きな可能性を秘めていることを示しています。

LangChain CEO提言:AIシステム開発はノーコードかコードかの二極構造へ

ワークフローとエージェント

ワークフロー予測可能性を優先する
エージェント自律性・抽象化を優先する
VWBは実際はエージェントではなくワークフロー構築

ビジュアルビルダーの欠点

非技術者にとって導入障壁は低いとは限らない
複雑化するとUIでの管理が破綻

最適解の二極化戦略

低複雑度:シンプルで信頼性の高いノーコードエージェント
高複雑度:分岐・並列処理にはコードによるワークフロー
コード生成の進化が高複雑度の敷居を下げる

AIフレームワーク大手LangChainのハリソン・チェイスCEOは、OpenAIなどが参入する「ビジュアルワークフロービルダー(VWB)」市場に対して、懐疑的な見解を示しました。同氏は、VWBは真の「エージェントビルダー」ではなく、将来的にその役割は「シンプルなノーコードエージェント」と「コードによる高複雑度ワークフロー」の二極に分化し、VWBは淘汰されると提言しています。

VWBは非技術者によるAI構築を目的としていますが、チェイス氏はこの導入障壁が低いという前提を否定します。複雑なタスクを扱う場合、すぐにノード(要素)とエッジ(接続)が絡み合い、UI上での管理が極めて困難になります。特に、高い信頼性が求められるシステム設計においては、VWBは実用的な選択肢とはなり得ないのが現状です。

AIシステムの構築において、予測可能性が高いが自律性に欠けるものが「ワークフロー」、自律性が高いが予測しにくいのが「エージェント」です。VWBは基本的に複雑な処理の経路を視覚化する「ワークフロー」であり、真の自律的なエージェント構築には適していません

今後のAIシステム開発の最適解は、複雑性に応じて二極化します。低複雑度のユースケースでは、プロンプトとツールのみで構成されるシンプルなノーコードエージェントが主流になります。モデルの性能向上に伴い、エージェントが対応可能なタスクの範囲は拡大すると予想されます。

一方、高度な分岐ロジックや並列処理を必要とする高複雑度のタスクには、やはり「コードによるワークフロー」が不可欠です。LangChainが開発するLangGraphなどがこれに当たります。しかし、コード生成コストがゼロに近づくことで、非技術者でもこの領域に参入しやすくなると期待されています。

LangChainは、すでに存在するVWBに追従せず、よりシンプルなノーコードエージェントの作成支援と、LLMによる高品質なワークフローコード生成の改善に注力すべきだと結論づけています。これは、AI開発ツール市場における明確な戦略転換を意味します。