LlamaIndex(プロダクト)に関するニュース一覧

DataRobotとNebiusがAIエージェント基盤で提携

共同基盤の特徴

AI Factoryで数日で本番化
Nebius GPU基盤で低遅延推論実現
トークン従量課金で実験コスト削減
50以上のNIMモデルをワンクリック展開

ガバナンスと運用

OpenTelemetry準拠の監視体制
OAuth 2.0とRBACによる統合認証
Workload APIで任意コンテナ展開
コンプライアンス自動レポート生成

DataRobotNebiusは、企業向けAIエージェントの開発・運用・ガバナンスを加速する共同ソリューション「AI Factory for Enterprises」を発表しました。従来数カ月かかっていたエージェントの本番化を数日に短縮することを目指します。

NebiusはAI専用設計GPUクラウド基盤を提供し、H100からGB300 NVL72まで最新のNVIDIA GPUを搭載しています。汎用クラウドで課題となる「ノイジーネイバー問題」を排除し、ベアメタル性能と予測可能なスループットを実現します。

DataRobotのAgent Workforce Platformは、LangChain・CrewAI・LlamaIndexなど主要フレームワークに対応し、MCPやマネージドRAGも標準搭載しています。独自のノードアーキテクチャツール(NAT)により、YAMLベースでエージェントを構造的に定義・テストできます。

ガバナンス面では、OpenTelemetry準拠のトレーシングによりエージェント実行パスの可視化を実現します。PII検出・プロンプトインジェクション防御・毒性検知などのガードレールを標準装備し、監視データから規制対応文書を自動生成する機能も備えています。

両社は2026年3月16〜19日にサンノゼで開催されるNVIDIA GTC 2026で本ソリューションを展示予定です。NebiusのToken Factoryによる従量課金モデルで実験段階のコストを抑え、本番移行時にはNIM専用デプロイへシームレスに切り替えられる点が、企業の段階的AI導入を後押しします。

Google、マルチモーダル埋め込みモデルGemini Embedding 2を公開

技術的な革新点

テキスト・画像動画音声を単一空間に統合
3072次元の統一ベクトル空間で横断検索
Matryoshka表現学習で次元数を柔軟に調整
中間LLM変換不要でレイテンシ最大70%削減

企業導入と料金体系

Gemini APIとVertex AIの2経路で提供
テキスト・画像動画100万トークン0.25ドル
音声は計算負荷により0.50ドルの倍額設定
LangChainLlamaIndex等主要フレームワーク対応

導入判断の要点

既存コーパスの再インデックスが移行コスト
法務・医療など高精度用途で検索精度20%向上

Googleは2026年3月10日、新しい埋め込みモデル「Gemini Embedding 2」のパブリックプレビューを開始しました。従来のテキスト専用モデルとは異なり、テキスト・画像動画音声・文書を単一のベクトル空間にネイティブ統合する初の本格的マルチモーダル埋め込みモデルです。

最大の技術革新は、動画音声をテキストに変換する中間処理が不要になった点です。従来は動画検索の際にまずテキストへの書き起こしが必要でしたが、本モデルは音声波形や動画の動きを直接理解します。これにより変換時の情報損失がなくなり、クロスモーダル検索が実現しました。

Matryoshka表現学習と呼ばれる技術により、3072次元のフルベクトルから768次元まで柔軟に圧縮でき、精度とストレージコストのバランスを企業が自ら調整できます。法務文書など高精度が求められる用途ではフル次元を、推薦エンジンなどでは圧縮版を使い分けることが可能です。

早期導入パートナーからは顕著な成果が報告されています。クリエイターエコノミー企業Sparkonomyはレイテンシを最大70%削減し、意味的類似度スコアをほぼ倍増させました。法律テック企業Everlawは訴訟証拠開示において、テキスト検索では見逃していた画像動画内の証拠発見に活用しています。

料金はGemini APIでテキスト・画像動画100万トークンあたり0.25ドル音声は0.50ドルです。入力上限はテキスト8192トークン、動画128秒、音声80秒、PDF6ページとなっています。LangChainLlamaIndex、Weaviateなど主要フレームワークとの統合も完了しており、既存ワークフローへの組み込みが容易です。

Google、初のマルチモーダル埋め込みモデル「Gemini Embedding 2」公開

対応モダリティと性能

テキスト・画像動画音声・PDFを統合
8192トークンの大規模コンテキスト対応
100言語以上の意味的理解が可能
テキスト/画像/動画で最高水準の精度

実装と活用事例

Gemini APIとVertex AIでパブリックプレビュー提供
Paramountの動画検索Recall@1が85.3%達成
Sparkonomy社でレイテンシを70%削減
LangChainLlamaIndex等の主要フレームワーク対応

Googleは2026年3月10日、Geminiアーキテクチャを基盤とした初の完全マルチモーダル埋め込みモデル「Gemini Embedding 2」をGemini APIおよびVertex AIでパブリックプレビューとして公開した。

同モデルはテキスト・画像動画音声・PDFドキュメントを単一の統一埋め込み空間にマッピングする。テキストは最大8192トークン、画像は1リクエスト最大6枚、動画は最大120秒に対応しており、RAGや意味検索、感情分析、データクラスタリングなど幅広いユースケースを簡素化する。

柔軟な出力次元を実現するMatryoshka Representation Learning(MRL)技術を採用しており、デフォルト3072次元から1536・768次元へと動的に削減できる。これにより開発者はパフォーマンスとストレージコストのバランスを最適化できる。

早期アクセスパートナーからは顕著な成果が報告されている。Paramount Skydanceは動画資産検索のRecall@1を85.3%に向上させ、Sparkonomy社はLLM推論を排除することでレイテンシを最大70%削減、テキスト・画像間の意味的類似度スコアを0.4から0.8へほぼ2倍に改善した。

同モデルはLangChainLlamaIndex・Haystack・Weaviate・Qdrant・ChromaDB・Vector Searchなど主要なフレームワークおよびベクターデータベースと統合可能であり、既存ワークフローへの最小限の変更での導入が可能だ。

マルチエージェントAIの設計論が実用段階へ、オーケストレーションが鍵に

設計原則と実践

エージェントの「発言」より「協調」が重要
オーケストレーション層の設計が成否を分ける
タスク分割・委任・結果集約のパターン
エラー処理と再試行戦略の重要性
監視・観測可能性の組み込みが必須

企業実装の課題

エージェント間の信頼と権限管理
状態管理と整合性の確保
コストと遅延のトレードオフ
デバッグの複雑性が増す
テスト・評価フレームワークの不足

VentureBeatとa16zのブログが相次いでマルチエージェントAI設計のベストプラクティスを取り上げ、エージェントオーケストレーションが企業AIシステムの中核技術として浮上してきました。個々のエージェントの能力よりも、複数エージェントをどう連携させるかが実用システムの成否を分けるという認識が広まっています。

具体的な設計課題として、エージェント間のタスク委任と結果統合のパターン設計、エラー時の再試行・エスカレーション戦略、状態管理の一貫性確保などが挙げられています。

企業がマルチエージェントシステムを本番環境で運用するためには、可観測性・コスト管理・セキュリティを設計段階から組み込む必要があります。LangChainLlamaIndex、各種クラウドプロバイダーのエージェントフレームワークが競合する市場は急速に成熟しています。

DatabricksのInstructed Retrieverが従来型RAGを凌駕

新しいRAG手法の技術的優位性

DatabricksInstructed Retrieverを発表
指示に従ったデータ取得で従来RAGを超える精度
複雑なクエリや暗黙的な情報ニーズへの対応力
指示チューニングでretrieverを特化させる手法
ベクター検索と組み合わせたハイブリッドアプローチ
DatabricksのUnity Catalogと統合して利用可能

エンタープライズRAGへの応用

企業内ナレッジの精度の高い取得が可能に
従来の「質問に似た文書を探す」から「意図を理解して探す」へ
コンテキスト不明確なクエリでも適切な情報を取得
社内文書・法務・財務データへの応用が期待
Databricksを使う企業のRAGパイプライン改善に直結
既存のLangChainLlamaIndexとの互換性を維持

Databricksは、従来のRAG検索拡張生成)の限界を超える「Instructed Retriever」という新しいデータ取得手法を発表しました。従来のベクター類似検索は「質問に意味的に近い文書を探す」ものでしたが、Instructed Retrieverは明示的な指示に従って意図を理解した上で情報を取得します。

複雑なビジネスクエリや、ユーザーが何を求めているか明示的に伝えていないケースでも、文脈と意図を推定して適切なデータを取得できます。Databricksの統合データプラットフォームUnity Catalogと組み合わせることで、企業全体のデータ資産へのRAGアクセスが改善されます。

エンタープライズRAGの精度は、AIエージェントの有用性に直結する根幹技術であり、この改善はDatabricksを使うデータ・エンジニアリングチームにとって即座に価値が生まれる成果です。競合のSnowflake Cortex AIとの差別化にも貢献します。

エージェントAIの混乱を解消する新フレームワーク登場

複雑化するエージェントエコシステム

ツールとフレームワークの数が爆発的に増加
開発者の選択麻痺が深刻な問題に
LangChain・CrewAI・AutoGenなど乱立
適切なツール選択に明確な基準がない
モデル選択と設計判断が複雑に絡み合う
業界標準の欠如が採用の壁になっている

新フレームワークの整理軸

タスク複雑性に応じた階層分類を提案
シングルエージェントとマルチエージェントの判断基準
オーケストレーションvs直接制御の使い分け
ツール利用・計画・記憶の3軸で評価
研究論文ベースの客観的な比較を提供
実務適用のデシジョンツリーを整備

エージェントAIのエコシステムが爆発的に拡大する中、開発者がどのツールやフレームワークを選べばよいか分からなくなっています。新しい研究が、この「選択麻痺」を解消するための包括的なフレームワークを提案しています。

LangChain、CrewAI、AutoGen、LlamaIndex、そしてカスタムエージェントなど、選択肢の増殖が問題の核心です。各フレームワークは異なる設計哲学を持ち、得意不得意も異なります。まずタスクの複雑性と必要な自律性のレベルを定義することが起点です。

新フレームワークはツール利用・計画・記憶という3軸で既存ソリューションを分類し、具体的なユースケースへの適合性を評価します。シングルエージェントで十分なケースにマルチエージェントを採用する過設計を防ぐ判断基準も提示されています。

この種の整理は実務者にとって価値が高く、2026年のエージェント本格普及に向けてオーケストレーションの標準化が進むことへの期待が高まっています。