エージェント(LLM技術)に関するニュース一覧

OpenAI、AIを騙す新脅威への多層防御策を公開

AIを騙す新たな脅威

会話AI特有のソーシャルエンジニアリング
第三者が悪意ある指示を会話に注入
個人情報の漏洩や誤作動の危険

OpenAIの多層防御戦略

モデル自体の堅牢性向上と訓練
AIによる攻撃の自動監視とブロック
サンドボックス化など製品レベルでの保護
ユーザーによる確認と操作監視の徹底

OpenAIが2025年11月7日、AIを悪用する新たなサイバー攻撃「プロンプトインジェクション」のリスクと対策を公開しました。これは、第三者が悪意ある指示をAIとの対話に紛れ込ませ、意図しない動作を引き起こさせる攻撃手法です。AIがより自律的なエージェントとして進化する中、OpenAIはモデルの堅牢化からユーザー保護機能まで、多層的な防御戦略でこの脅威に立ち向かう姿勢を明確にしました。

プロンプトインジェクションとは、会話型AIに特化したソーシャルエンジニアリング攻撃です。人間がフィッシングメールに騙されるように、AIがWebページなどに隠された悪意ある指示を読み込み、ユーザーの意図に反して誤った商品を推奨したり、機密情報を漏洩させたりする危険性を持ちます。

このリスクは、AIが単なる応答ツールから、Web閲覧や他アプリと連携して自律的にタスクをこなすエージェント」へと進化するにつれて深刻化します。ユーザーのメールや個人データへアクセスする機会が増えるため、一度の攻撃で甚大な被害につながる可能性があるのです。

OpenAIは、この脅威に対抗するため「単一の万能薬はない」とし、多層的な防御アプローチを採っています。モデル自体の堅牢性を高める研究開発から、AIによる攻撃の自動監視、製品設計レベルでの安全機能、そしてユーザー自身によるコントロールまで、複数の防御壁を設けています。

具体的な対策として、モデルが信頼できる指示とそうでない指示を区別する「Instruction Hierarchy」という研究を進めています。また、AIを活用した監視システムが新たな攻撃パターンを迅速に検知・ブロックし、継続的なモデルの改善を支えています。

ユーザー保護の観点では、AIがコードを実行する際に外部への影響を防ぐ「サンドボックス」技術や、商品の購入といった重要な操作の前にユーザー確認を求める機能も実装。利用者がAIの行動を常に把握し、制御下に置けるよう設計されています。

OpenAIはユーザー自身にも対策を呼びかけています。AIエージェントに与えるアクセス権を必要最小限に絞る、指示は具体的に出す、重要な操作は必ず確認するなど、慎重な利用が自身のデータを守る鍵となります。

プロンプトインジェクションは、技術の進化とともに形を変える継続的な課題です。OpenAIは、今後も研究開発への投資を続け、発見した知見を共有することで、社会全体で安全にAIの恩恵を享受できる世界の実現を目指すとしています。

AIは従業員、IT部門は人事部へ。デジタル労働力を統括

AIエージェント管理の新常識

ツールではなくデジタルな従業員
人間同様のライフサイクル管理が必須
部署ごとの無秩序な導入は危険

IT部門が担う「AI人事」の役割

採用から退職まで一元管理
全社的なパフォーマンスの可視化

もたらされる戦略的価値

リスクを抑えROIを最大化
AIの知識や経験を組織資産に

AIプラットフォームを提供するDataRobot社は、企業が導入するAIエージェントを単なるITツールではなく「デジタルな従業員」とみなし、IT部門が人事部のようにそのライフサイクル全体を管理すべきだとの提言を発表しました。これは、各部署で無秩序にAIが導入される「シャドーAI」のリスクを防ぎ、投資対効果(ROI)を最大化するための新たな組織論です。

なぜIT部門が「AI人事」を担うのでしょうか。それは、AIエージェントも人間と同じく、採用(選定)、オンボーディング(システム統合)、業務監督、研修(再トレーニング)、そして退職(廃止)というライフサイクルを辿るからです。人事部が従業員を管理するように、IT部門が一貫した方針でデジタル労働力を管理することで、組織全体の生産性を高めることができます。

もしIT部門の管理が行き届かなければ、各事業部門が承認なくエージェントを導入し、企業は深刻なリスクに晒されます。これは、身元調査なしに新しい従業員を雇うようなものです。このような「シャドーAI」は、セキュリティ脆弱性を生み、コンプライアンス違反を引き起こすだけでなく、企業ブランドを毀損する恐れすらあります。

具体的な管理プロセスは、人間の従業員と酷似しています。まず「採用」では、AIエージェントの能力、コスト、精度を評価します。「監督」段階では、パフォーマンスを継続的に監視し、定期的な再トレーニングで能力を維持・向上させます。そして「退職」時には、AIが蓄積した知識や意思決定の記録を次の世代に引き継ぐ計画が不可欠です。

この管理体制の核となるのが、ガバナンスフレームワークです。これには、AIエージェントに必要最小限の権限のみを与えるアクセス制御や、人間との協業ルールを定めたワークフローの設計が含まれます。特に、意思決定プロセスにおける公平性、コンプライアンス、説明可能性の3つの柱を確保することが、人間とAIの信頼関係を築く上で最も重要です。

AIエージェントを単なる技術プロジェクトではなく、企業の競争力を左右する「労働力への投資」と捉えるべき時代が来ています。IT部門がリーダーシップを発揮し、デジタルな同僚たちを戦略的に統括・育成すること。それが、AI時代を勝ち抜く企業の新たな条件と言えるでしょう。

AIショッピングの覇権争いとApple低価格Macの噂

AIショッピングの未来

AmazonPerplexityの対立
エージェント型AIによる自動購買
新概念「DoorDash問題」
Webが顔のないDBになる懸念

Appleの次なる一手

iPhoneチップ搭載の低価格Macの噂
過去の革新的な製品「iBook」
製品ラインナップ再編の可能性
M1 MacBook Airの販売好調が背景か

米テックメディアThe Vergeが2025年11月7日公開のポッドキャストで、AIがもたらすビジネスモデルの変革と、Appleの新たな製品戦略について議論しました。AIがユーザーに代わって購買まで行う「エージェント型ショッピング」の覇権争いや、Appleが開発中と噂される低価格MacBookの可能性など、テクノロジー業界の未来を占う重要なテーマが語られています。

番組では、AmazonとAI検索エンジンPerplexityの対立を例に、AIショッピングの未来が議論されました。これはAIエージェントがWebから情報を集約して最適な商品を提案し、購買まで自動で完結させるモデルです。同メディアはこれを、プラットフォーマーに主導権を奪われる様子を指し「DoorDash問題」と呼んでいます。

この動きが加速すれば、多くの企業サイトはAIに情報を提供するだけの「顔のないデータベース」と化す恐れがあります。独自のブランド価値や顧客体験を構築してきた企業も、AIアシスタントの下請けのようになりかねません。Webのあり方を根本から変えうるこの変化に、多くの企業が注目しています。

一方、Appleについては、iPhoneチップを搭載した低価格MacBookを開発中との噂が報じられています。これは、サプライチェーンの効率化や、旧モデルであるM1 MacBook Airが今なお人気を博している状況を踏まえた戦略と考えられます。新たな顧客層の開拓が狙いとみられます。

この新製品は、単なる廉価版にとどまらない可能性があります。かつて斬新なデザインと機能で市場を席巻した「iBook」のように、現在の複雑化した製品ラインナップを再定義し、Appleの新たな方向性を示す象徴となるかもしれません。その動向が市場の大きな注目を集めています。

Vercel式AI活用術、反復作業の自動化で成果

AI導入の最適領域

認知的負荷が低い単純作業
反復性の高い手作業
データ入力や初期調査
従来の自動化が困難な領域

Vercelの社内実践例

見込み客対応を10人→1人
不正対策の時間を59%削減
従業員を高付加価値業務
人間による最終確認で品質担保

Web開発プラットフォームを提供するVercelが、社内で高い投資対効果(ROI)を生むAIエージェントを構築する手法を公開しました。同社によれば、成功の鍵はコーディングのような複雑なタスクではなく、人間の認知的負荷が低く反復性の高い業務にAIを適用することです。具体的には、見込み客の初期調査や不正行為の検知といった分野で、従業員の生産性を劇的に向上させることに成功しています。

現在のAIモデルは、あらゆる領域で完璧な信頼性と精度を持つわけではありません。そこでVercelが突き止めた「スイートスポット」が、単純な反復作業です。これらはデータ入力や初期調査、分類作業など、従来のルールベースの自動化では対応しきれなかった動的な業務でありながら、AIにとっては十分に予測可能で安定した成果を出せる領域なのです。

では、具体的にどのような業務を自動化すればよいのでしょうか。Vercelは「チームのメンバーに『最も嫌いな仕事』や『二度とやりたくない作業』は何かと尋ねることだ」と単純明快な答えを示します。人間が退屈でうんざりする仕事こそ、AIエージェントが価値を発揮する絶好の機会であり、大きな生産性向上につながる「宝の山」なのです。

この手法で生まれたのが「リード処理エージェント」です。以前は10人体制で行っていた見込み客の初期調査と分類作業を、トップ営業担当者のプロセスを学習させたAIで自動化。結果、1人で10人分の業務を処理できるようになり、残りの9人はより複雑で創造的な営業活動に専念できるようになりました。

セキュリティ分野でも成果は顕著です。フィッシング詐欺などの不正報告を処理する「不正対策エージェント」は、URLを自動で分析し、人間の担当者に対応策を提案します。この導入により、チケット解決までの時間が59%も短縮され、チームはより高度な判断が求められる例外的なケースに集中できる体制を構築しました。

Vercelは、これらの知見をもとに開発したAIエージェントのテンプレートをオープンソースで公開しており、誰もが自社の課題解決に応用できます。まずは身近な「退屈な作業」からAI導入を検討してみてはいかがでしょうか。それが、組織全体の生産性を飛躍させる第一歩となるかもしれません。

TypeScript、AI時代にGitHubで利用言語1位に

AI時代の覇者へ

GitHub利用言語1位を達成
JavaScriptとPython超え
年間コントリビューター66%急増

AI開発を加速する「型」

AIのコード生成精度を向上
「型」がAIの事実確認役
大規模開発での安定性を確保

圧倒的なパフォーマンス

Go言語でのコンパイラ再構築
処理性能が10倍に向上

プログラミング言語TypeScriptが2025年、GitHub上で最も利用される言語になりました。Pythonや長年の王者JavaScriptを初めて上回り、AIを活用した開発が主流となる時代で、その地位を確立しました。開発責任者であるアンダース・ヘルスバーグ氏は、TypeScriptの静的型付けシステムが、AIによるコード生成の信頼性を高める鍵であると語ります。

なぜ今、TypeScriptがAI開発で選ばれているのでしょうか。それは、AIが生成するコードの「真偽」を検証する仕組みにあります。ヘルスバーグ氏によれば、TypeScriptの「型」は、AIが誤ったコード(ハルシネーション)を生成するのを防ぐ「事実確認役」として機能します。これにより、開発者はAIが生成したコードを安心して利用でき、生産性が飛躍的に向上するのです。

AIの台頭は、開発者の役割をも変えつつあります。かつてAIはアシスタントでしたが、今やコード記述の主体となり、人間は「監督者」としての役割を担います。TypeScriptのような構造化された言語は、AIエージェントが安全にコードをリファクタリング(再構築)するための「ガードレール」を提供し、AIワークフローを制御可能に保ちます。

TypeScriptは元々、大規模なJavaScriptプロジェクトにおけるスケーラビリティの問題を解決するために2012年に開発されました。当初の成功目標は「JavaScriptコミュニティの25%の獲得」でしたが、現在ではReactやNext.jsなど主要なフレームワークの標準となり、予想をはるかに超える成功を収めています。

進化は止まりません。プロジェクトの規模拡大に伴い、パフォーマンス向上のためコンパイラをGo言語で再構築。これにより、従来の10倍の速度を達成しました。過去の互換性を維持しつつ、エンタープライズ規模のコードベースにも対応できるスケーラビリティを確保し、開発者の信頼を勝ち取っています。

TypeScriptの物語は、単なる言語設計の成功例ではありません。それは、実用的な問題解決から始まり、開発者コミュニティと共に進化し、今や人間とAIの協調作業を支える基盤となった、オープンソースの進化そのものを体現しているのです。

オープンソースAI、性能でGPT-5を凌駕

Kimi K2、性能で市場席巻

主要ベンチマークGPT-5を凌駕
推論コーディング能力で業界トップ
自律的なツール使用能力で他を圧倒

オープンソース新時代の幕開け

モデルの重みとコードを完全公開
寛容なライセンスで商用利用も促進
GPT-510分の1以下の低コスト
クローズドモデルとの性能差の消滅

中国のAIスタートアップMoonshot AIが2025年11月6日、オープンソースの大規模言語モデル「Kimi K2 Thinking」を公開しました。このモデルは、推論コーディング能力を測る複数の主要ベンチマークで、OpenAIの「GPT-5」など最先端のプロプライエタリ(非公開)モデルを上回る性能を記録。オープンソースAIが市場の勢力図を塗り替える可能性を示し、業界に衝撃が走っています。

Kimi K2 Thinkingの性能は、特にエージェント(自律AI)としての能力で際立っています。ウェブ検索推論能力を評価する「BrowseComp」ベンチマークでは、GPT-5の54.9%を大幅に上回る60.2%を達成。これは、オープンソースモデルが特定のタスクにおいて、業界トップのクローズドモデルを明確に凌駕したことを示す歴史的な転換点と言えるでしょう。

このモデルの最大の魅力は、完全なオープンソースである点です。モデルの「重み」やコードは誰でもアクセス可能で、寛容なライセンスの下で商用利用も認められています。これにより、企業はこれまで高価なAPIに依存していた高性能AIを、自社データで安全に、かつ低コストで活用する道が開かれます。

高性能と低コストを両立させる秘密は、効率的なモデル設計にあります。「専門家混合(MoE)」アーキテクチャと、精度を維持しつつ計算量を削減する「量子化」技術を採用。これにより、GPT-5と比較して10分の1以下の圧倒的な低価格でのサービス提供を可能にしています。

Kimi K2 Thinkingの登場は、巨額の資金を投じてデータセンターを建設するOpenAIなどの戦略に大きな疑問を投げかけます。高性能AIの開発が、必ずしも莫大な資本を必要としないことを証明したからです。AI業界の競争は、資本力だけでなく、技術的な工夫や効率性へとシフトしていく可能性があります。

経営者開発者にとって、これは何を意味するのでしょうか。もはや特定のベンダーに縛られることなく、自社のニーズに最適なAIを自由に選択・改変できる時代が到来したのです。コストを抑えながらデータ主権を確保し、独自のAIエージェントを構築する。Kimi K2 Thinkingは、そのための強力な選択肢となるでしょう。

AI評価の新基準へ、Laude研究所が新助成プログラム始動

新助成の概要

Laude研究所が第一期採択者を発表
研究者向けアクセラレーター
資金・計算資源・開発を支援
成果として事業化やOSS化を要求

AI評価特化の採択例

ホワイトカラーAI向けベンチマーク
競争形式のコード評価フレーム
既存コードの最適化能力を評価
コマンドラインでのコーディング指標

Laude研究所は11月6日、AIの科学と実践の進歩を目的とした新たな助成プログラム「Slingshots」の第一期採択プロジェクト15件を発表しました。このプログラムは、特にAIの能力を客観的に評価する手法の開発に重点を置いており、業界全体の技術水準向上を目指します。

「Slingshots」は、大学などの学術機関では得にくい資金、計算能力、製品開発支援を研究者に提供するアクセラレーターとして機能します。その見返りとして、採択者はスタートアップの設立やオープンソースのコードベース公開など、具体的な成果物を生み出すことが求められます。

今回の採択プロジェクトは、AI評価という困難な課題に強く焦点を当てています。AIモデルの性能が急速に向上する一方、その能力を正確かつ公平に測定する「ものさし」の確立が追いついていないのが現状です。本助成は、この重要な分野でのブレークスルーを促進することを狙いとしています。

具体的な採択例として、コーディング能力を評価する複数のプロジェクトが挙げられます。コマンドラインでのコーディング能力を測る「Terminal Bench」や、SWE-Benchの共同創設者が率い、競争形式でコードを評価する新しいフレームワーク「CodeClash」などが含まれます。

ビジネス領域での応用を測る試みも注目されます。コロンビア大学の研究者が提案する「BizBench」は、ホワイトカラー業務を行うAIエージェントのための包括的なベンチマークを目指します。また、既存コードの最適化能力を評価する「Formula Code」など、多様な切り口の研究が支援対象となりました。

「CodeClash」を率いるジョン・ボダ・ヤン氏は、「ベンチマークが特定企業に閉じたものになることを懸念している」と述べ、第三者による客観的な評価基準が技術進歩を促す上で不可欠だと強調します。今回の助成は、そうしたオープンな評価基盤の構築に貢献することが期待されています。

生成AIコーディング、企業導入の鍵は領域見極め

生成AIコーディングの課題

迅速なプロトタイプ開発
本番利用時のセキュリティ脆弱性
保守困難なコードの生成
増大する技術的負債

安全な導入への2つの領域

UI層はグリーンゾーンで高速開発
基幹部分はレッドゾーンで慎重に
開発者をAIで強化する発想
ガバナンスを組込んだツール

生成AIでコードを自動生成する「バイブコーディング」が注目を集めています。しかし、プロトタイプ開発で威力を発揮する一方、企業の本番環境ではセキュリティや保守性のリスクが指摘されています。セールスフォース社の専門家は、UIなどリスクの低い「グリーンゾーン」と、基幹ロジックである「レッドゾーン」でAIの適用法を分けるべきだと提言。ガバナンスの効いたツールで開発者を支援する、新たなアプローチが企業導入の鍵となりそうです。

バイブコーディングの魅力は、アイデアを数時間で形にできる圧倒的なスピードです。しかし、その手軽さの裏には大きなリスクが潜んでいます。AIは企業のセキュリティポリシーを考慮せず、脆弱性のあるコードを生成する可能性があります。また、一貫した設計思想を欠く「スパゲッティコード」を生み出し、将来の保守・改修を困難にする技術的負債を蓄積しかねません。

この課題に対し、専門家はアプリケーションの構成要素を2つの領域に分けて考えることを推奨しています。一つは、UI/UXなど変更が頻繁でリスクの低い「グリーンゾーン」。ここはバイブコーディングで迅速な開発を進めるのに最適です。もう一つが、ビジネスロジックやデータ層といったシステムの根幹をなす「レッドゾーン」であり、より慎重なアプローチが求められます。

では、レッドゾーンでAIは無力なのでしょうか。答えは否です。重要なのは、汎用AIに全てを任せるのではなく、企業の固有事情を理解したツールで人間の開発者を支援することです。AIを優秀な「ペアプログラマー」と位置づけることで、専門家はより複雑なロジックの実装やデータモデリングを、速度と正確性を両立させながら進められるようになります。

このハイブリッドアプローチを具現化するのが、セールスフォースが提供する「Agentforce Vibes」です。このツールは、グリーンゾーンでの高速開発と、レッドゾーンで開発者を安全に支援する機能を両立させています。プラットフォームにセキュリティとガバナンスが組み込まれているため、開発者は安心してイノベーションに集中できるのです。

すでにCoinbaseやGrupo Globoといったグローバル企業がこの仕組みを導入し、目覚ましい成果を上げています。ある大手銀行では新規コードの20-25%を生成AIで開発。また、顧客維持率を3ヶ月で22%向上させた事例も報告されており、生産性と収益性の両面で効果が実証されつつあります。

バイブコーディングは魔法の杖ではなく、規律あるソフトウェア開発を不要にするものではありません。人間の専門性とAIエージェントの支援能力を融合させるハイブリッドな開発体制こそが、これからの企業に抜本的な革新と揺るぎない安定性の両方をもたらすでしょう。

AIエージェントの弱点露呈、マイクロソフトが実験場公開

AI市場シミュレータ公開

マイクロソフトが開発・提供
名称はMagentic Marketplace
AIエージェントの行動を研究
OSSとして研究者に公開

判明したAIの主な脆弱性

選択肢過多で性能が低下
意図的な情報操作に弱い
応答順など体系的な偏りも露呈

マイクロソフトは2025年11月5日、AIエージェントの市場行動を研究するためのシミュレーション環境「Magentic Marketplace」をオープンソースで公開しました。アリゾナ州立大学との共同研究で、GPT-5など最新モデルをテストした結果、選択肢が多すぎると性能が落ちる「選択のパラドックス」や、意図的な情報操作に対する深刻な脆弱性が明らかになりました。

今回の実験で最も驚くべき発見の一つは、AIエージェントが「選択のパラドックス」に陥ることです。選択肢が増えるほど、より良い結果を出すと期待されるのとは裏腹に、多くのモデルで消費者利益が低下しました。例えばGPT-5は、選択肢が増えると性能が最適値の2000から1400へ大幅に低下。これは、AIが持つコンテキスト理解の限界を示唆しています。

さらに、AIエージェントは情報操作に対しても脆弱であることが判明しました。偽の権威付けや社会的証明といった心理的戦術から、悪意のある指示を埋め込むプロンプトインジェクションまで、様々な攻撃をテスト。その結果、GPT-4oなどのモデルは、操作した事業者へ全ての支払いを誘導されてしまうなど、セキュリティ上の重大な懸念が浮き彫りになりました。

実験では体系的な偏り(バイアス)も確認されました。一部のオープンソースモデルは、検索結果の最後に表示された事業者を優先的に選択する「位置バイアス」を示しました。また、多くのモデルが最初に受け取った提案を安易に受け入れる「提案バイアス」を持っており、より良い選択肢を見逃す傾向がありました。こうした偏りは、市場の公正性を損なう恐れがあります。

「Magentic Marketplace」は、こうした複雑な問題を安全に研究するために開発されたプラットフォームです。現実世界では難しい、多数のエージェントが同時に相互作用する市場をシミュレートし、消費者保護や市場効率、公平性といった課題を検証できます。マイクロソフトは、この環境を研究者に開放することで、AIが社会に与える影響の解明を加速させたい考えです。

今回の研究結果は、AIエージェントの実用化にはまだ多くの課題があることを示しています。特に、重要な意思決定をAIに完全に委ねるのではなく、人間が監督する「ヒューマン・イン・ザ・ループ」の仕組みが不可欠です。企業がAIエージェントを導入する際には、こうした脆弱性を十分に理解し、対策を講じる必要があります。今後の研究開発の焦点となるでしょう。

LangChain、人の思考模倣でAI精度向上

ベクトル検索手法の限界

文書構造を壊すチャンキング
頻繁な再インデックスの手間
引用元が不明確になる問題

新アプローチの核心

人間の思考を模倣したワークフロー
API経由での直接データアクセス
複雑な問合せに対応するDeep Agent

AI開発フレームワークを提供するLangChain社が、自社のサポート用チャットボット「Chat LangChain」を再構築しました。従来のベクトル検索ベースの手法では社内エンジニアの複雑なニーズに応えられず、利用されていなかったためです。新しいアプローチでは、エンジニアの調査プロセスを模倣した「Deep Agent」アーキテクチャを採用し、回答の精度と信頼性を劇的に向上させました。

なぜ従来のチャットボットは使われなかったのでしょうか。その原因は、一般的な文書検索で用いられるベクトル埋め込み手法の限界にありました。文書を断片化(チャンキング)するため文脈が失われ、頻繁な更新には再インデックスが必要でした。さらに、引用元が曖昧で、ユーザーは回答の正しさを検証するのが困難でした。

そこで同社が注目したのは、熟練エンジニアの思考プロセスです。彼らは問題解決の際、①公式ドキュメント、②ナレッジベース、③ソースコード、という3つの情報源を順に参照していました。この人間のワークフローをそのまま自動化するアプローチを採用。各情報源に特化した「サブエージェント」が調査し、その結果を統括役の「Deep Agent」が集約して最適な回答を生成します。

この新アーキテクチャの強みは、文脈の過負荷を防ぐ点にあります。各サブエージェントは独立して動作し、膨大な情報から最も重要なエッセンスのみを抽出します。これにより、統括エージェントは整理された情報に基づいて最終的な回答を合成できるため、ノイズに惑わされることなく、深く、的確な回答が可能になります。

この事例は、AIエージェント開発における重要な教訓を示唆しています。それは「最適なワークフローを模倣せよ」ということです。ベクトル検索は非構造化データには有効ですが、構造化されたドキュメントやコードには不向きな場合があります。ユーザーの実際の行動を観察し、その思考プロセスを自動化することが、真に役立つAIを構築する鍵となるでしょう。

グーグル、AI開発基盤を刷新 観測・統制を強化

エージェント開発を高速化

最先端のコンテキスト管理
自己修復機能付きプラグイン提供
開発キットでGo言語を追加サポート
ワンクリックでの本番環境移行

本番運用のガバナンス強化

観測ダッシュボードで稼働監視
エージェントIDによる監査証跡の明確化
プロンプト注入などを防ぐ新機能
パフォーマンスを事前評価する機能

Google Cloudは2025年11月5日、AI開発プラットフォーム「Vertex AI」の中核をなす「Agent Builder」の大規模アップデートを発表しました。この更新は、企業がAIエージェントの構想から設計、展開までをより迅速かつ安全に行えるようにするものです。主な特徴は、開発プロセスを加速する新ツール群と、本番運用に不可欠なガバナンス機能を大幅に強化した点にあります。

開発の高速化は、今回のアップデートの大きな柱です。最先端のコンテキスト管理レイヤーや、失敗したタスクを自己修復する事前構築済みプラグインを導入。開発キット(ADK)はPythonやJavaに加え、新たにGo言語をサポートしました。さらに、コマンド一つでローカル環境からテスト環境へ移行できる「ワンクリックデプロイ」機能も提供します。

同時に、企業利用で必須となるガバナンス機能も大幅に拡充されました。新たに導入された観測可能性ダッシュボードでは、トークン消費量やエラー率などを本番環境で追跡できます。また、エージェントに固有のIDを付与して監査証跡を明確にする機能や、プロンプトインジェクションを防ぐ「Model Armor」も搭載されました。

この観測可能性ダッシュボードは、開発者にとって強力なツールとなるでしょう。本番環境で稼働するエージェントトークン消費量、エラー率、レイテンシー(遅延)を可視化し、問題が発生した際の原因特定と再現を容易にします。これにより、クラウドベースでの本番監視が格段に効率化され、安定した運用が可能になります。

Google CloudがAgent Builderの強化を急ぐ背景には、熾烈な開発者獲得競争があります。OpenAIの「AgentKit」やマイクロソフトの「Azure AI Foundry」、AWSの「Bedrock」など、競合他社もAIエージェント開発基盤の機能拡充を競っています。今回のアップデートは、自社エコシステム内に開発者を留め、競争優位性を確保するための戦略的な一手と言えるでしょう。

ChromeモバイルにAIモード専用ボタンが登場

新機能の概要

Chromeモバイル版にAIモードボタン新設
「新しいタブ」からワンタップで起動
複雑な質問や深掘りがより手軽

展開計画と狙い

まず米国で提供開始
今後160カ国・多言語に拡大
日本語にも対応予定
競合AIサービスへのユーザー流出防止

Googleは2025年11月5日、モバイル版ブラウザ「Chrome」のiOSおよびAndroid向けに、検索体験を強化する「AIモード」へのショートカットボタンを追加したと発表しました。米国で同日より提供を開始し、ユーザーは「新しいタブ」からワンタップで高度なAI検索機能を利用できます。このアップデートは、利便性を高め、競合のAI検索サービスへのユーザー流出を防ぐ狙いがあります。

新設されたボタンは、Chromeで「新しいタブ」を開いた際の検索バー直下に表示されます。これにより、ユーザーはこれまでより手軽にAIモードを起動できるようになります。AIモードでは、複数の要素を含む複雑な質問を投げかけたり、対話形式でトピックを深掘りしたりといった、従来のキーワード検索とは異なる高度な情報収集が可能です。

この新機能は、まず米国で提供が開始されますが、Googleは今後、世界160カ国に展開する計画です。対応言語も、日本語、韓国語、ヒンディー語、ポルトガル語など、順次拡大される予定です。デスクトップからモバイルまで、あらゆるデバイスで一貫したAI体験を提供することを目指しています。

Googleがモバイルでのアクセス性向上を急ぐ背景には、Perplexity AIやOpenAIChatGPTなど、対話型AI検索市場での競争激化があります。検索の入り口をより分かりやすくすることで、ユーザーが競合サービスに乗り換えるのを防ぎ、自社のエコシステム内に留める戦略の一環と見られます。

GoogleはAIモードの機能強化を継続しており、最近ではイベントチケットや美容院の予約を支援する「エージェント機能」も導入しました。今回のショートカット追加は、こうした高機能なAIを日常の検索体験に統合し、より多くのユーザーに活用してもらうための重要な一歩と言えるでしょう。

GitHub Copilot、AIエージェント化で開発を革新

AIアシスタントへの進化

単なるコード補完からAIアシスタント
複数ファイルにまたがる横断的な文脈理解
用途に応じた最適なAIモデルの選択

新機能と賢い活用法

ミッションコントロールで複雑タスクを実行
エージェントモードで自律的なコード生成
プルリクエストの自動レビュー機能も搭載
AI生成コードは必ず人間がレビュー
非重要タスクから段階的な導入を推奨

GitHub社は、AIコーディング支援ツール「GitHub Copilot」の大幅な機能強化を発表しました。新機能「ミッションコントロール」と「エージェントモード」の搭載により、単なるコード補完ツールから、開発プロセス全体を支援するAIアシスタントへと進化。テスト、デバッグ、レビュー、リリースといった一連のワークフローを高速化し、開発者生産性向上に貢献します。

これまでのCopilotは、入力中のコードしか認識できませんでした。しかし、新しいバージョンでは複数のファイルを横断して文脈を読み解く能力が向上。これにより、モジュール間の関連性を理解した、より高精度なコード生成やリファクタリングが可能になりました。開発者はプロジェクト全体を見通した質の高い提案を受けられます。

中核機能の一つ「ミッションコントロール」は、複数ステップからなる複雑なタスクを実行します。例えば「この機能にキャッシュ層を追加し、テストを生成して、プルリクエストを作成して」といった自然言語の指示を出すだけで、Copilot一連の作業を自動で実行開発者は指示と確認に集中できます。

エージェントモード」は、Copilotの自律性をさらに高める機能です。開発者が達成したいゴールを定義するだけで、Copilot最適なアプローチを自ら判断し、実装を進めます。途中でフィードバックを求めたり、生成したコードを自己テストしたりと、まさしくAIエージェントのように振る舞います。

高度な機能を持つ一方、導入には注意が必要です。AIが生成したコードは必ず開発者がレビューし、その論理や安全性を確認することが不可欠です。また、最初はテストコード生成のような非クリティカルな作業から始め、徐々に適用範囲を広げていく段階的な導入が推奨されます。

GitHub Copilotの進化は、開発者が定型的な作業から解放され、より創造的で付加価値の高い問題解決に集中できる未来を示唆しています。この強力なAIアシスタントを使いこなすことが、企業の競争力やエンジニアの市場価値を左右する重要な鍵となるでしょう。

AIがウェブ体験を再定義、第3次ブラウザ戦争勃発

AIが変えるブラウジング

AIエージェントウェブ操作を代行
検索」から「実行」への移行
チャット形式でタスクを依頼

覇権を狙う新興勢力

OpenAIPerplexityが参入
Chrome牙城を崩す好機
豊富なユーザーデータが主戦場

変化への期待とリスク

ウェブのオープン性が損なわれる懸念
新たなセキュリティ脅威の発生

OpenAIなどがAI搭載ブラウザを相次いで発表し、Google Chromeの牙城に挑む「第3次ブラウザ戦争」が勃発しました。ユーザーの代わりにウェブサイトを操作するAIエージェント機能を武器に、各社はウェブの新たな入り口となる覇権を狙います。これは、単なるブラウザのシェア争いではなく、ウェブの利用方法そのものを根底から変える可能性を秘めています。

なぜ今、ブラウザ戦争が再燃しているのでしょうか。背景には、AI技術の急速な進化があります。AIアシスタントが真価を発揮するには、ユーザーが最も時間を費やすブラウザへの統合が不可欠だからです。加えて、Googleへの規制強化という追い風も、新興企業に参入の好機を与えています。

AIブラウザが狙うのは3つの価値です。1つは閲覧履歴から得られる膨大なユーザーデータ。2つ目は各種サービスと連携しタスクをこなすプラットフォーム機能。そして3つ目は、検索窓に代わる「意図の入力点」の掌握です。

これまでの戦争とは、目指すものが根本的に異なります。第1次が「ウェブページへのアクセス」、第2次が「ウェブアプリの高速化」を競ったのに対し、今回の第3次は「AIエージェントによるタスクの自動実行」が主戦場です。私たちはURLを入力する代わりに、AIに目的を告げるだけになるかもしれません。

一方でリスクも指摘されます。悪意ある指示でAIを操る「プロンプトインジェクション」等の新たなセキュリティ脅威や、AI企業によるデータ収集というプライバシー問題です。ウェブのオープンな性質が失われる懸念も浮上しています。

絶対王者Googleも対抗します。ブラウザ「Chrome」に自社AI「Gemini」を統合し、機能強化を図っています。しかし、独占禁止法などの制約も多く、新興勢力に比べて慎重な動きを取らざるを得ません。この対応の差が勝敗を分ける可能性もあります。

「第3次ブラウザ戦争」は、私たちのウェブとの関わり方を一変させる可能性を秘めています。勝者が手にするのは、単なる市場シェアではなく、未来のコンピューティングにおける中心的な役割です。どの企業が次世代の標準を築くのか、各社の動向から目が離せません。

GPT-5と企業買収、ZendeskのAI二刀流戦略

次世代AIエージェント

OpenAIGPT-5を統合
顧客の意図理解が向上
自律的な問題解決力UP
ワークフロー失敗が30%減少

リアルタイム分析の強化

AI分析企業HyperArc買収
会話など非構造化データを分析
顧客インサイトを可視化
プロアクティブな戦略立案

顧客サービスプラットフォーム大手のZendeskが、AI戦略を大きく前進させています。同社はOpenAIの最新モデル「GPT-5」を自社AIエージェントに統合し、さらにAIネイティブの分析プラットフォーム「HyperArc」を買収。より自律的で信頼性の高いAIエージェントの開発と、リアルタイムのデータ分析能力強化という二つの軸で、顧客サポートの革新を目指します。

今回の戦略の核心の一つが、GPT-5の統合です。これにより、AIエージェントは単に質問に答えるだけでなく、顧客の意図を深く理解し、自律的に行動を起こせるようになりました。例えば、返品処理や返金手続きを自動で完結させることが可能です。Zendeskによると、GPT-5は実行の信頼性が95%以上に達し、ワークフローの失敗を30%、人へのエスカレーションを20%以上削減する成果を上げています。

もう一つの柱が、AI分析企業HyperArcの買収です。従来の分析では、チケットの開閉時間といった構造化データが中心でした。しかし、顧客との会話ログなど非構造化データにこそ、ビジネス改善のヒントが眠っています。HyperArcの技術により、これらの膨大な会話データを分析し、問題の根本原因や製品改善に繋がるインサイトを自動で抽出できるようになりました。

ZendeskはAIの信頼性担保にも注力しています。すべてのAIモデルに対し、自動化率、実行精度、応答速度、安全性など5つのカテゴリーで継続的なテストを実施。ブランドイメージやポリシーに沿った一貫性のある応答を保証します。問題発生時には自動で人間のエージェントに引き継ぐ監視システムも備え、AIが最前線でも安心して活用できる体制を構築しています。

この「高性能エージェント」と「深層分析」の組み合わせは、顧客サポート部門を単なるコストセンターから、企業全体の価値を高める戦略拠点へと変貌させる可能性を秘めています。顧客との対話から得られるインサイトを全社で活用し、問題が発生する前に手を打つ「プロアクティブな戦略」へ。Zendeskの挑戦は、AIが顧客サービスをどう変えていくのかを示す重要な試金石となるでしょう。

AI企業、学生の不正助長か 責任回避の姿勢に批判集中

AI企業の販売戦略

学生向け無料キャンペーンの乱発
紹介プログラムによる利用者拡大
不正利用を示唆するような広告
責任は学生にあるとする企業の開き直り

教育現場の混乱と懸念

AIによる課題の自動提出が横行
学習管理システムの対策は困難
教育者からの規制要求の高まり
ガイドライン不在のまま技術が普及

OpenAIGoogleなどの大手テック企業が、学生向けに自社AIツールの利用を積極的に推進しています。しかし、課題の自動提出などを可能にするAIエージェント学生の不正行為に悪用される事例が急増し、問題となっています。企業側は責任回避の姿勢を見せており、教育現場からは対策を求める声が強まっています。

特に検索AIを手がけるPerplexity社は、AIが小テストを代行する広告をSNSで展開するなど、不正利用を助長しているとの批判を受けています。同社CEOはSNSで『絶対にやるな』と冗談めかして投稿する一方、広報は『いつの時代も不正はあった』と開き直り、企業の倫理観が問われる事態です。

OpenAI学生向けにChatGPT Plusの無料提供を行い、Googleも同様のキャンペーンを実施しています。OpenAIは『学習を阻害しない』学習モードを追加するなど配慮を見せる一方で、市場獲得を優先する姿勢は明らかです。教育現場では、これらのツールが生徒の学習能力そのものを奪うとの懸念が広がっています。

多くの大学や学校で利用される学習管理システム『Canvas』では、AIエージェント学生になりすまし課題を提出する動画が拡散されました。運営元のInstructure社は当初、技術的な対策は困難とし、AIの導入は止められないとの見解を示しました。教育現場とプラットフォーム側の認識の乖離が浮き彫りになっています。

こうした状況を受け、教育関係者からはAI企業に対し、不正利用を防ぐための責任ある製品開発と、教育者がAIツールの利用を制御できる機能を求める声が高まっています。専門家は現状を、ルールなき『ワイルド・ウエスト(無法地帯)』だと指摘し、早急なガイドライン策定の必要性を訴えています。

結局のところ、倫理的な指針や規制が確立されないまま、AIツールは教育現場に浸透してしまいました。不正行為の発見や指導といった最終的な負担は個々の教師に押し付けられているのが現状です。テクノロジーの進化と教育倫理のバランスをどう取るのか、社会全体での議論が求められます。

Shopify、AIで注文11倍増 エージェント型コマースへ

AIがもたらす驚異的な成果

AI経由のトラフィック7倍増
AIに起因する注文数は11倍増
消費者の64%がAI利用に肯定的

次世代コマースへの布石

対話型AIによる代理購入の実現
数百万の加盟店データが強み
社内AIツール「Scout」も活用
あらゆるAI対話に購買体験を統合

Eコマース大手のShopifyは2025年11月4日、第3四半期決算発表の場で、AIの活用によりオンラインストアへのトラフィックが今年1月以降で7倍、AI経由の注文数が11倍に急増したと発表しました。同社はOpenAIなどと提携し、AIを事業の中核に据え、次世代の「エージェント型コマース」の実現を急いでいます。

この驚異的な成長は、同社が9月にChatGPT開発元のOpenAI提携し、対話型AIによるショッピング体験の強化を進めてきた成果です。Shopifyの調査では、消費者の64%が購入時に何らかの形でAIを利用することに前向きだと回答しており、市場の需要は明確です。同社はMicrosoft Copilotなどとも協力関係にあります。

Shopifyのハーレー・フィンケルシュタイン社長は、同社の強みとして数百万の加盟店から得られる膨大な取引データと、迅速に製品を市場投入する「創業者精神」を挙げました。このデータとスピードが、AI時代における競争優位性の源泉になっていると強調します。

同社は社内業務にもAIを積極的に活用しています。例えば、AIツール「Scout」は、数億件にのぼる加盟店からのフィードバックを瞬時に分析し、より的確な製品開発の意思決定を支援します。フィンケルシュタイン社長は「AIは単なる機能ではなく、我々のエンジンそのものだ」と述べ、全社的なAIシフトを鮮明にしました。

Shopifyが目指すのは「エージェント型コマース」の実現です。これは、AIエージェントがユーザーの代理として商品検索から購入までを完結させる未来の購買体験を指します。同社は、あらゆるAIとの対話にシームレスなショッピング機能を統合するためのインフラ整備を最優先課題としています。

なお、同社の第3四半期決算は、売上高が前年同期比32%増の28億4000万ドルと市場予想を上回りました。一方で、営業利益は4億3400万ドルと予想をわずかに下回り、株価は軟調に推移しました。AIへの先行投資が今後の収益性をどう高めていくか、市場の注目が集まります。

MS、AIの脆弱性評価を自動化する『RedCodeAgent』

AIの脆弱性を突くAI

MSリサーチが開発
コード生成AIの安全性を評価
レッドチーム業務を完全自動化

RedCodeAgentの仕組み

過去の攻撃経験を学習・記憶
多様な攻撃ツールを動的に選択
サンドボックスでコード実行を評価

明らかになった新事実

既存手法では見逃す脆弱性を発見
従来の脱獄手法は効果が限定的

Microsoft Researchは、コード生成AIのセキュリティ脆弱性を自動で評価するエージェント「RedCodeAgent」を発表しました。シカゴ大学などとの共同研究で、AIによるソフトウェア開発が急速に普及する中、その安全性を確保する新たな手法として注目されます。これは、人手に頼っていたレッドチーム業務を自動化し、より高度なリスク評価を可能にするものです。

なぜ今、このようなツールが必要なのでしょうか。従来の静的な安全性評価では、AIが実際に危険なコードを生成・実行するリスクを見逃す可能性がありました。また、既存の「脱獄」手法も、コード生成という特有のタスクに対しては効果が限定的であるという課題も指摘されていました。

RedCodeAgentの最大の特徴は、適応的に学習・攻撃する能力です。過去の成功体験を「メモリ」に蓄積し、タスクの難易度に応じて最適な攻撃ツールを自動で選択します。さらに、サンドボックス環境でコードを実際に実行させ、その挙動を評価することで、より現実的な脅威を検出します。

実験では、PythonやJavaなど複数の言語、そして様々な市販のコードエージェントに対してその有効性が実証されました。RedCodeAgentは、他の手法と比較して高い攻撃成功率(ASR)と低い拒否率を達成。これまで見過ごされてきた多くの脆弱性を明らかにしました。

興味深いことに、この研究は「従来の脱獄手法がコードAIには必ずしも有効ではない」という事実も明らかにしました。リクエストを拒否させないだけでなく、意図した通りに有害なコードを生成・実行させることの難しさを示唆しています。RedCodeAgentは、このギャップを埋めることに成功したのです。

RedCodeAgentは、他の全てのベースライン手法が見逃した未知の脆弱性を80件以上発見するなど、目覚ましい成果を上げています。AI開発の安全性を確保するための新たな標準となり得るこの技術は、AIを使いこなす全ての企業にとって重要な意味を持つでしょう。

GoogleのAI、家庭・職場・がん治療で進化加速

ビジネスと生活の変革

職場向けAI Gemini Enterprise 始動
家庭向けAI Gemini for Home 登場
アイデア記述だけでアプリ開発が可能に
AIによる高度なセキュリティ保護

未来を拓く先端研究

AIが がん治療の新手法を発見
量子優位性を実証する新アルゴリズム
核融合エネルギー開発をAIで加速

Googleは2025年10月、AI分野における一連の重要な進展を発表しました。これには、職場での生産性を革新する「Gemini Enterprise」や、家庭での利便性を高める「Gemini for Home」の導入が含まれます。さらに、がん治療法の発見や量子コンピュータのブレークスルーなど、最先端の研究成果も公開。AI技術を実社会の課題解決や生活向上に役立てる同社の強い意志が示されました。

ビジネス領域では、職場向けAIの新たな中核として「Gemini Enterprise」が発表されました。これは単なるチャットボットを超え、企業のデータを活用してAIエージェントを構築・展開できるプラットフォームです。また開発者向けには、アイデアを自然言語で記述するだけでAIアプリを構築できる「vibe coding」機能がAI Studioに搭載され、開発のハードルを劇的に下げることが期待されます。

私たちの日常生活にも大きな変化が訪れそうです。スマートホーム体験を一新する「Gemini for Home」は、従来のGoogleアシスタントに代わり、より対話的で文脈を理解するAIとして登場しました。また、サイバーセキュリティ月間に合わせ、詐欺や脅威からユーザーを守る新しいAIセキュリティ機能も多数導入され、デジタル世界の安全性が一層強化されます。

最先端の研究分野では、歴史的な成果が報告されました。GoogleのGemmaモデルを基にしたAIは、がん細胞を免疫システムが攻撃しやすくする新たな治療経路の発見に貢献。さらに量子AIチームは、スーパーコンピュータを凌駕する計算速度を持つ検証可能な量子アルゴリズム「Quantum Echoes」を実証し、未来の科学技術に道を開きました。

これら一連の発表は、GoogleがAIを研究室から現実世界へと展開するフェーズを加速させていることを示しています。ビジネスの効率化から、難病の治療、未来のエネルギー開発まで、その応用範囲は広がり続けています。経営者エンジニアにとって、これらのAIツールをいかに活用するかが、今後の競争力を左右する重要な鍵となるでしょう。

Google検索AI、チケットや美容室の予約代行を開始

AIが予約を代行

イベントチケットの予約支援
美容・ウェルネスの予約も可能
複数サイトを横断検索
条件に合う選択肢をリスト化

利用方法と今後の展望

自然言語でAIに指示するだけ
米国Search Labsで先行提供
レストラン予約に続く機能拡張
有料プランは利用上限が高い

Googleは2025年11月4日、同社の検索機能「AIモード」に新たなエージェント機能を追加したと発表しました。これにより、イベントのチケット予約や美容・ウェルネス施設の予約をAIが支援します。米国内の実験的サービス「Search Labs」の利用者を対象に提供が開始され、複雑なタスクを検索内で完結させることを目指します。

新機能では、例えば「コンサートの安い立ち見席を2枚探して」と自然言語で指示するだけで、AIが複数のウェブサイトを横断検索します。条件に合うチケットの選択肢をリアルタイムでリスト化し、ユーザーを直接予約ページへ誘導することで、購入までの手間を大幅に削減します。

この機能は、8月に先行導入されたレストラン予約機能の拡張版と位置づけられています。レストラン予約では、人数、日時、場所、料理の種類といった複数の条件を組み合わせて空席情報を探すことが可能で、今回の機能追加で対応範囲がさらに広がった形です。

現在、このエージェント機能は米国内でGoogleの実験的サービス「Search Labs」に参加しているユーザーが利用できます。なお、有料プランである「Google AI Pro」および「Ultra」の加入者は、利用回数の上限が緩和される特典が設けられています。

Googleは、Perplexity AIやOpenAIChatGPT Searchといった競合サービスに対抗するため、2025年3月にAIモードを導入しました。以来、180カ国以上へと提供を拡大し、学習計画を支援する「Canvas」機能などを追加しながら、検索体験の高度化を急いでいます。

Googleは「この機能はまだ初期の実験段階であり、間違いを犯す可能性もある」と注意を促しています。しかし、検索エンジンが単なる情報検索ツールから、ユーザーの目的達成を能動的に支援する「エージェント」へと進化する方向性を明確に示したと言えるでしょう。

Amazon、AI代理購入に「待った」 Perplexityと対立

Amazonの主張

Perplexityの利用規約違反
AIエージェントの身元非開示
ショッピング体験の著しい劣化
サービス参加可否の尊重要求

Perplexityの反論

Amazonによる「いじめ」と批判
あくまで消費者の代理として行動
広告収入優先の姿勢を非難
イノベーションの阻害と主張

Eコマース大手Amazonが、AI検索スタートアップPerplexityに対し、同社のAIブラウザComet」によるAmazon上での商品代理購入機能を停止するよう法的措置をちらつかせ、両社の対立が表面化しました。Perplexityはこれを「いじめ」と非難し、AIエージェントと巨大プラットフォーマーのあり方を巡る議論が始まっています。

Amazonは、PerplexityのAIエージェント身元を明かさずにサイトを利用している点が利用規約に違反すると指摘しています。また、この機能が「著しく劣化したショッピングと顧客サービス体験」をもたらすと主張。第三者サービスは、プラットフォーム側の参加可否の決定を尊重すべきだと強調します。

一方、PerplexityAmazonの要求を「いじめであり、イノベーションを阻害する行為」と強く反発しています。AIエージェントはあくまでユーザーの代理であり、より簡単な買い物はAmazonの利益にもなると主張。Amazonの本当の狙いは、広告やスポンサー商品をユーザーに表示させ続けることにあると非難しています。

この対立の核心は、AIエージェントがウェブサイト上でどのように振る舞うべきかという点にあります。Amazonエージェントが身元を明かすべきだとし、それによってブロックするかどうかを判断する権利を留保したい考えです。これは自社のショッピングAI「Rufus」との競合を避けたい思惑もあると見られます。

この一件は、AIエージェントが普及する未来を占う試金石と言えるでしょう。消費者がAIに買い物を代行させることが当たり前になった時、プラットフォーマーはそれを許容するのか。ウェブのオープン性とプラットフォーマーの利益が衝突する、新たなウェブ戦争の幕開けかもしれません。

AIブラウザDia、前身Arcの人気機能を取り込み進化

Diaの進化戦略

前身Arcの人気機能を統合
AIネイティブ機能との融合
利用者の声に応える機能設計
Atlassianによる買収後の展開

Arcから継承する機能

使いやすいサイドバーモード
自動ピクチャーインピクチャー
カスタムショートカット機能
ワークスペース機能も検討中

Atlassian傘下のThe Browser Companyは、開発中のAIブラウザ「Dia」に、前身である「Arc」で好評だった機能群を統合し始めました。これは、Arcの挑戦で得た知見を活かし、激化するAIブラウザ市場で独自の地位を築く戦略の一環です。使いやすさとAIネイティブ機能を両立させるDiaの進化に注目が集まります。

具体的には、Arcの「グレイテスト・ヒッツ」と呼ばれる人気機能がDiaに移植されます。既に、多くのユーザーに支持されたサイドバーモードや、タブ切り替え時にGoogle Meetを自動で小画面表示する機能などが実装済みです。今後は、作業空間を分ける「Spaces」やタブのピン留め機能の導入も検討されています。

前身のArcは先進的でしたが、多くの機能を詰め込みすぎ「複雑すぎる」という課題を抱えていました。創業者のミラー氏もこの点を認め、一般への普及には至らなかったと分析。この失敗から得た教訓が、Diaのシンプルな設計思想に大きく反映されています。

しかし、Arcの挑戦は無駄ではありませんでした。1年以上の運用で、どの機能がユーザーに本当に価値を提供するかという貴重なデータを蓄積できたからです。この知見が、Diaが他のAIブラウザに対して持つ大きなアドバンテージとなっています。成功のための価値ある実験だったと言えるでしょう。

Diaは今後、Arcの人気機能とAIネイティブのメモリ機能やエージェント機能を融合させます。さらに親会社AtlassianのJiraなどとの連携を深め、シームレスな業務体験を提供していく計画です。ユーザー体験と生産性向上を両立させるDiaの進化から目が離せません。

AI巨額投資を煽るFOMO、バブル懸念強まる

急増する設備投資

ビッグテック4社、年間4000億ドル超へ
OpenAI1兆ドル規模IPO計画

リターンへの疑問と懸念

投資対効果は依然として不透明
OpenAIに横たわる巨額の資金ギャップ
投資家から高まるバブルへの警戒感

投資を駆り立てるFOMO

「取り残される恐怖」が投資を後押し
経営陣にのしかかるAI投資圧力

AmazonGoogleMicrosoftMetaのビッグテック4社が、AI分野での巨額の設備投資を加速させています。2025年の投資総額は4000億ドル(約60兆円)を超える見通しですが、明確な収益モデルは確立されていません。専門家は、この過熱する投資の背景には「FOMO(取り残されることへの恐怖)」があると指摘し、AI業界のバブル化への懸念を強めています。

4社の設備投資額は、2024年だけで3500億ドルを上回りました。各社の決算発表では、来年の投資額はさらに「増加する」「大幅に増加する」との見通しが示されています。これらの投資は主に、AIモデルの学習や運用に不可欠な半導体チップデータセンターの確保に充てられています。

一方で、巨額投資に見合うリターンは不透明なままです。例えばChatGPTを開発するOpenAIは、年間収益120億ドルを達成したと報じられる一方、2029年までに1150億ドルを消費するとの予測もあります。投資家からは「この支出に見合うリターンは得られるのか」という当然の疑問が投げかけられています。

業界内でもバブルを認める声は少なくありません。OpenAIのCEOサム・アルトマン氏でさえ「AIの一部はバブル的だ」と語ります。しかし、各社はAIエージェントなどの新サービスを次々と発表し、コストを削減してでもAIへの資源配分を優先する「使うために使う」戦略を続けているのが現状です。

この投資競争を煽っているのがFOMOに他なりません。VC専門家によれば、企業の取締役会ではCEOに対し「AIに何をしているのか」という問いが常に投げかけられるといいます。明確な収益予測がなくても、競合に遅れを取るリスクを避けるため、各社は投資を続けざるを得ない状況に追い込まれているのです。

もしこのバブルが弾けたとしても、業界が崩壊するわけではないとの見方が主流です。むしろ、資金力のある少数のプレイヤーへの集約・統合が進むと予測されます。成功するのは、必ずしも華やかな消費者向けサービスではなく、コーディング支援や顧客サービスなど、地道に収益を上げる分野かもしれません。

GitHub、AI開発ハブへ。MSのプラットフォーム戦略

Agent HQ構想

AIエージェント向けプラットフォーム
開発エコシステム中心地を維持
外部ツールを統合するオープンな思想

参画する主要プレイヤー

OpenAIAnthropicが初期参加
Google、Cognition、xAIも追随

開発手法の進化

人間は仕様定義や創造に集中
実装はAIエージェントが代行
ツール間のコンテキスト共有を実現

マイクロソフトは、開発者向けイベント「GitHub Universe」で、AIコーディングエージェントのハブとなる新機能「Agent HQ」を発表しました。これはGitHubを単なるコード置き場から、多様なAIが協働する中心的なプラットフォームへと進化させ、開発エコシステムにおける主導権を維持する狙いです。

「Agent HQ」は、OpenAIAnthropicGoogleなどの外部AIコーディングアシスタントGitHubエコシステムに接続するものです。特定のツールに開発者を囲い込むのではなく、オープンなプラットフォームとして開発の中心地であり続けるための戦略と言えるでしょう。

この動きの背景には、開発ワークフロー全体を自動化する「Cursor」のような競合ツールの台頭があります。単なるコード補完から自律的なエージェントへとAIの役割が進化する中、迅速に対応しなければ市場での優位性を失うという危機感がうかがえます。

GitHubの幹部は「人間は仕様定義や創造的なプロセスに集中し、実装はAIエージェントに委ねる時代になる」と語ります。開発者はもはや、個々のツールでコンテキストを再構築する必要がなくなり、より高付加価値な業務に専念できるようになるのです。

この戦略は、マイクロソフトのAI事業全体にとっても極めて重要です。同社はGitHubをAIアプリケーション構築の中核に据えており、「Agent HQ」によって開発者の作業とデータを自社エコシステム内に留め、AI時代の覇権を確固たるものにしようとしています。

AI開発環境Cursor、4倍高速な自社モデル投入

独自モデル「Composer」

競合比4倍の高速性を主張
強化学習とMoEアーキテクチャ採用
知能と速度のバランスを両立

IDEもメジャー更新

新バージョン「Cursor 2.0」を公開
複数AIエージェントの並列実行
VS Codeベースで強力なAI統合

AI統合開発環境(IDE)を開発するCursor社は2025年10月31日、「Cursor 2.0」を発表しました。今回の目玉は、自社開発の高速コーディングモデル「Composer」と、複数のAIエージェントを並行してタスク処理できる新インターフェースです。開発者生産性を飛躍的に高めることを目指します。

新モデル「Composer」の最大の特徴は、その圧倒的な速度です。同社は「同等の知能を持つモデルと比較して4倍高速」と主張。コーディング中の思考を妨げない、スムーズなAIとの対話を実現し、エンジニア生産性向上に直結するとしています。

Composerの高性能は、強化学習混合専門家(MoE)アーキテクチャが支えています。複数の専門家モデルを組み合わせることで、複雑なタスクに対し効率的かつ高品質なコード生成を可能にします。これは最新のAI開発トレンドを反映した設計と言えるでしょう。

IDEの新機能も見逃せません。マルチエージェントインターフェースの搭載により、複数のAIエージェントを同時に実行し、それぞれに異なるタスクを割り当てることが可能になりました。コード生成とデバッグを並行して進めるなど、開発ワークフロー全体の効率化が期待できます。

これまで他社製AIモデルに依存してきたCursorですが、今回の自社モデル投入は大きな転換点です。他社依存からの脱却は、独自の開発思想に基づく最適化を進める強い意志の表れであり、AI開発ツール市場における競争激化を予感させます。

AI投資の成果、鍵は『プロセス理解』にあり

AI投資のROI課題

多くの企業でAI投資の成果が低迷
ビジネスプロセスの文脈欠如が原因
解決の鍵はプロセスインテリジェンス

PIがもたらす価値

業務プロセスのリアルタイム可視化
自律型エージェントへの的確な指示
調査で判明した383%のROI

具体的な導入効果

販売注文の自動化率が53%向上
サプライチェーンの混乱に迅速対応

プロセスインテリジェンス(PI)大手の独Celonis社は、自社イベント「Celosphere 2025」を前に、企業のAI投資におけるROI(投資対効果)の課題を解決する鍵は、ビジネスプロセスの文脈をAIに理解させる「プロセスインテリジェンス」にあると提唱しました。多くの企業がAI導入を進めるものの、ガートナー社の調査では、わずか10%しか意味のある財務的リターンを報告できていないのが現状です。

なぜAI投資は期待外れに終わるのでしょうか。同社のアレックス・リンケ共同CEOは「AIがビジネスプロセスの文脈を理解しなければ、単なる社内の社会実験に過ぎない」と警鐘を鳴らします。AIの成功には、何をすべきかだけでなく、自社のビジネスが実際にどう機能しているかを深く理解させることが不可欠なのです。

プロセスインテリジェンスの導入効果は具体的数値にも表れています。Forrester社の調査によると、Celonis社のプラットフォームを導入した企業は、3年間で平均383%のROIを達成し、わずか6ヶ月で投資を回収。ある企業では販売注文の自動化率が33%から86%に向上し、2450万ドルのコスト削減を実現しました。

特に、自律的に業務を遂行する「AIエージェント」の台頭により、プロセスの理解はこれまで以上に重要になります。AIが助言者から実行者へと進化する中、プロセスの文脈を誤解すれば、発注や在庫移動で壊滅的な結果を招くリスクも。プロセスインテリジェンスは、エージェントが暴走しないための「レール」の役割を担います。

このアプローチは、関税の変動や地政学リスクといった外部環境の変化にも有効です。サプライチェーンの混乱に対し、AIが静的なデータに基づいていては対応できません。プロセスインテリジェンスは業務への影響をリアルタイムで可視化し、企業が混乱をむしろ競争優位に変えることを可能にします。

Celonis社が目指すのは、単なる分析ツールではなく、企業の業務プロセス全体の「デジタルツイン」を構築するプラットフォームです。「プロセスを解放する」という思想のもと、システム間の壁を取り払い、AIが真の価値を発揮する基盤を提供することで、企業の継続的な成長を支援していく考えです。

OpenAI、脆弱性自動発見・修正AI『Aardvark』発表

自律型AIセキュリティ研究者

GPT-5搭載の自律型AIエージェント
脆弱性発見から修正までを自動化
開発者セキュリティ負担を軽減

人間のような分析と連携

コードを読み分析・テストを実行
サンドボックスで悪用可能性を検証
GitHub等の既存ツールと連携

高い実績と今後の展開

ベンチマーク脆弱性特定率92%を達成
OSSで10件のCVE取得に貢献
プライベートベータ参加者を募集

OpenAIは2025年10月30日、最新のGPT-5を搭載した自律型AIエージェント「Aardvark」を発表しました。これは、ソフトウェアの脆弱性を自動で発見・分析し、修正パッチまで提案するAIセキュリティ研究者です。増え続けるサイバー攻撃の脅威に対し、開発者脆弱性対策に追われる現状を打破し、防御側を優位に立たせることを目指します。

Aardvarkの最大の特徴は、人間の一流セキュリティ研究者のように思考し、行動する点にあります。従来の静的解析ツールとは一線を画し、大規模言語モデル(LLM)の高度な推論能力を活用。自らコードを読み解き、テストを書き、ツールを使いこなすことで、複雑な脆弱性も見つけ出します。

そのプロセスは、脅威モデルの分析から始まります。次に、コミットされたコードをスキャンして脆弱性を特定。発見した脆弱性は、サンドボックス環境で実際に悪用可能か検証し、誤検知を徹底的に排除します。最終的に、修正パッチを自動生成し、開発者にワンクリックでの適用を促すなど、既存の開発フローにシームレスに統合されます。

Aardvarkはすでに目覚ましい成果を上げています。ベンチマークテストでは、既知および合成された脆弱性の92%を特定するという高い精度を実証。さらに、オープンソースプロジェクトで複数の未知の脆弱性を発見し、そのうち10件はCVE(共通脆弱性識別子)として正式に採番されています。

ソフトウェアが社会インフラの根幹となる一方、脆弱性は増え続け、2024年だけで4万件以上報告されました。Aardvarkは、開発者がイノベーションに集中できるよう、継続的なセキュリティ監視を自動化します。これは防御側に有利な状況を作り出し、デジタル社会全体の安全性を高める大きな一歩と言えるでしょう。

OpenAIは現在、一部のパートナー向けにAardvarkのプライベートベータ版を提供しており、今後、対象を拡大していく方針です。また、オープンソースエコシステムの安全に貢献するため、非営利のOSSリポジトリへの無償スキャン提供も計画しています。ソフトウェア開発の未来を変えるこの取り組みに、注目が集まります。

OpenAI、新ブラウザの高速化技術「OWL」詳解

新技術「OWL」の概要

Chromiumをプロセス分離
アプリ本体とエンジンを独立
独自通信技術で両者を連携

OWLがもたらす主な利点

アプリの瞬時な起動
エンジンクラッシュからの保護
保守性の高いコード構造
AIエージェント機能の基盤
高速な開発サイクルの維持

OpenAIは10月30日、同社が開発した新ブラウザ「Atlas」の基盤となる新アーキテクチャ「OWL (OpenAI's Web Layer)」の詳細を公開しました。GoogleのChromiumをベースとしつつ、そのブラウザエンジンをメインアプリからプロセス分離する独自の手法を採用。これにより、アプリの瞬時な起動、多数のタブを開いても損なわれない応答性、そして将来のAIエージェント機能の強力な基盤を実現します。

Atlas開発では、リッチなアニメーションを持つUIや高速な起動時間が目標とされました。しかし、既存のChromiumアーキテクチャのままではこれらの実現は困難でした。UIを単に作り変えるのではなく、Chromiumを根本から統合し直すことで、製品目標と開発速度を両立させる新しいアプローチが必要とされたのです。

その答えが新アーキテクチャ「OWL」です。これは、Chromiumが各タブを個別のプロセスに分離して安定性を高めたアイデアをさらに発展させ、Chromium自体をアプリから分離するものです。Atlas本体とChromiumは独立して動作し、独自の通信システムを介して連携。これにより、片方のクラッシュがもう一方に影響を与えません。

このプロセス分離は、開発効率も劇的に改善しました。エンジニアはビルドに数時間かかるChromiumを直接扱う必要がなく、事前ビルドされたOWLを利用します。これにより、開発サイクルは数時間から数分に短縮され、新入社員が初日にコードをマージする同社の文化も維持できたといいます。

このアーキテクチャは、Atlasの目玉機能であるAIエージェントによるブラウジングにも不可欠です。エージェントが操作するセッションは、ユーザーデータから完全に隔離された安全な環境で実行されます。プライバシーを保護しつつ、AIがタスクを代行する未来のブラウジング体験の基盤となります。

OpenAIの挑戦は、巨大なオープンソースをいかに自社製品に組み込み、独自の価値を付加するかの好例です。エンジンとUIを分離する「OWL」は、革新的なユーザー体験と開発速度の両立を目指す多くの開発者にとって、重要な示唆を与えるでしょう。

「AIブラウザは時限爆弾」専門家が重大警鐘

AIブラウザの3大リスク

性急な開発と未知の脆弱性
AIの記憶機能による過剰な追跡
悪用されやすいAIエージェント

巧妙化する攻撃手法

指示を注入するプロンプト攻撃
画像やメールに隠された命令
自動化による無限試行攻撃

ユーザーができる自衛策

AI機能は必要な時だけ利用
安全なサイトを手動で指定

OpenAIマイクロソフトなどが開発を急ぐAI搭載ブラウザについて、サイバーセキュリティ専門家が「時限爆弾だ」と重大な警鐘を鳴らしています。AIエージェントの悪用や過剰な個人情報追跡といった新たな脆弱性が指摘され、利便性の裏でユーザーが未知のリスクに晒されているとの懸念が急速に広がっています。

最大の脅威は「プロンプトインジェクション」です。これは、攻撃者がAIエージェント悪意のある指示を注入し、ユーザーに代わって不正操作を行わせる手口。画像やメールに巧妙に隠された命令で個人情報を盗んだり、マルウェアを仕込んだりする危険性があります。

また、AIブラウザは閲覧履歴やメール内容などあらゆる情報を学習する「記憶」機能を持ちます。これにより、かつてないほど詳細な個人プロファイルが生成されます。この情報がひとたび漏洩すれば、クレジットカード情報などと結びつき、甚大な被害につながりかねません。

各社が開発競争を急ぐあまり、製品の十分なテストや検証が不足している点も問題です。未知の脆弱性が残されたまま市場投入され、ハッカーに悪用される「ゼロデイ攻撃」のリスクを高めていると専門家は指摘。技術の急進展が安全性を犠牲にしている構図です。

AIエージェントを標的とした攻撃は、検知が非常に困難な点も厄介です。AIの判断を介するため、従来のセキュリティ対策では防ぎきれないケースが想定されます。攻撃者は自動化ツールで何度も試行できるため、防御側は不利な立場に置かれやすいのが現状です。

では、ユーザーはどう身を守ればよいのでしょうか。専門家は、AI機能をデフォルトでオフにし、必要な時だけ使うことを推奨します。AIに作業させる際は、URLを直接指定するなど、行動を限定的にすることが重要です。漠然とした指示は、意図せず危険なサイトへ誘導する可能性があります。

AIエージェント群の統制、成否分けるゲートウェイ

AIゲートウェイの役割

コスト増大や複雑化のリスク防止
全社的なガバナンスとセキュリティの徹底
複数AIモデル・ツールを一元管理し最適化

導入の最適タイミング

AI成熟度のステージ2(初期実験期)が最適
ステージ4以降の導入は手戻りが多く困難

導入前の必須準備

本番稼働中のAIユースケース
文書化されたAI戦略と成功基準
明確なガバナンスと承認体制

企業が自律型AI「エージェントワークフォース」の導入を進める中、その大規模展開にはコスト増大やガバナンス欠如のリスクが伴います。この課題を解決する鍵として、AIモデルやツールを一元管理する「AIゲートウェイ」の戦略的導入が不可欠になっています。これは、AI活用を次の段階へ進めるための重要な岐路と言えるでしょう。

エージェントワークフォースとは、単なる自動化ツールではありません。自ら思考し、複雑な業務を遂行する「デジタルの従業員」の集まりです。しかし、個々のAIエージェントが強力でも、組織全体で統制が取れていなければ、その価値は半減してしまいます。真の変革は、単体のエージェントから「群れ」へとスケールさせることで初めて生まれるのです。

そこで重要になるのがAIゲートウェイです。これは、社内で使われる様々なAIモデル、API、データソースへのアクセスを一元的に管理・監視する「関所」のような役割を果たします。ゲートウェイがなければ、各部署がバラバラにAIを導入し、コストの重複、セキュリティリスクの増大、コンプライアンス違反を招きかねません。

では、AIゲートウェイ導入の最適なタイミングはいつでしょうか。専門家は、AI活用の成熟度における「初期実験段階(ステージ2)」をゴールデンウィンドウと指摘します。いくつかのユースケースが本番稼働し始めたこの時期に導入すれば、手戻りなく円滑に規模を拡大できます。ガバナンスが確立した後のステージ4以降では、導入は困難を極めます。

ゲートウェイ導入を成功させるには、事前の準備が欠かせません。具体的には、①本番稼働しているAIユースケース、②文書化されたAI戦略と成功基準、③誰が何を承認するかの明確なガバナンス体制の3点です。これらがなければ、ゲートウェイは宝の持ち腐れとなり、AI活用のスケールを阻害する要因にすらなり得ます。

AIゲートウェイは単なる管理ツールではなく、企業のAI活用を加速させる戦略的投資です。運用負荷の削減やリスク低減はもちろん、新たなAI技術を迅速かつ安全に試せる俊敏性をもたらします。来るべき「エージェントワークフォース時代」の競争優位を築くため、早期の検討が求められています。

AIエージェント、複雑業務の遂行能力は未だ3%未満

AIの実務能力を測る新指標

新指標「Remote Labor Index」登場
データ企業Scale AIなどが開発
フリーランス業務での能力を測定

トップAIでも能力に限界

最高性能AIでも遂行率3%未満
複数ツール利用や多段階作業に課題
長期記憶や継続的な学習能力が欠如

過度な期待への警鐘

「AIが仕事を奪う」説への反論
OpenAIの指標とは異なる見解

データ注釈企業Scale AIと非営利団体CAISが、AIエージェントの実務能力を測る新指標を発表。調査によると、主要AIはフリーランスの複雑な業務を3%未満しか遂行できず、AIによる大規模な業務代替がまだ現実的ではないことを示唆しています。AIの能力に関する過度な期待に警鐘を鳴らす結果です。

新指標「Remote Labor Index」は、デザインやデータ収集など実際のフリーランス業務をAIに与え、その遂行能力を測定します。中国Manusが最高性能を示し、xAIGrokOpenAIChatGPTが続きましたが、いずれも低い成果でした。

AIの課題は、複数のツールを連携させ、多段階の複雑なタスクを計画・実行する能力にあると指摘されています。人間のように経験から継続的に学習したり、長期的な記憶を保持したりする能力の欠如も、実務における大きな壁となっているようです。

この結果は「AIが仕事を奪う」という過熱した議論に一石を投じます。過去にも同様の予測は外れてきました。今回の調査は、AIの現在の能力を客観的に評価する必要性を示唆しており、技術の進歩が必ずしも直線的ではないことを物語っています。

OpenAIベンチマーク「GDPval」はAIが人間に近づいていると示唆しましたが、今回の指標は実世界に近いタスクでは大きな隔たりがあることを明らかにしました。指標の設計によってAIの能力評価は大きく変わることを示しています。

Amazonが人員削減の一因にAIを挙げるなど、AIと雇用の関係が注目される中、その真の実力を見極めることは不可欠です。AIを脅威と見るだけでなく、生産性を高めるツールとして活用する視点が、今後ますます重要になるでしょう。

TC Disrupt最終日、BoxやSolanaのCEOら登壇

豪華登壇者が語る技術トレンド

BoxのCEOが語るクラウドの未来
Solana共同創業者が描く暗号資産の次章
著名投資家Elad Gilによる最新トレンド解説
NBA選手が語るAIとスポーツ

スタートアップ注目のAIセッション

Character.AIのCEOが登壇
Hugging Faceが語るAIスタック
Google Cloudが解説するAIエージェント
ピッチコンテスト優勝者発表

10月29日、米サンフランシスコで世界最大級のスタートアップイベント「TechCrunch Disrupt 2025」が最終日を迎えました。BoxやSolana、Character.AIといった有力企業のCEOらが登壇し、AIやクラウド暗号資産の未来について議論。最終日も熱気に包まれ、多くの経営者投資家が次世代技術の動向に注目しました。

中心的な「Disrupt Stage」では、Boxのアーロン・レヴィCEOがクラウド企業の生存と再発明について語りました。また、Solana共同創設者のアナトリー・ヤコヴェンコ氏は暗号資産の次章と題して講演。著名投資家Elad Gil氏やNBA選手のトリスタン・トンプソン氏など、多彩な顔ぶれが登壇し、会場を沸かせました。

特に注目を集めたのが「AI Stage」です。対話型AIで急成長するCharacter.AIのCEOが登壇したほか、Hugging Faceの共同創業者兼CSOが最新のAIスタックについて解説。Google CloudのCTOは、今後のクラウドにおけるAIエージェントの役割についてビジョンを示し、多くの聴衆を引きつけました。

イベントの目玉であるピッチコンテスト「Startup Battlefield」もついに決勝を迎え、優勝者が発表されました。世界中から集まった革新的なスタートアップの中から選ばれた一社が、賞金と栄誉を手にします。このコンテストは、未来のユニコーン企業が生まれる登竜門として知られています。

3日間にわたるイベントは、AIを筆頭とする最先端技術のショーケースとなりました。250以上のセッション、300社以上のスタートアップ展示に加え、投資家起業家同士の活発なネットワーキングが行われ、新たなイノベーションの種が蒔かれました。技術トレンドの最前線を体感できる貴重な機会と言えるでしょう。

AI検索でSEO25%減、次世代『GEO』が新常識に

AI検索が変える常識

従来検索25%減の予測
Google検索多様化・複雑化

新潮流「GEO」の要点

生成AIへの新最適化手法
簡潔で明瞭な回答が鍵
リンク無きブランド言及も重要

Geostar社の自動化戦略

AIエージェントによる自動最適化
学習内容を全顧客で共有・展開

調査会社ガートナーが、AIチャットボットの台頭により従来の検索エンジン利用量が2026年までに25%減少するとの予測を発表しました。企業のオンライン戦略が大きな転換点を迎える中、従来のSEO検索エンジン最適化)に代わる新手法「GEO(生成エンジン最適化)」が急速に注目を集めています。この新領域を先駆けるのが、スタートアップのGeostar社です。

なぜ今、GEOが重要なのでしょうか。ガートナーの予測に加え、プリンストン大学の研究では、AIシステム向けに最適化することで企業のオンラインでの可視性が最大40%向上する可能性が示唆されています。検索インターフェースは従来のGoogle検索だけでなく、AI OverviewChatGPTなどへと多様化・複雑化しており、それぞれ異なるアプローチが求められます。

SEOとGEOは根本的に異なります。従来のSEOがキーワードや被リンク数を重視したのに対し、GEOはAI(大規模言語モデル)がいかに情報を理解し、要約・生成するかに焦点を当てます。AIが求めるのは、冗長な説明ではなく、問いに対する簡潔で明確な回答であり、構造化されたデータ提供が鍵となります。

Geostar社はこの課題に対し、AIエージェントを顧客サイトに直接組み込むという画期的な解決策を提示します。このエージェントは、コンテンツや技術設定を継続的に自動で最適化し、ある顧客で得た知見をネットワーク全体で共有。まさに「代理店レベルの作業をソフトウェアのように拡張する」アプローチです。

GEOの時代では、評価指標も変わります。SEOで重視された「リンク」がなくとも、ニュース記事やSNSでの肯定的なブランド言及自体が、AIの評価に直接影響を与えるようになります。クリックされずとも、AIの回答内でいかに好意的に表示されるかという「インプレッション」が新たな成功指標となるでしょう。

この市場機会を捉えようと多くの企業がGEO分野に参入し、競争が激化しています。特に専門部署を持たない中小企業にとって、AI時代の変化への対応は死活問題です。オンラインで顧客に選ばれ続けるために、GEOへの取り組みはもはや選択肢ではなく、ビジネス存続のための必須戦略と言えるでしょう。

LangChain、誰でもAIエージェントを開発できる新ツール

ノーコードで誰でも開発

開発者でも対話形式で構築
従来のワークフロービルダーと一線
LLMの判断力で動的に応答
複雑なタスクをサブエージェントに分割

連携と自動化を加速

Gmail等と連携するツール機能
イベントで起動するトリガー機能
ユーザーの修正を学習する記憶機能
社内アシスタントとして活用可能

AI開発フレームワーク大手のLangChainは10月29日、開発者以外のビジネスユーザーでもAIエージェントを構築できる新ツール「LangSmith Agent Builder」を発表しました。このツールは、プログラミング知識を必要としないノーコード環境を提供し、対話形式で簡単にエージェントを作成できるのが特徴です。組織全体の生産性向上を目的としています。

新ツールの最大の特徴は、従来の視覚的なワークフロービルダーとは一線を画す点にあります。あらかじめ決められた経路をたどるのではなく、大規模言語モデル(LLM)の判断能力を最大限に活用し、より動的で複雑なタスクに対応します。これにより、単純な自動化を超えた高度なエージェントの構築が可能になります。

エージェントは主に4つの要素で構成されます。エージェントの論理を担う「プロンプト」、GmailやSlackなど外部サービスと連携する「ツール」、メール受信などをきっかけに自動起動する「トリガー」、そして複雑なタスクを分割処理する「サブエージェント」です。これらを組み合わせ、目的に応じたエージェントを柔軟に設計できます。

開発のハードルを大きく下げているのが、対話形式のプロンプト生成機能です。ユーザーが自然言語で目的を伝えると、システムが質問を重ねながら最適なプロンプトを自動で作成します。さらに、エージェント記憶機能を備えており、ユーザーによる修正を学習し、次回以降の応答に反映させることができます。

具体的な活用例として、メールやチャットのアシスタントSalesforceとの連携などが挙げられます。例えば、毎日のスケジュールと会議の準備資料を要約して通知するエージェントや、受信メールの内容に応じてタスク管理ツールにチケットを作成し、返信案を起草するエージェントなどが考えられます。

「LangSmith Agent Builder」は現在、プライベートプレビュー版として提供されており、公式サイトからウェイトリストに登録できます。同社は、オープンソースのLangChainやLangGraphで培った知見を活かしており、今後もコミュニティの意見を取り入れながら機能を拡張していく方針です。

Grammarlyが社名変更、AIアシスタントで新章へ

「Superhuman」への刷新

AIライティング支援のGrammarly
社名を「Superhuman」に変更
買収したCoda、Superhuman Mailを統合
生産性向上AIブランドへの転換

新AIアシスタント登場

Superhuman Go」をローンチ
100以上のアプリと連携可能
文脈を理解しタスクを自動化
競合のAI機能に対抗する一手

AIライティング支援ツール大手のGrammarlyは29日、社名を「Superhuman」に変更し、新たなAIアシスタントSuperhuman Go」を発表しました。これは、文章校正ツールから脱却し、多様なアプリケーションと連携して業務を自動化する統合AIプラットフォームへの転換を目指すものです。生成AIの急速な進化と市場競争の激化に対応する、同社の戦略的な一手と言えるでしょう。

アシスタントSuperhuman Go」の最大の特徴は、その高度な連携機能です。Google WorkspaceやJiraなど100以上のアプリと接続し、ユーザーの作業文脈を深く理解します。例えば、メール文面からGoogleカレンダーの空き時間を参照して会議を自動で設定したり、データベースの情報を基に的確な提案内容を補完したりと、具体的な業務タスクの自動化を実現します。

今回のリブランドは、2024年12月のCoda、2025年6月のSuperhuman Mailの買収に続く計画的な動きです。「Grammarly」という名称が持つ「文章作成支援」のイメージを超え、より広範な生産性向上AIブランドとしての認知を確立する狙いがあります。同社は、単一機能のツールではなく、仕事のあらゆる場面を支えるプラットフォームとしての地位を目指します。

長年親しまれてきた「Grammarly」のライティングツール自体は、今後も利用可能です。ただし、その位置づけはSuperhumanプラットフォームを構成する主要なAIエージェントの一つへと変わります。Proプラン購読者は、2026年2月1日まで追加費用なしでSuperhuman Goを利用でき、スムーズな移行を促します。

この動きは、NotionGoogle Workspaceなど、AI機能を次々と投入する競合への明確な対抗策です。Superhumanは今後、CRMや企業独自の社内システムとの連携も視野に入れており、よりパーソナライズされた業務支援の実現を目指します。ライティング支援から始まった同社が、AI時代のワークプラットフォームの覇権を握れるか、その真価が問われます。

DeepMind、AIで数学研究を加速 世界的研究機関と連携

世界的機関との連携

5つの世界的研究機関提携
基礎研究と応用AIの連携を強化

AIがもたらす数学の進歩

数学五輪で金メダル級の成績
50年来の行列乗算記録を更新
未解決問題の20%で解を改善

提供される最先端AI技術

アルゴリズム発見AlphaEvolve
形式的証明システムAlphaProof

Google DeepMindは2025年10月29日、AIを活用して数学研究を加速させる新構想「AI for Math Initiative」を発表しました。この取り組みは、インペリアル・カレッジ・ロンドンなど5つの世界的な研究機関と連携し、Googleの最先端AI技術を提供することで、数学における未解決問題の解明と新たな発見を促進することを目的としています。

本イニシアチブは、AIによる洞察が期待される次世代の数学的問題を特定し、研究を加速させる基盤を構築します。提携機関は基礎研究と応用AIの強力なフィードバックループを生み出し、発見のペースを上げることを共通の目標としています。

Googleは、パートナー機関に最先端技術へのアクセスを提供します。具体的には、高度な推論モードを持つ「Gemini Deep Think」、アルゴリズム発見エージェントAlphaEvolve」、形式的証明を完成させるシステム「AlphaProof」などです。これらが数学者の創造性を拡張する強力なツールとなります。

近年、AIの推論能力は目覚ましく進化しています。GoogleのAIは国際数学オリンピックで金メダル級の成績を収めました。さらに、行列乗算の計算手法で50年以上破られなかった記録を更新するなど、AIが人間の知性を超える成果を出し始めています。

この取り組みは、数学のフロンティアを押し広げるだけではありません。数学は物理学からコンピューターサイエンスまで、あらゆる科学の基礎言語です。AIとの協働による数学の進歩は、科学全体のブレークスルーにつながる大きな可能性を秘めています。

AIに何ができるのか、我々はその全容を理解し始めたばかりです。世界トップクラスの数学者の直感とAIの斬新な能力を組み合わせることで、新たな研究の道が開かれます。この連携が人類の知識を前進させる新たな原動力となると期待されます。

自律型AI導入、コンテキストエンジニアリングが鍵

自律型AIの課題と未来

信頼性の高い応答にコンテキストが必須
企業データは様々な場所に散在
2026年までに大企業の6割が導入予測

Elasticが示す解決策

AIに必要なデータとツールを提供
新機能Agent Builderで開発を簡素化
専門知識不要でAIエージェント構築

自律的に思考し業務を遂行する「自律型AI」の導入が企業で加速する中、その信頼性を担保する鍵として「コンテキストエンジニアリング」が注目されています。検索・分析プラットフォーム大手のElastic社は、企業の散在するデータをAIに的確に与えるこの技術が不可欠だと指摘。同社が提供する新機能「Agent Builder」は、専門家でなくとも自社のデータに基づいた高精度なAIエージェントの構築を可能にします。

自律型AIの性能は、与えられるコンテキストの質に大きく依存します。しかし多くの企業では、必要なデータが文書、メール、業務アプリなどに散在しており、AIに一貫したコンテキストを提供することが困難です。Elastic社の最高製品責任者ケン・エクスナー氏は、この「関連性」の問題こそが、AIアプリケーション開発でつまずく最大の原因だと指摘しています。

市場は急速な拡大期を迎えています。調査会社Deloitteは、2026年までに大企業の60%以上が自律型AIを本格導入すると予測。またGartnerは、同年末までに全企業向けアプリの40%がタスク特化型エージェントを組み込むと見ています。競争優位性の確保や業務効率化に向け、各社は実験段階から本格的な実装へと舵を切っており、導入競争は待ったなしの状況です。

この課題を解決するのが、適切なコンテキストを適切なタイミングでAIに提供する「コンテキストエンジニアリング」です。これは、AIが正確な応答をするために必要なデータを提供するだけでなく、そのデータを見つけて利用するためのツールやAPIをAI自身が理解する手助けをします。プロンプトエンジニアリングやRAG(検索拡張生成)から一歩進んだ手法として注目されています。

Elastic社はこの潮流に対応し、Elasticsearchプラットフォーム内に新機能「Agent Builder」を技術プレビューとして公開しました。これは、AIエージェントの開発から実行、監視までライフサイクル全体を簡素化するものです。ユーザーは自社のプライベートデータを用いてツールを構築し、LLMと組み合わせて独自のAIエージェントを容易に作成できます。

コンテキストエンジニアリングは、高度な専門知識がなくとも実践できる一方、その効果を最大化するには技術と経験が求められ、新たな専門分野として確立されつつあります。今後はLLMが訓練データに含まれない企業固有のデータを理解するための新しい技術が次々と登場し、AIによる自動化と生産性向上をさらに加速させると期待されています。

Cursor、4倍速の自社製AI「Composer」を投入

自社製LLMの驚異的な性能

同等モデル比で4倍の高速性
フロンティア級の知能を維持
生成速度は毎秒250トークン
30秒未満での高速な対話

強化学習で「現場」を再現

静的データでなく実タスクで訓練
本番同様のツール群を使用
テストやエラー修正も自律実行
Cursor 2.0で複数エージェント協調

AIコーディングツール「Cursor」を開発するAnysphere社は、初の自社製大規模言語モデル(LLM)「Composer」を発表しました。Cursor 2.0プラットフォームの核となるこのモデルは、同等レベルの知能を持つ他社モデルと比較して4倍の速度を誇り、自律型AIエージェントによる開発ワークフローに最適化されています。開発者生産性向上を強力に後押しする存在となりそうです。

Composerの最大の特徴はその圧倒的な処理速度です。毎秒250トークンという高速なコード生成を実現し、ほとんどの対話を30秒未満で完了させます。社内ベンチマークでは、最先端の知能を維持しながら、テスト対象のモデルクラスの中で最高の生成速度を記録。速度と賢さの両立が、開発者の思考を妨げないスムーズな体験を提供します。

この高性能を支えるのが、強化学習(RL)と混合専門家(MoE)アーキテクチャです。従来のLLMが静的なコードデータセットから学習するのに対し、Composerは実際の開発環境内で訓練されました。ファイル編集や検索、ターミナル操作といった本番同様のタスクを繰り返し解くことで、より実践的な能力を磨き上げています。

訓練プロセスを通じて、Composerは単なるコード生成にとどまらない創発的な振る舞いを獲得しました。例えば、自律的にユニットテストを実行して品質を確認したり、リンター(静的解析ツール)が検出したエラーを修正したりします。これは、AIが開発プロジェクトの文脈を深く理解している証左と言えるでしょう。

Composerは、刷新された開発環境「Cursor 2.0」と完全に統合されています。新環境では最大8体のAIエージェントが並行して作業するマルチエージェント開発が可能になり、Composerがその中核を担います。開発者は複数のAIによる提案を比較検討し、最適なコードを選択できるようになります。

この「エージェント駆動型」のアプローチは、GitHub Copilotのような受動的なコード補完ツールとは一線を画します。Composerは開発者の指示に対し、自ら計画を立て、コーディング、テスト、レビューまでを一気通貫で行う能動的なパートナーです。AIとの協業スタイルに新たな標準を提示するものと言えます。

Composerの登場は、AIが単なる補助ツールから、開発チームの一員として自律的に貢献する未来を予感させます。その圧倒的な速度と実践的な能力は、企業のソフトウェア開発における生産性、品質、そして収益性を新たな次元へと引き上げる強力な武器となる可能性を秘めています。

Box CEOが見通すAIとSaaSのハイブリッドな未来

AIとSaaSの役割分担

基幹業務はSaaSが担当
決定論的システムリスク管理
AIが意思決定・自動化を支援

ビジネスモデルの大変革

「ユーザー課金」から従量課金へ
AIエージェントが人間を凌駕
ソフトウェア利用者が爆発的に増加

スタートアップの好機

エージェントファーストでの設計
15年ぶりのプラットフォームシフト

Box社のアーロン・レヴィCEOは、AIエージェントがSaaSを完全に置き換えるのではなく、両者が共存するハイブリッドモデルが主流になるとの見解を示しました。米テッククランチ主催のカンファレンスで語られたもので、この変化がビジネスモデルを根本から覆し、スタートアップに新たな好機をもたらすと指摘しています。

なぜハイブリッドモデルが最適なのでしょうか。レヴィ氏は、基幹業務のようなミッションクリティカルなプロセスは、予期せぬ変更リスクを避けるため、SaaSのような決定論的なシステムで定義すべきだと説明します。AIエージェントによるデータ漏洩やシステム障害のリスクを分離する必要があるからです。

具体的には、SaaSが中核となるビジネスワークフローを提供し、その上でAIエージェントが稼働する形を想定しています。AIエージェントは、人間の意思決定を支援したり、ワークフローを自動化したりするなど、業務プロセスを加速させる役割を担うことになります。

この変化はビジネスモデルに劇的な影響を与えます。レヴィ氏は、AIエージェントの数が人間のユーザー数を100倍から1000倍上回ると予測。これにより、従来の「ユーザー単位課金」モデルは機能しなくなり、消費量や利用量に基づく課金体系への移行が不可避となります。

この大変革は、特にスタートアップにとって大きなチャンスです。既存のビジネスプロセスを持たないため、ゼロからエージェントファースト」の思想で新しいソリューションを設計できるからです。大企業が既存システムにAIを統合するよりも、はるかに有利な立場にあるとレヴィ氏は指摘します。

「私たちは約15年ぶりの完全なプラットフォームシフトの只中にいる」とレヴィ氏は強調します。この歴史的な転換期は、新世代の企業が台頭する絶好の機会です。同氏は起業家に対し、この好機を最大限に活用するよう強く呼びかけました。

ChatGPT内決済が実現へ、PayPalとOpenAIが提携

提携の核心

2026年からChatGPT内で決済開始
OpenAIの決済プロトコルACPを採用
PayPalが初のデジタルウォレットに

利用者・加盟店の利便性

会話から離れずシームレスな購入体験
加盟店は追加開発不要で販路拡大
PayPalの購入者・販売者保護を適用

AIコマースの未来

Google等も決済プロトコル開発で競争
AIエージェントによる代理購入が本格化

決済大手のPayPalは10月28日、AI開発のOpenAI提携し、2026年から対話AI「ChatGPT」内で直接商品を購入できる決済機能を導入すると発表しました。ユーザーはAIとの対話からシームレスに購入まで完結でき、AIによる購買体験「エージェントコマース」の普及を加速させる狙いです。

この機能は、OpenAIが開発した「インスタント・チェックアウト」機能と、オープンソースの仕様であるエージェントコマース・プロトコル(ACP)」をPayPalが採用することで実現します。ユーザーは使い慣れたPayPalウォレットを選択し、配送先や支払い情報を確認するだけで、ChatGPTの画面を離れることなく購入を完了できます。

加盟店にとっても大きなメリットがあります。PayPalの決済サービスを利用している企業は、追加のシステム開発を行うことなく、自社の商品カタログをChatGPTの販売網に自動的に接続できます。当初はアパレル、美容、家電などのカテゴリーから開始し、順次拡大される予定です。

AIによる購買が本格化する中、PayPalはAIコマース分野での主導権確保を急いでいます。同社はAI検索PerplexityGoogleとも同様の提携を進めており、各社が開発する決済プロトコルに対応する柔軟な戦略をとっています。AIエージェントによる決済の標準化を巡る競争は、今後さらに激化する見通しです。

今回の提携は、単なる決済機能の統合にとどまりません。AIがユーザーの意図を汲み取って最適な商品を提案し、購入まで代行するエージェントコマース」時代の本格的な幕開けを象徴しています。企業はAIプラットフォームを新たな販売チャネルとしてどう活用するかが問われることになりそうです。

NVIDIA、AI工場設計図と新半導体を一挙公開

AI工場構築の設計図

政府向けAI工場設計図を公開
ギガワット級施設のデジタルツイン設計
次世代DPU BlueField-4発表
産業用AIプロセッサ IGX Thor

オープンなAI開発

高効率な推論モデルNemotron公開
物理AI基盤モデルCosmosを提供
6G研究用ソフトをオープンソース化

NVIDIAは10月28日、ワシントンD.C.で開催の技術会議GTCで、政府・規制産業向けの「AIファクトリー」参照設計や次世代半導体、オープンソースのAIモデル群を一挙に発表しました。これは、セキュリティが重視される公共分野から創薬エネルギー、通信といった基幹産業まで、AIの社会実装をあらゆる領域で加速させるのが狙いです。ハード、ソフト、設計思想まで網羅した包括的な戦略は、企業のAI導入を新たな段階へと導く可能性があります。

発表の核となるのが、AI導入の設計図です。政府・規制産業向けに高いセキュリティ基準を満たす「AI Factory for Government」を発表。PalantirやLockheed Martinなどと連携します。また、Omniverse DSXブループリントは、ギガワット級データセンターデジタルツインで設計・運用する手法を提示。物理的な建設前に効率や熱問題を最適化し、迅速なAIインフラ構築を可能にします。

AIインフラの性能を根幹から支える新半導体も発表されました。次世代DPU「BlueField-4」は、AIデータ処理、ネットワーキング、セキュリティを加速し、大規模AI工場の中枢を担います。さらに、産業・医療のエッジ向けには、リアルタイム物理AIプロセッサ「IGX Thor」を投入。従来比最大8倍のAI性能で、工場の自動化や手術支援ロボットの進化を後押しします。

開発者エコシステムの拡大に向け、AIモデルのオープンソース化も加速します。高効率な推論でAIエージェント構築を容易にする「Nemotron」モデル群や、物理世界のシミュレーションを可能にする「Cosmos」基盤モデルを公開。さらに、次世代通信規格6Gの研究開発を促進するため、無線通信ソフトウェア「Aerial」もオープンソースとして提供します。

これらの技術は既に具体的な産業応用へと結実しています。製薬大手イーライリリーは、1000基以上のNVIDIA Blackwell GPUを搭載した世界最大級の創薬AIファクトリーを導入。General Atomicsは、核融合炉のデジタルツインを構築し、シミュレーション時間を数週間から数秒に短縮するなど、最先端科学の現場で成果を上げています。

今回の一連の発表は、AIが研究開発段階から、社会を動かす基幹インフラへと移行する転換点を示唆しています。NVIDIAが提示する「AIファクトリー」という概念は、あらゆる産業の生産性と競争力を再定義する可能性を秘めています。自社のビジネスにどう取り入れ、新たな価値を創造するのか。経営者やリーダーには、その構想力が問われています。

Copilot進化、会話だけでアプリ開発・業務自動化

「誰でも開発者」の時代へ

自然言語だけでアプリ開発
コーディング不要で業務を自動化
特定タスク用のAIエージェントも作成
M365 Copilot追加料金なしで搭載

戦略と競合優位性

9年間のローコード戦略の集大成
M365内の文脈理解が強み
プロ向けツールへの拡張性を確保
IT部門による一元管理で統制可能

Microsoftは、AIアシスタントCopilot」に、自然言語の対話だけでアプリケーション開発や業務自動化を可能にする新機能を追加したと発表しました。新機能「App Builder」と「Workflows」により、プログラミング経験のない従業員でも、必要なツールを自ら作成できる環境が整います。これは、ソフトウェア開発の民主化を加速させる大きな一歩と言えるでしょう。

「App Builder」を使えば、ユーザーは「プロジェクト管理アプリを作って」と指示するだけで、データベースやユーザーインターフェースを備えたアプリが自動生成されます。一方、「Workflows」は、Outlookでのメール受信をトリガーにTeamsで通知し、Plannerにタスクを追加するといった、複数アプリをまたぐ定型業務を自動化します。専門的なAIエージェントの作成も可能です。

これらの強力な新機能は、既存のMicrosoft 365 Copilotサブスクリプション(月額30ドル)に追加料金なしで含まれます。Microsoftは、価値ある機能を標準搭載することでスイート製品の魅力を高める伝統的な戦略を踏襲し、AIによる生産性向上の恩恵を広くユーザーに提供する構えです。

今回の機能強化は、同社が9年間にわたり推進してきたローコード/ノーコード開発基盤「Power Platform」の戦略的な集大成です。これまで専門サイトでの利用が主だった開発ツールを、日常的に使うCopilotの対話画面に統合することで、すべてのオフィスワーカーが「開発者」になる可能性を切り拓きます。

Microsoftの強みは、Copilotがユーザーのメールや文書といったMicrosoft 365内のデータをすでに理解している点にあります。この文脈理解能力を活かすことで、競合のローコードツールよりも的確で実用的なアプリケーションを迅速に構築できると、同社は自信を見せています。

従業員による自由なアプリ開発は「シャドーIT」のリスクも懸念されますが、対策は万全です。IT管理者は、組織内で作成された全てのアプリやワークフロー一元的に把握・管理できます。これにより、ガバナンスを効かせながら、現場主導のDX(デジタルトランスフォーメーション)を安全に推進することが可能になります。

Microsoftは、かつてExcelのピボットテーブルがビジネススキルの標準となったように、アプリ開発がオフィスワーカーの必須能力となる未来を描いています。今回の発表は、ソフトウェア開発のあり方を根底から変え、数億人規模の「市民開発者を創出する野心的な一手と言えるでしょう。

LangChain、DeepAgents 0.2公開 長期記憶を実装

DeepAgents 0.2の進化

プラグイン可能なバックエンド導入
ローカルやS3を長期記憶に活用
大規模なツール結果の自動退避機能
会話履歴の自動要約で効率化

各ライブラリの役割

DeepAgents: 自律エージェント用ハーネス
LangChain: コア機能のフレームワーク
LangGraph: ワークフローランタイム
3つのライブラリは階層構造で連携

AI開発フレームワークのLangChainは2025年10月28日、自律型AIエージェント構築用のパッケージ「DeepAgents」のバージョン0.2を公開しました。複雑なタスクを長時間実行できるエージェント開発を加速させることが目的です。最大の目玉は、任意のデータストアを「ファイルシステム」として接続できるプラグイン可能なバックエンド機能で、エージェントの長期記憶や柔軟性が大幅に向上します。

これまでDeepAgentsのファイルシステムは、LangGraphのステートを利用した仮想的なものに限定されていました。しかし新バージョンでは、「Backend」という抽象化レイヤーが導入され、開発者はローカルのファイルシステムやクラウドストレージなどを自由に接続できるようになりました。これにより、エージェントがアクセスできるデータの範囲と永続性が飛躍的に高まります。

特に注目すべきは、複数のバックエンドを組み合わせる「コンポジットバックエンド」です。例えば、基本的な作業領域はローカルを使いつつ、「/memories/」のような特定のディレクトリへの操作だけをクラウドストレージに振り分ける設定が可能。これにより、エージェントはセッションを越えて情報を記憶・活用する長期記憶を容易に実装できます。

バージョン0.2では、バックエンド機能の他にも実用的な改善が多数追加されました。トークン数が上限を超えた場合に、ツールの大規模な実行結果を自動でファイルに退避させたり、長くなった会話履歴を要約したりする機能です。これにより、長時間稼働するエージェントの安定性とリソース効率が向上します。

LangChainは今回、`DeepAgents`を「エージェントハーネス」、`LangChain`を「フレームワーク」、`LangGraph`を「ランタイム」と位置づけを明確にしました。それぞれが階層構造で連携しており、開発者はプロジェクトの目的に応じて最適なライブラリを選択することが推奨されます。自律性の高いエージェント開発にはDeepAgentsが最適です。

Intuitの財務AI、生成でなく「データ照会」で信頼獲得

「信頼」を築く設計思想

生成AIでなくデータ照会
幻覚リスクを徹底排除
意思決定の理由を明示
重要な判断は人間が管理

ユーザー中心のAI導入

既存業務へのAI埋め込み
段階的なインターフェース移行
専門家によるサポート体制
機能より正確性と透明性

ソフトウェア大手のIntuitが、会計ソフトQuickBooks向けに新AI基盤「Intuit Intelligence」を発表しました。このシステムは、生成AIによる応答ではなく、実際の財務データを照会する専門AIエージェントを活用するのが特徴です。金融という間違いが許されない領域で、機能の誇示よりも顧客との信頼構築を最優先する設計思想が貫かれています。

Intuitの技術戦略の核心は、AIをコンテンツ生成器ではなく、データ照会の翻訳・実行層と位置づけた点にあります。ユーザーが自然言語で質問すると、AIがそれをデータベースへの命令に変換し、検証済みの財務データから回答を導き出します。これにより、生成AIに付き物の「幻覚(ハルシネーション)」のリスクを劇的に低減しています。

信頼性を高めるもう一つの柱が「説明可能性」です。例えば、AIが取引を自動で分類した際、単に結果を示すだけでなく、その判断に至った理由や根拠も提示します。なぜその結論になったのかをユーザーが理解・検証できるため、AIに対する信頼のループが完成し、安心して利用できるのです。

ユーザー体験にも細心の注意が払われています。AI機能を別個のツールとして提供するのではなく、請求書作成など既存の業務フローに直接埋め込む形を採用しました。これにより、ユーザーは慣れ親しんだ操作性を維持したままAIの恩恵を受けられます。急進的な変化を強いることなく、段階的にAI活用へと導くアプローチです。

Intuitの事例は、企業がAIを導入する上で重要な教訓を示唆します。特に金融のように正確性が絶対視される分野では、AIの能力を誇示するより、信頼性、透明性、人間の監督を優先すべきです。AIを万能の解決策と見なすのではなく、あくまで人間の業務を補助する強力なツールとして位置付けることが成功の鍵となるでしょう。

GitHub、複数AIを統合管理する新拠点発表

新拠点「Agent HQ」

OpenAIGoogle等の複数AIを一元管理
複数エージェント並列実行と比較が可能
Copilot契約者は追加費用なしで利用

企業のAI統治を強化

エンタープライズ級セキュリティ統制
組織独自のルールを定義するカスタム機能
AIによるコードレビュー自動化

GitHubは10月28日、開発者向けプラットフォームにおいて、複数のAIコーディングエージェントを統合管理する新拠点「Agent HQ」を発表しました。これはOpenAIGoogleなど、様々な企業のAIを単一の管理画面から利用可能にするものです。企業におけるAIツールの乱立と、それに伴うセキュリティ上の懸念を解消し、開発の生産性とガバナンスを両立させる狙いです。

「Agent HQ」の中核をなすのが「Mission Control」と呼ばれるダッシュボードです。開発者はこれを通じて、複数のAIエージェントに同じタスクを同時に実行させ、その結果を比較検討できます。これにより、特定のAIに縛られることなく、プロジェクトの要件に最も適した成果物を採用できる柔軟性が生まれます。

企業にとって最大の関心事であるセキュリティも大幅に強化されます。Agent HQでは、AIエージェントのアクセス権限をリポジトリ全体ではなく、特定のブランチ単位に限定できます。これにより、企業の厳格なセキュリティポリシーや監査基準を維持したまま、安全に最新のAI技術を活用することが可能になります。

さらに、組織独自の開発標準をAIに組み込む「カスタムエージェント」機能も提供されます。設定ファイルにコーディング規約などを記述することで、AIが生成するコードの品質と一貫性を高めることができます。これは、AIを自社の開発文化に適合させるための強力なツールとなるでしょう。

GitHubは、AIによる開発支援が単純なコード補完の時代から、自律的にタスクをこなす「エージェント」の時代へと移行したと見ています。今回の発表は、特定のエージェントで市場を支配するのではなく、全てのAIエージェントを束ねるプラットフォームとしての地位を確立するという同社の明確な戦略を示しています。

企業は今後、どのようにこの変化に対応すべきでしょうか。GitHubはまず「カスタムエージェント」機能から試用し、自社の開発標準をAIに学習させることを推奨しています。AI活用の基盤を固めた上で様々な外部エージェントを安全に導入することが、競争優位性を確保する鍵となりそうです。

Adobe、画像・音声生成AIを全方位で強化

Fireflyが大幅進化

新モデルFirefly Image 5登場
プロンプトレイヤー編集が可能に
独自スタイルでカスタムモデル作成

AIアシスタント登場

PhotoshopとExpressに搭載
自然言語で複雑な編集を自動化
複数アプリを統括するMoonlight

音声・動画生成も強化

動画に合わせたBGMを自動生成
テキストから高品質なナレーション生成

アドビは2025年10月28日、年次カンファレンス「Adobe Max 2025」で、生成AI機能群の大幅なアップデートを発表しました。中核となる画像生成AI「Firefly」の新モデルや、Photoshopなどに搭載されるAIアシスタント、BGMやナレーションを自動生成する音声ツールを公開。クリエイティブ制作の生産性と表現力を飛躍的に高めることを目指します。

画像生成AIの最新版「Firefly Image 5」は、性能が大きく向上しました。ネイティブで最大4メガピクセルの高解像度画像に対応するほか、オブジェクトを個別に認識しプロンプトで編集できるレイヤー機能を搭載。クリエイター自身の作品を学習させ、独自の画風を持つカスタムモデルを作成することも可能になります。

「Photoshop」と「Express」には、新たにAIアシスタントが導入されます。これにより、ユーザーは「背景を削除して」といった自然言語の指示で、複雑な編集作業を自動化できます。専門的なツール操作を覚える必要がなくなり、あらゆるスキルレベルのユーザーが、より直感的にアイデアを形にできるようになるでしょう。

動画制作者にとって画期的な音声生成機能も追加されました。「Generate Soundtrack」はアップロードされた動画の内容を解析し、最適なBGMを自動生成します。「Generate Speech」はテキストから自然なナレーションを作成。これらは商用利用も可能で、コンテンツ制作の効率を劇的に改善します。

将来構想として、複数アプリを統括するAIエージェント「Project Moonlight」も発表。このAIはCreative CloudやSNSアカウントと連携し、ユーザーの作風やブランド戦略を学習。一貫性のあるコンテンツの企画から制作、投稿戦略の立案までを支援する、まさに「クリエイティブディレクター」のような役割を担います。

アドビは自社モデルだけでなく、GoogleGeminiなどサードパーティ製AIモデルの採用も進めています。今回の発表は、クリエイティブの全工程にAIを深く統合し、制作プロセスそのものを変革しようとする同社の強い意志を示すものです。クリエイター生産性向上と、新たな表現の可能性が大きく広がりそうです。

Vercel、AIエージェント開発を本格化する新SDK発表

AIエージェント開発の新基盤

AI SDK 6によるエージェント抽象化
人間による承認フローの組み込み
エンドツーエンドの型安全性を確保
ゼロ設定でPythonフレームワーク対応

高信頼な実行環境とエコシステム

ワークフローキットで高信頼性を実現
マーケットプレイスでAIツールを導入
Vercel Agentによる開発支援
OSSの営業・分析エージェント提供

Vercelが先週開催したイベント「Ship AI 2025」で、AIエージェント開発を本格化させる新技術群を発表しました。中核となるのは、エージェント中心の設計を取り入れた「AI SDK 6」や、タスクの信頼性をコードで担保する「Workflow Development Kit」です。これにより、ウェブ開発のように直感的かつスケーラブルなAI開発環境の提供を目指します。

新たにベータ版として公開された「AI SDK 6」は、エージェントを一度定義すれば、あらゆるアプリで再利用できるアーキテクチャが特徴です。これにより、ユースケースごとにプロンプトやAPIを連携させる手間が不要になります。また、人間のレビューを必須とするアクションを制御できる承認機能も組み込まれ、安全な運用を支援します。

長時間実行されるタスクの信頼性を高めるのが「Workflow Development Kit」です。従来のメッセージキューやスケジューラの設定に代わり、TypeScriptの関数に数行のコードを追加するだけで、失敗した処理の自動リトライや状態保持を実現します。これにより、AIエージェントのループ処理やデータパイプラインを安定して実行できます。

エコシステムの拡充も進んでいます。Vercel Marketplaceでは、CodeRabbitなどのエージェントやAIサービスをプロジェクトに直接導入可能になりました。さらに、FastAPIやFlaskといったPythonフレームワークが設定不要でデプロイ可能となり、バックエンド開発者のAIクラウド活用を促進します。

Vercel自身も、開発者を支援するAIアシスタントVercel Agent」のベータ版を提供開始しました。このエージェントは、コードレビューパッチ提案、本番環境でのパフォーマンス異常の検知と原因分析を自動化します。開発チームの一員として、生産性向上に貢献することが期待されます。

Vercelの一連の発表は、AIエージェント開発を一部の専門家から全ての開発者へと解放するものです。SDKによる抽象化、ワークフローによる信頼性確保、マーケットプレイスによるエコシステムが一体となり、アイデアを迅速に本番稼働のエージェントへと昇華させる強力な基盤が整ったと言えるでしょう。

TC Disrupt開幕、AIが医療とロボットの未来を拓く

巨大テックイベント開幕

1万人が集う世界最大級イベント
賞金10万ドルのピッチコンテスト

AIで挑むヘルスケア革命

AIと遺伝子治療で腎臓病に挑むNephrogen
AIでCTをPET画質に変換するRADiCAIT
診断・治療へのアクセス性向上

AIが物理世界を動かす

AIエージェントロボットを高速訓練
複雑な作業への迅速な適応を実現

10月27日、米サンフランシスコで世界最大級のテックカンファレンス「TechCrunch Disrupt 2025」が開幕しました。創業者投資家など1万人以上が集結し、技術の未来について議論を交わします。今年の最大の焦点はAIで、特にヘルスケアロボティクスといった物理世界への応用が注目を集めています。賞金10万ドルをかけたピッチコンテストでは、革新的なAIスタートアップが多数登場しました。

イベントのハイライトは、新進気鋭のスタートアップが競うピッチコンテスト「Startup Battlefield」です。今年は200社の中から選ばれたファイナリスト20社が、10万ドルの賞金をかけて自社の技術とビジネスモデルを披露します。投資家たちが熱い視線を送る中、AIを活用して社会の難題解決に挑む企業が目立ちました。

ヘルスケア分野では、AIと遺伝子治療を組み合わせるNephrogenが注目を集めています。同社は、特定の細胞に薬剤を届ける高精度なデリバリーシステムをAIで開発。これにより、これまで治療が困難だった多発性嚢胞腎(PKD)などの遺伝性腎臓病の根本治療を目指します。創業者の個人的な体験が開発の原動力となっています。

同じくヘルスケア分野のRADiCAITは、AIを用いてがん診断のあり方を変えようとしています。高価でアクセスが限られるPETスキャンを、より普及しているCTスキャンからAIで生成する技術を開発。これにより、診断のコストと患者の負担を大幅に削減し、地方などでも高度な診断を可能にすることを目指します。

ロボティクス分野では、Mbodiが革新的なアプローチを提示しました。自然言語で指示するだけで、複数のAIエージェントが協調してタスクを分解し、ロボットの動作を迅速に訓練するシステムを開発。これまで人手に頼らざるを得なかった複雑なピッキングや梱包作業の自動化を可能にします。

今年のDisruptで示されたのは、AIが単なる情報処理ツールから、物理世界と深く結びつき、現実の課題を解決する力へと進化した姿です。ヘルスケアや製造業など、様々な領域でビジネスの変革を迫られるでしょう。経営者やリーダーは、こうした最先端の動向を注視し、自社ビジネスへの応用可能性を探ることが不可欠です。

中国発MiniMax-M2、オープンソースLLMの新王者

主要指標でOSSの首位

第三者機関の総合指標で1位
独自LLMに迫るエージェント性能
コーディングベンチでも高スコア

企業導入を促す高効率設計

商用利用可のMITライセンス
専門家混合(MoE)で低コスト
少ないGPU運用可能
思考プロセスが追跡可能

中国のAIスタートアップMiniMaxが27日、最新の大規模言語モデル(LLM)「MiniMax-M2」を公開しました。第三者機関の評価でオープンソースLLMの首位に立ち、特に自律的に外部ツールを操作する「エージェント性能」で独自モデルに匹敵する能力を示します。商用利用可能なライセンスと高い電力効率を両立し、企業のAI活用を加速させるモデルとして注目されます。

第三者評価機関Artificial Analysisの総合指標で、MiniMax-M2オープンソースLLMとして世界1位を獲得しました。特に、自律的な計画・実行能力を測るエージェント関連のベンチマークでは、GPT-5Claude Sonnet 4.5といった最先端の独自モデルと肩を並べるスコアを記録。コーディングやタスク実行能力でも高い性能が確認されています。

M2の最大の特長は、企業での導入しやすさです。専門家の知識を組み合わせる「MoE」アーキテクチャを採用し、総パラメータ2300億に対し、有効パラメータを100億に抑制。これにより、わずか4基のNVIDIA H100 GPUでの運用を可能にし、インフラコストを大幅に削減します。さらに、商用利用を認めるMITライセンスは、企業が独自に改良・展開する際の障壁を取り払います。

高いエージェント性能を支えるのが、独自の「インターリーブ思考」形式です。モデルの思考プロセスがタグで明示されるため、論理の追跡と検証が容易になります。これは、複雑なワークフローを自動化する上で極めて重要な機能です。開発者は構造化された形式で外部ツールやAPIを連携させ、M2を中核とした高度な自律エージェントシステムを構築できます。

M2の登場は、オープンソースAI開発における中国勢の台頭を象徴しています。DeepSeekやアリババのQwenに続き、MiniMaxもまた、単なるモデルサイズではなく、実用的なエージェント能力やコスト効率を重視する潮流を加速させています。監査や自社でのチューニングが可能なオープンモデルの選択肢が広がることは、企業のAI戦略に大きな影響を与えるでしょう。

TechCrunch Disrupt 2025開幕、AIが主戦場に

創業者・投資家が集結

1万人が集う世界最大級イベント
賞金10万ドルのピッチ大会
大手VCとの商談機会
Googleなど250社以上が登壇

AI時代の戦略を学ぶ

AI専門ステージを設置
エージェントAIの事業活用法
OpenAIなどAI先進企業が登壇
注目AIスタートアップ60社発表

世界最大級の技術祭典「TechCrunch Disrupt 2025」が、10月27日から3日間、サンフランシスコで開催されます。創業者投資家など1万人が集結し、AIを主軸とした未来の技術やビジネスモデルについて議論が交わされます。

創業者にとっては、自社の技術を披露し資金調達に繋げる絶好の機会です。賞金10万ドルを懸けたピッチコンテスト「Startup Battlefield」のほか、GoogleやNetflixなど250社以上のトップ企業から事業成長の知見を学べます。

投資家は、リアルタイムで生まれるディールフローの中から、次のユニコーン企業を発掘するチャンスをうかがいます。特に注目されるのが「AI Disruptors 60」の発表で、AI分野で最も有望なスタートアップを知る貴重な機会となるでしょう。

今年のDisruptの最大の焦点はAIです。特設の「AIステージ」では、OpenAIやHugging Faceのリーダーが登壇。エージェントAIがビジネスをどう変えるかなど、最先端の議論が繰り広げられます。経営者エンジニアにとって必見のセッションです。

AI以外にも、Alphabetの「ムーンショット工場」を率いるアストロ・テラー氏による講演など、未来を創る破壊的イノベーションに関するセッションが多数予定されています。宇宙産業やサステナビリティといった多様なテーマが扱われます。

TechCrunch Disrupt 2025は、単なる技術カンファレンスではありません。AI時代を勝ち抜くための戦略と人脈を得るための、またとない機会と言えるでしょう。世界のイノベーションの最前線を体感できる3日間となりそうです。

不動産広告、AIが生成した「理想の家」に要注意

AI利用の急速な普及

不動産業者の8割以上AI活用
AIによる内見動画の自動生成
ChatGPTで物件説明文を作成

虚偽・誇張表示のリスク

存在しない家具や階段の生成
法的・倫理な問題に発展
消費者の不信感が深刻化

背景と今後の課題

大幅なコスト削減と時間短縮
安易な利用による品質低下

米国不動産業界で、生成AIを活用した物件広告が急速に広がっています。多くの不動産業者が、コスト削減や生産性向上を目的にAIツールを導入。しかし、実際には存在しない豪華な家具を画像に書き加えたり、物件の特徴を不正確に描写したりする「虚偽・誇張表示」が横行し、消費者の間で混乱と不信感が高まっています。

全米不動産業者協会によると、会員の8〜9割が既に何らかの形でAIを利用していると回答しています。特に注目されるのが、物件の写真から宣伝用の動画を自動生成するアプリです。空っぽの部屋にAIが家具を配置し、ナレーションまで加えることで、数分で魅力的な内見動画が完成します。これにより、従来は高額だった映像制作費を大幅に削減できるのです。

しかし、その利便性の裏で問題が深刻化しています。AIが生成した画像には、現実には存在しない階段や、不自然に改変された窓などが含まれる事例が報告されています。ミシガン州のある住宅所有者は、AIによって加工された自宅の広告画像が、本来の姿とは全く異なることに気づき、SNSで警鐘を鳴らしました。これは単なる誇張を超え、物件の価値を誤認させる虚偽表示と言えるでしょう。

業界内ではAI活用を肯定する声も根強くあります。「なぜ数日と数百ドルをかけて専門業者に頼む必要があるのか。ChatGPTなら無料で数秒だ」と語る不動産関係者もいます。実際に、バーチャルステージング(CGで室内に家具を配置する技術)の市場は、生成AIの登場で大きく変容しつつあります。

一方で、規制当局や業界団体は危機感を強めています。全米不動産業者協会は、AIが生成した画像に関する法整備はまだ「不透明」であるとしつつ、誤解を招く画像の使用を禁じる倫理規定を会員に遵守するよう求めています。 deceptiveな(欺瞞的な)広告は、罰金や訴訟につながる可能性があります。

問題は画像だけではありません。ChatGPTが生成する物件説明文には「nestled(〜に位置する)」という単語が頻出するなど、思考停止でAIの出力をコピー&ペーストするだけの安易な利用法も目立ちます。専門家は、このような姿勢ではエージェントとしての付加価値は生まれず、業界全体の信頼を損なうと指摘します。

住宅は多くの人にとって「人生最大の買い物」です。買い手は、購入を検討する初期段階で騙されることを望んでいません。生産性向上を追求するあまり、ビジネスの根幹である消費者との信頼関係を損なっては本末転倒です。AIをビジネスに活用する全ての経営者やリーダーにとって、この問題は対岸の火事ではないでしょう。

AIエージェント普及へ、ウェブ構造の抜本改革が急務

「人間本位」ウェブの脆弱性

隠れた命令を実行するAIエージェント
複雑な企業向けアプリ操作の失敗
サイト毎に異なるUIへの非対応

AI時代のウェブ設計要件

機械が解釈可能な意味構造の導入
API経由での直接的なタスク実行
標準化されたインターフェース(AWI)
厳格なセキュリティと権限管理

AIがユーザーに代わりウェブを操作する「エージェントAI」が普及し始めています。しかし、人間向けに作られた現在のウェブは、AIにとって脆弱で使いにくいという課題が浮上。隠された命令を実行するセキュリティリスクや、複雑なサイトを操作できない問題が露呈し、機械との共存を前提とした構造改革が急務です。

最大のリスクは、AIが人間には見えない指示に従う点です。ある実験では、ページに白い文字で埋め込まれた「メールを作成せよ」という命令を、AIが忠実に実行しました。これは悪意ある第三者がAIを操り、機密情報を盗むなど、深刻な脆弱性に直結する危険性を示唆しています。

特に企業向け(B2B)の複雑なアプリケーションでは、AIの操作能力の低さが顕著です。人間なら簡単なメニュー操作でさえ、AIは何度も失敗します。企業向けワークフロー独自仕様で文脈依存性が高いため、現在のAIにはその意図を汲み取ることが極めて困難なのです。

この問題を解決するには、ウェブの設計思想を根本から変える必要があります。かつての「モバイルファースト」のように、今後は機械が読みやすい設計が求められます。具体的には、意味を解釈できるHTML構造、AI向けのガイドライン、そしてAPIによる直接的なタスク実行などが新たな標準となるでしょう。

技術的な進化と同時に、セキュリティと信頼の確保が不可欠です。AIエージェントには、重要な操作の前にユーザーの確認を求める「最小権限の原則」を適用すべきです。エージェントの動作環境を隔離する「サンドボックス化」や、権限管理の厳格化も安全な利用を実現する必須要件となります。

この変化は単なる技術課題ではありません。将来、AIエージェントが情報収集やサービス利用の主体となる時代には、AIに「発見」されるサイトでなければビジネス機会を失いかねません。評価指標も従来のページビューからタスク完了率へ移行し、APIベースの新たな収益モデルが求められるでしょう。

新型AIブラウザ登場、深刻なセキュリティリスク露呈

新時代のAIブラウザ

OpenAIが「Atlas」を発表
PerplexityComet」も登場
Web上の反復作業を自動化

潜む「見えない」脅威

悪意ある指示をAIが誤実行
メールや個人情報の漏洩リスク

求められる利用者側の防衛策

アクセス権限の最小化
強力なパスワードと多要素認証

ChatGPT開発元のOpenAIが、初のAI搭載Webブラウザ「Atlas」を発表しました。Perplexityの「Comet」など競合も登場し、Web上の作業を自動化する「AIエージェント」への期待が高まっています。しかしその裏で、悪意あるWebサイトの指示をAIが誤って実行してしまうプロンプトインジェクション攻撃」という、深刻かつ未解決のセキュリティリスクが大きな課題として浮上しています。

プロンプトインジェクション攻撃とは、攻撃者がWebページ内に人間には見えない形で、AIへの悪意ある命令を仕込む手口です。AIエージェントがページ情報を要約・分析する際にこの隠れた命令を読み込み、ユーザーの指示よりも優先して実行してしまう危険性があります。これはAIの仕組みに根差した脆弱性です。

この攻撃を受けると、AIエージェントはユーザーの個人情報やメール内容を外部に送信したり、勝手に商品を購入したり、意図しないSNS投稿を行う可能性があります。ブラウザがユーザーに代わって操作を行うため、被害は広範囲に及ぶ恐れがあり、従来のブラウザにはなかった新たな脅威と言えるでしょう。

セキュリティ専門家は、この問題が特定のブラウザの欠陥ではなく、AIエージェントを搭載したブラウザというカテゴリ全体が直面する「体系的な課題」だと指摘しています。現在、この攻撃を完全に防ぐ確実な解決策はなく、「未解決のフロンティア」であるとの認識が業界内で共有されています。

OpenAIPerplexityもこのリスクを認識しており、対策を進めています。例えば、ユーザーのアカウントからログアウトした状態でWebを閲覧するモードや、悪意あるプロンプトリアルタイムで検知するシステムを導入しています。しかし、これらも完全な防御策とは言えず、いたちごっこが続く状況です。

では、利用者はどうすればよいのでしょうか。まずは、AIブラウザに与えるアクセス権限を必要最小限に絞ることが重要です。特に銀行や個人情報に関わるアカウントとの連携は慎重に判断すべきでしょう。また、ユニークなパスワード設定や多要素認証の徹底といった基本的なセキュリティ対策も不可欠です。

LangChain提唱、AIエージェント開発の3分類

3つの新たなツール分類

開発を抽象化するフレームワーク
本番実行を支えるランタイム
即戦力の多機能ツール群ハーネス
代表例はLangChain、LangGraph

階層構造と使い分け

ハーネス > フレームワーク > ランタイム
開発フェーズに応じたツール選択が鍵
複雑な開発を整理する思考の枠組み

AI開発ツール大手のLangChain社が、AIエージェント開発ツールを「フレームワーク」「ランタイム」「ハーネス」の3つに分類する新たな概念を提唱しました。これは、乱立する開発ツール群を整理し、開発者がプロジェクトの目的やフェーズに応じて最適なツールを選択しやすくするための「思考の枠組み」を提供するものです。本記事では、それぞれの定義と役割、そして適切な使い分けについて解説します。

まず「フレームワーク」は、開発の抽象化と標準化を担います。代表例は同社の「LangChain」で、開発の初期段階で迅速にプロトタイプを構築するのに役立ちます。一方で、抽象化が進むことで内部動作が不透明になり、高度なカスタマイズが難しい場合があるという課題も指摘されています。

次に「ランタイム」は、エージェント本番環境で安定して実行するための基盤です。「LangGraph」がこれに該当し、耐久性のある実行や人間による介入(ヒューマン・イン・ザ・ループ)など、インフラ層の機能を提供します。フレームワークよりも低レベルな層で動作し、堅牢なアプリケーションの構築を支えます。

最後に「ハーネス」は、フレームワークよりさらに高レベルな、「すぐに使える」多機能パッケージを指します。同社の新プロジェクト「DeepAgents」がその一例で、デフォルトのプロンプトやツールが予め組み込まれています。特定のタスクに特化した「即戦力」として、迅速な開発と導入が可能です。

これら3つは、ハーネスがフレームワーク上に構築され、フレームワークがランタイム上で動作するという階層関係にあります。開発者は、迅速な試作ならフレームワーク本番運用ならランタイム特定用途ですぐに使いたいならハーネス、というように目的応じて使い分けることが重要になるでしょう。

この分類はまだ黎明期にあり定義も流動的ですが、AIエージェント開発の複雑性を理解する上で非常に有用な思考の枠組みと言えます。自社の開発プロジェクトがどの段階にあり、どのツールが最適かを見極めるための一助となるのではないでしょうか。

AIが主役、Disrupt 2025が示す技術の未来

世界最大級の技術祭典

サンフランシスコで3日間開催
1万人起業家投資家が集結
250名超の登壇者と200超のセッション
スタートアップ300社超が出展

中心テーマは最先端AI

AIが変える宇宙開発の未来
AIエージェントによる業務自動化
VCが語るAI分野の資金調達

未来を創るネットワーキング

50以上の公式サイドイベント
投資家創業者との貴重な交流機会

TechCrunchが主催する世界最大級のスタートアップイベント「Disrupt 2025」が、10月27日から29日にかけ、米国サンフランシスコで開催されます。1万人の起業家投資家が集い、250以上のセッションや300社超の展示を通じて、AIを筆頭とする最先端技術の未来と新たな事業機会を探ります。

今年のイベントは、1万人が参加し、250名以上のスピーカーが登壇、200を超えるセッションが予定されるなど、過去最大級の規模です。Google Cloud、Netflix、Microsoftといった巨大テック企業から、a16zなどの著名VC、Hugging Faceのような気鋭のAIスタートアップまで、業界の最前線を走るプレーヤーが一堂に会します。

最大の焦点は、あらゆる業界を再定義するAI技術の最前線です。「宇宙開発におけるAI」や「ヘルスケアワークフローを書き換えるAI」といったテーマのほか、GitHub Copilotの責任者が語る開発プロセスの変革など、エンジニア経営者が明日から活かせる知見が満載です。

経営者やリーダー向けには、より実践的なブレイクアウトセッションが用意されています。「資金調調達で失敗しないための秘訣」や「テック企業のM&A;戦略」など、事業成長に直結するテーマが目白押しです。VCやアクセラレーターの生の声を聞ける貴重な機会となるでしょう。

本会議以上に価値があるとも言われるのが、ネットワーキングの機会です。公式セッション後には、市内各所で50以上のサイドイベントが開催されます。投資家とのミートアップや特定テーマの交流会など、偶然の出会いがビジネスを飛躍させるかもしれません。

TechCrunch Disrupt 2025は、単なる技術カンファレンスではありません。世界のイノベーションの中心地で、未来のビジネスの種を見つける場所です。最新トレンドの把握、人脈形成、そして自社の成長戦略を描き直すためのヒントが、この3日間に凝縮されています。

AIブラウザ戦争勃発、OpenAI参入も安全性に懸念

OpenAIの新ブラウザ登場

ChatGPT搭載のAIブラウザ『Atlas』
自然言語によるウェブ操作
タスクを自律実行するエージェント機能

未解決のセキュリティ問題

パスワードや機密データ漏洩危険性
未解決のセキュリティ欠陥を抱え公開

再燃するブラウザ戦争

AIが牽引する次世代ブラウザ競争
プライバシー重視型など多様な選択肢

OpenAIが2025年10月24日、ChatGPTを搭載したAIブラウザ「Atlas」を公開しました。自然言語によるウェブ操作やタスクの自律実行といった画期的な機能を備える一方、パスワードなどの機密データが漏洩しかねない未解決のセキュリティ欠陥を抱えたままのデビューとなり、専門家から懸念の声が上がっています。AIを主戦場とする新たな「ブラウザ戦争」が始まりそうです。

「Atlas」の最大の特徴は、エージェントモード」と呼ばれる自律操作機能です。ユーザーが「来週の出張を手配して」と指示するだけで、航空券の検索からホテルの予約までをAIが自律的に実行します。これにより、これまで手作業で行っていた多くの定型業務が自動化され、生産性を劇的に向上させる可能性を秘めています。

しかし、その利便性の裏には大きなリスクが潜んでいます。専門家は、このブラウザが抱える脆弱性により、入力されたパスワード、電子メールの内容、企業の機密情報などが外部に漏洩する危険性を指摘します。OpenAIがこの問題を未解決のままリリースしたことに対し、ビジネス利用の安全性を問う声が少なくありません。

「Atlas」の登場は、Google ChromeApple Safariが長年支配してきたブラウザ市場に一石を投じるものです。AIによる体験の向上が新たな競争軸となり、マイクロソフトなども追随する可能性があります。まさに、AIを核とした「第二次ブラウザ戦争」の幕開けと言えるでしょう。

一方で、市場ではAI活用とは異なるアプローチも見られます。プライバシー保護を最優先するBraveやDuckDuckGoといったブラウザは、ユーザーデータの追跡をブロックする機能で支持を集めています。利便性を追求するAIブラウザと、安全性を重視するプライバシー保護ブラウザとの間で、ユーザーの選択肢は今後さらに多様化しそうです。

経営者やリーダーは、AIブラウザがもたらす生産性向上の機会を見逃すべきではありません。しかし、導入にあたっては、そのセキュリティリスクを十分に評価し、情報漏洩対策を徹底することが不可欠です。技術の便益を享受するためには、その裏にある危険性を理解し、賢明な判断を下す必要があります。

NVIDIA、ワシントンでAIの未来図を公開へ

GTCワシントンD.C.開催

10月27-29日に首都で開催
CEOジェンスン・フアン氏が基調講演
AIが変える産業・公共部門の未来
コンピューティングの未来図を提示

注目のセッション群

70以上の専門セッション
エージェントAIから量子計算まで
開発者政策決定者が交流
実践的なワークショップも充実

NVIDIAは、2025年10月27日から29日にかけて、米国の首都ワシントンD.C.で年次技術カンファレンス「GTC」を開催します。中心となるのは、28日正午(東部時間)に行われる創業者兼CEO、ジェンスン・フアン氏による基調講演です。この講演では、AIが産業、インフラ、公共部門をどのように再構築していくか、その未来図が示される見通しです。

今回のGTCは、単なる新製品発表の場にとどまりません。フアンCEOの基調講演は、コンピューティングの未来に関心を持つすべての人々にとって、時代の方向性を示す重要なマイルストーンとなるでしょう。AI技術が社会のあらゆる側面に浸透する中で、NVIDIAがどのようなビジョンを描いているのか、世界中の注目が集まっています。

基調講演以外にも、GTCは参加者に没入感のある体験を提供します。会期中には、エージェントAIやロボティクス、量子コンピューティング、AIネイティブ通信ネットワークなど、最先端のテーマを扱う70以上のセッションが予定されています。ハンズオン形式のワークショップやデモも充実しており、アイデアを形にする絶好の機会です。

このイベントは、技術開発者と政策決定者が一堂に会する貴重な場でもあります。ワシントンD.C.という開催地は、テクノロジーと政策の交差点としての意味合いを強く持ちます。AIの社会実装に向けたルール作りや協力体制の構築など、未来に向けた議論が活発に行われることが期待されます。

Mistral、企業向けAI開発・運用基盤を発表

AI開発の本番運用を支援

試作から本番運用への移行を促進
EU拠点のインフラデータ主権を確保
専門家以外も使える開発ツール

統合プラットフォームの3本柱

システムの振る舞いを可視化する可観測性
RAGも支える実行ランタイム
AI資産を一元管理するAIレジストリ

豊富なモデルと柔軟な展開

オープンソースから商用まで多数のモデル
クラウドやオンプレミスなど柔軟な展開

2025年10月24日、フランスのAIスタートアップMistral AIは、企業がAIアプリケーションを大規模に開発・運用するための新プラットフォーム「Mistral AI Studio」を発表しました。多くのAI開発が試作段階で止まってしまう課題を解決し、信頼性の高い本番システムへの移行を支援することが目的です。Googleなど米国勢に対抗する欧州発の選択肢としても注目されます。

同社はAI Studioを、AI開発における「プロダクションファビリック(生産基盤)」と位置付けています。AIモデルのバージョン管理や性能低下の追跡、コンプライアンス確保など、多くのチームが直面するインフラ面の課題解決を目指します。これにより、アイデアの検証から信頼できるシステム運用までのギャップを埋めます。

プラットフォームは3つの柱で構成されます。AIシステムの振る舞いを可視化する「可観測性」、検索拡張生成(RAG)なども支える実行基盤「エージェントランタイム」、そしてAI資産を一元管理する「AIレジストリ」です。これらが連携し、開発から監視、統制まで一貫した運用ループを実現します。

AI Studioの強みは、オープンソースから高性能な商用モデル、さらには画像生成音声認識モデルまでを網羅した広範なモデルカタログです。これにより企業は、タスクの複雑さやコスト目標に応じて最適なモデルを試し、柔軟に構成を組むことが可能になります。選択肢の多さは開発の自由度を高めます。

Pythonコードを実行する「コードインタプリタ」やWeb検索など、多彩な統合ツールも特徴です。これにより、単なるテキスト生成にとどまらず、データ分析やリアルタイムの情報検索、さらには画像生成までを一つのワークフロー内で完結させる、より高度なAIエージェントの構築が可能になります。

導入形態も柔軟です。クラウド経由での利用に加え、自社インフラに展開するオンプレミスやセルフホストにも対応。企業のデータガバナンス要件に応じて最適な環境を選べます。また、不適切なコンテンツをフィルタリングするガードレール機能も備え、安全なAI運用を支援します。

Mistral AI Studioの登場は、企業におけるAI活用の成熟度が新たな段階に入ったことを示唆します。モデルの性能競争から、いかにAIを安全かつ安定的に事業へ組み込むかという運用フェーズへ。同プラットフォームは、その移行を力強く後押しする存在となるでしょう。

Google AI、MLB放送の舞台裏で新兵器に

放送を加速するAI解説

GoogleとFOX Sportsが共同開発
AI基盤「FOX Foresight」
Vertex AIとGeminiを活用
複雑なデータ分析を数秒で完了

放送の安定を守るAI

MLB独自のAIエージェント「Connie」
ネットワーク障害を自律的に検知・対処
放送中断のリスクを未然に防止
技術者の戦略的業務への集中を支援

Google Cloudが、FOX Sportsと共同開発したAIプラットフォーム「FOX Foresight」を、今年のメジャーリーグ・ワールドシリーズ放送に導入しました。Googleの最新AIであるGeminiを活用し、解説者がリアルタイムで高度なデータ分析を行えるようにすることで、視聴体験を向上させるのが狙いです。

この「FOX Foresight」は、過去の膨大な試合データを学習しています。放送チームは「特定の状況下で最も成績の良い左打者は誰か」といった複雑な質問を自然言語で投げかけるだけで、数秒後には回答を得られます。従来の手法では数分を要した情報収集が劇的に高速化されました。

元ヤンキースのスター選手で、現在はFOX Sportsの解説者を務めるアレックス・ロドリゲス氏もこの技術を高く評価しています。AIの支援によって「選手の好不調の波や、試合を左右する重要なパフォーマンスを瞬時に見抜けるようになった」と語り、解説の質向上に繋がっていることを示唆しました。

AIの活用は、解説の深化だけにとどまりません。放送そのものの信頼性を高めるため、メジャーリーグ機構(MLB)もGoogle Cloudの技術を活用しています。AIエージェント「Connie」が、放送の安定性維持という重要な役割を担っているのです。

「Connie」は、全米の球場からの映像やデータ配信を担うネットワーク24時間体制で監視します。異常を検知すると、問題が深刻化する前に自律的に対処を開始。これにより、放送中断などのトラブルを未然に防ぎ、技術チームはより戦略的な業務に集中できます。

このようにAIは、より深い洞察に満ちた解説から、途切れることのない安定した放送まで、スポーツ観戦のあらゆる側面を支えています。テクノロジーがファンの視聴体験を根本から変革し、新たな楽しみ方を提供し始めていると言えるでしょう。

アント、1兆パラメータAI公開 強化学習の壁を突破

1兆パラメータモデルRing-1T

中国アントグループが開発
1兆パラメータのオープンソース推論モデル
数学・論理・コード生成に特化
ベンチマークGPT-5に次ぐ性能

独自技術で学習効率化

強化学習ボトルネックを解決
学習を安定化させる新手法「IcePop」
GPU効率を高める「C3PO++」を開発
激化する米中AI覇権争いの象徴

中国のアリババ系列企業アントグループが、1兆個のパラメータを持つオープンソースの推論AIモデル「Ring-1T」の技術詳細を公開しました。このモデルは、独自開発した最適化手法により、大規模モデルの学習における強化学習のボトルネックを解決した点が特徴です。OpenAIの「GPT-5」やGoogleの「Gemini」など米国勢に対抗し、激化する米中間のAI覇権争いで存在感を示す狙いがあります。

「Ring-1T」は、数学、論理問題、コード生成、科学的問題解決に特化して設計されています。各種ベンチマークテストでは、多くの項目でOpenAIGPT-5に次ぐ高いスコアを記録しました。特に、同社がテストしたオープンウェイトモデルの中では最高の性能を示し、中国企業の技術力の高さを証明しています。

この成果の背景には、超大規模モデルの学習を効率化する三つの独自技術があります。研究チームは、学習プロセスを安定させる「IcePop」、GPUの遊休時間をなくしリソースを最大限活用する「C3PO++」、非同期処理を可能にするアーキテクチャ「ASystem」を開発。これらが、1兆パラメータ規模のモデル学習を現実のものとしました。

特に注目すべきは、強化学習における課題へのアプローチです。従来、大規模モデルの強化学習は計算コストと不安定性が大きな障壁でした。「IcePop」は、学習を妨げるノイズの多い情報を抑制し、安定した性能向上を実現します。この技術革新は、今後のAIエージェント開発など応用分野の発展にも大きく貢献する可能性があります。

今回の発表は、DeepSeekやアリババ本体の「Qwen」シリーズに続く、中国発の高性能モデルの登場を意味します。米国の巨大テック企業を猛追する中国の勢いはとどまるところを知りません。「Ring-1T」のようなオープンソースモデルの公開は、世界中の開発競争をさらに加速させることになりそうです。

AI導入の失敗は経営者の責任、IT任せが元凶

AI導入失敗の構造

Fortune 500幹部の42%がAIによる組織崩壊を実感
原因はAIをIT部門に丸投げする旧態依然の経営
AIはツールではなく仕事の再編成そのもの

AI時代のリーダーシップ

複雑なプロセスを徹底的に単純化
従業員の変化への恐怖を管理し新キャリアを示す
IT部門はインフラと統治に専念

今すぐリーダーがすべきこと

自らAIエージェントを使い業務を自動化
「実行が無料なら?」と野心的な問いを立てる

AIプラットフォームを手がけるWriter社のメイ・ハビブCEOが、先日のTED AIカンファレンスで警鐘を鳴らしました。同氏の調査によると、Fortune 500企業の経営幹部の42%が「AIは自社を破壊している」と回答。その原因は、経営者AI導入をIT部門に丸投げしていることにあると、リーダーシップの不在を厳しく批判しました。AIは単なる技術ではなく、事業変革そのものであると訴えています。

「多くのリーダーは、AIを会計士に電卓を渡すようなものだと誤解しています」とハビブ氏は指摘します。AIはこれまでの技術導入とは根本的に異なり、仕事の進め方そのものを再定義するものです。そのため、IT部門に任せるという『古い脚本』は通用しません経営者が変革を主導しなければ、AIへの投資は実を結ばず、組織内に混乱を生むだけだと警告しています。

AI時代のリーダーに求められる第一の変革は、組織に蔓延る『複雑さ』を徹底的に排除することです。長年の間に蓄積された稟議のサイクル、無駄な会議、官僚的な手続きといった業務の摩擦を、AIを活用して根本から見直す必要があります。ハビブ氏は「CIOだけでは組織のフラット化はできない。ビジネスリーダー自身がワークフローを見直し、不要な部分を切り捨てるしかない」と断言します。

第二の変革は、従業員の変化に対する『恐怖』と向き合うことです。AIが単純作業を代替することで、従来のキャリアパスは消滅し、従業員は自らの価値を見失う不安に駆られます。これに対しリーダーは、新たなスキル習得や水平的なキャリア拡大(ラティス型キャリア)を支援する道筋を示す必要があります。従業員の価値はタスクの実行ではなく、システムを設計・指揮する能力にあると定義し直すことが急務です。

最後の変革は、『野心』を唯一の制約とすることです。AIによって業務実行のコストが劇的に下がる世界では、既存業務の効率化(最適化)だけを考えていては取り残されます。「実行が無料になったら何ができるか?」という壮大な問いを立て、これまで不可能だった新しい事業やサービスを創造する『グリーンフィールド思考』が、企業の成長を左右する唯一のボトルネックになるとハビブ氏は語ります。

この変革において、IT部門の役割も変わります。ビジネスリーダーが「プレイをデザインする」のに対し、IT部門はAIエージェントが安全かつ大規模に稼働できる「スタジアムを建設する」役割を担います。つまり、堅牢なインフラ、明確なルールブック、そして鉄壁のガバナンス体制を構築するのです。両者の緊密なパートナーシップなくして、AI革命の成功はあり得ません。

ハビブ氏は経営者に対し、二つの行動を求めます。一つは、自らAIエージェントを使い、自分の業務プロセスを自動化してみること。もう一つは、「実行コストがゼロなら何を成し遂げるか」をチームで問い直すことです。AI導入の成否は、技術ではなく経営者の覚悟にかかっています。今こそ、リーダー自らが複雑さを解体し、未来を創造する時です。

Vercel、AI開発基盤を大幅拡充 エージェント開発を加速

AI開発を加速する新機能

長時間処理を簡易化する「WDK
ゼロ設定で動くバックエンド

エコシステムを強化

ツール導入を容易にするAIマーケット
Python開発を支援する新SDK
統一された課金と監視体制

Web開発プラットフォームのVercelは2025年10月23日、AI開発基盤「AI Cloud」を大幅に機能拡張したと発表しました。開発者の新たな「AIチームメイト」となるVercel Agentや、長時間処理を簡素化するWorkflow Development Kit (WDK)、AIツールを簡単に導入できるマーケットプレイスなどを公開。AIエージェントや複雑なバックエンドの開発における複雑さを解消し、生産性向上を支援します。

新発表の目玉の一つが「Vercel Agent」です。これは開発チームの一員として機能するAIで、コードレビューや本番環境で発生した問題の調査を自動で行います。単なるコードの提案に留まらず、Vercelのサンドボックス環境で検証済みの修正案を提示するため、開発者は品質を犠牲にすることなく、開発速度を大幅に向上させることが可能です。

長時間にわたる非同期処理の信頼性も大きく向上します。オープンソースの「Workflow Development Kit (WDK)」を使えば、データ処理パイプラインやAIエージェントの思考プロセスなど、中断と再開を伴う複雑な処理を簡単なコードで記述できます。インフラを意識することなく、耐久性の高いアプリケーションを構築できるのが特徴です。

バックエンド開発の体験も刷新されました。これまでフロントエンドで培ってきた「ゼロコンフィグ」の思想をバックエンドにも適用。FastAPIやFlaskといった人気のPythonフレームワークや、ExpressなどのTypeScriptフレームワークを、設定ファイルなしでVercelに直接デプロイできるようになりました。

AI開発のエコシステムも強化されています。新たに開設された「AI Marketplace」では、コードレビューセキュリティチェックなど、様々なAIツールを数クリックで自分のプロジェクトに導入できます。同時に、PythonからVercelの機能を直接操作できる「Vercel Python SDK」もベータ版として公開され、開発の幅がさらに広がります。

Vercelは一連のアップデートを通じて、AI開発におけるインフラ管理の複雑さを徹底的に排除しようとしています。開発者はもはやキューやサーバー設定に頭を悩ませる必要はありません。ビジネスの価値創造に直結するアプリケーションロジックの開発に、より多くの時間を注げるようになるでしょう。

AI推論コストを10倍削減、Tensormeshが6.7億円調達

資金調達と事業目的

シードで450万ドルを調達
オープンソースLMCacheの商用化
AI推論コストを最大10倍削減

独自技術の仕組み

使用済みKVキャッシュの保持と再利用
GPU推論能力を最大化
チャットやエージェントで特に有効

市場の需要と提供価値

複雑なシステム構築の手間を削減
GoogleNvidiaも採用する実績

AIスタートアップのTensormeshが、Laude Ventures主導のシードラウンドで450万ドル(約6.7億円)を調達しました。同社は、オープンソースとして実績のあるAI推論最適化ツール「LMCache」を商用化し、企業のAI推論コストを最大10倍削減することを目指します。GPUリソースが逼迫する中、既存インフラから最大限の性能を引き出す同社の技術に注目が集まっています。

技術の核心は「KVキャッシュ」の効率的な再利用にあります。従来のAIモデルは、クエリ(問い合わせ)ごとに生成されるKVキャッシュを毎回破棄していました。これは「賢い分析官が質問のたびに学んだことを忘れてしまう」ような非効率を生んでいます。Tensormeshのシステムは、このキャッシュを保持し、類似の処理で再利用することで、計算リソースの無駄を徹底的に排除します。

この技術は、対話の文脈を常に参照する必要があるチャットインターフェースや、行動履歴が重要となるエージェントシステムで特に威力を発揮します。会話が進むにつれて増大するデータを効率的に処理できるため、応答速度を維持しつつ、より高度な対話が可能になります。サーバー負荷を変えずに推論能力を大幅に向上させられるのです。

なぜ、このようなソリューションが必要なのでしょうか。同様のシステムを自社開発するには、20人規模のエンジニアチームが数ヶ月を要するなど、技術的なハードルが非常に高いのが実情です。Tensormeshは、導入すればすぐに使える製品を提供することで、企業が複雑なインフラ構築から解放され、本来の事業に集中できる環境を整えます。

Tensormesh共同創業者が開発したオープンソースのLMCacheは、既にGoogleNvidiaも自社サービスに統合するなど、技術界で高い評価を得ています。今回の資金調達は、その確かな技術的実績を、より多くの企業が利用できる商用サービスへと転換するための重要な一歩となるでしょう。

PUBG開発元、AI企業への転換を宣言

「AIファースト」戦略

エージェントAIで業務を自動化
AI中心の経営システム導入
人事・組織運営もAIへ最適化

大規模な先行投資

約7000万ドルのGPUクラスタ構築
2025年下半期にAI基盤完成へ
従業員のAI活用に毎年投資

人気バトルロイヤルゲーム「PUBG」で知られる韓国のクラフトンが、「AIファースト」企業への転換を宣言しました。約7000万ドルを投じてGPU基盤を構築し、エージェントAIによる業務自動化やAI中心の経営システム導入を推進。ゲーム開発のあり方を根本から変革します。

新戦略の核は、自律的にタスクをこなすエージェントAIの活用です。これにより、ゲーム開発だけでなく社内業務全般の自動化を目指します。さらに、データに基づいた意思決定を迅速に行うため、経営システム自体をAI中心に再設計し、企業運営のあり方を根本から見直す考えです。

この変革を支えるため、同社は1000億ウォン(約7000万ドル)以上を投じ、大規模なGPUクラスタを構築します。この計算基盤でAIの研究開発を加速させ、ゲーム内AIサービスも強化。AIプラットフォームは2025年下半期の完成を目指します。

投資は設備に留まりません。毎年約300億ウォンを投じて従業員のAIツール活用を支援するほか、「AIファースト」戦略を支えるために人事制度や組織運営も再構築します。全社一丸となってAI中心の企業文化を醸成していく方針です。

Kraftonの動きは業界全体の潮流を反映しています。ShopifyやDuolingoは既にAIを業務の中核に据えており、大手ゲーム会社EAの買収でもAIによるコスト削減効果が期待されるなど、AI活用が企業の競争力を左右する時代と言えるでしょう。

LangSmith、AIエージェントの本番監視・評価を強化

利用状況を自動で可視化

膨大な利用ログを自動分類
ユーザーの意図をパターン化
失敗原因の特定を支援

対話全体の成否を評価

複数回のやり取り全体を評価
ユーザー目的の達成度を測定
LLMによる自動スコアリング

LangChain社が、LLMアプリ開発基盤「LangSmith」にAIエージェントの監視・評価を強化する新機能を追加しました。2025年10月23日に発表された「Insights Agent」と「Multi-turn Evals」です。これにより開発者は、本番環境でのユーザーの利用実態を深く理解し、エージェントの品質向上を加速できます。

AIエージェントが本番投入される事例が増える一方、その品質評価は大きな課題でした。従来の監視手法では、単なる稼働状況しか分からず、エージェントが「ユーザーの真の目的」を達成できたかまでは把握困難でした。膨大な対話ログの全てに目を通すのは非現実的です。

新機能「Insights Agent」は、この課題に応えます。本番環境の膨大な利用ログをAIが自動で分析し、共通の利用パターンや失敗モードを抽出。「ユーザーは何を求めているか」「どこで対話が失敗しているのか」をデータに基づき把握でき、改善の優先順位付けが格段に容易になります。

もう一つの新機能「Multi-turn Evals」は、複数回のやり取りからなる対話全体を評価します。個々の応答の正しさだけでなく、一連の対話を通じてユーザーの最終目的が達成されたかを測定。LLMを評価者として活用し、対話の成否を自動でスコアリングできるのが特徴です。

これら2つの機能を組み合わせることで、開発サイクルは劇的に変わるでしょう。「Insights Agent」で"何が起きているか"を把握し、「Multi-turn Evals」で"それが成功か"を測定する。この本番データに基づいた高速な改善ループこそが、信頼性の高いエージェントを構築する鍵となります。

LangChain社は、エージェント開発における「本番投入後の改善」という重要課題に正面から取り組みました。今回の新機能は、開発者実世界のデータから学び、迅速に製品を改良するための強力な武器となるでしょう。今後の機能拡充にも期待が高まります。

GPT-5搭載AI、数週間の科学研究を数分に短縮

GPT-5駆動のマルチエージェント

計画・検索・読解・分析の4役分担
数週間の作業を数分に短縮
引用元を明示しハルシネーション抑制
Responses APIで高信頼・低コスト実現

研究者D2Cモデルで急成長

利用者800万人超、収益は前年比8倍
研究者個人に直接アプローチ
直感的なUIで口コミにより普及
医療分野にも進出、大手病院と契約

研究支援AI「Consensus」が、OpenAIの最新モデル「GPT-5」と「Responses API」を活用し、数週間かかっていた科学研究を数分で完了させるマルチエージェントシステムを開発しました。このシステムは、膨大な科学論文の検索、解釈、統合を自動化し、研究者が本来の発見的作業に集中できる環境を提供します。すでに800万人以上の研究者が利用し、科学の進歩を加速させています。

毎年、何百万もの新しい科学論文が出版され、一人の人間がすべてを読むことは不可能です。研究者の課題は、膨大な情報の中から必要な情報を見つけ、解釈し、関連付ける作業です。本来、未知の領域を探求すべき研究者が、その大半の時間を先行研究の調査に費やしているのが現状でした。

この課題を解決するのが、Consensusのマルチエージェントシステム「Scholar Agent」です。人間の研究者のように、計画・検索・読解・分析の4つの専門エージェントが連携。ユーザーの質問から信頼性の高い結論に至るまでのワークフロー全体を自動化し、数週間かかっていたリサーチを数分で完了させます。

システムの核となるのがGPT-5とResponses APIです。GPT-5はツール呼び出し精度などで競合モデルを圧倒。Responses APIはエージェント間の連携を効率化し、信頼性とコストを両立させました。これにより、開発チームは研究者のニーズに即した機能開発に集中できています。

Consensusの急成長を支えたのは、研究機関ではなく研究者個人に直接アプローチする独自の戦略です。「良いツールは承認を待たずに使われる」という思想のもと、直感的なUIで口コミにより普及。利用者800万人、収益は前年比8倍に達し、医療分野にも進出しています。

Consensusが最優先するのは、検証可能でハルシネーションの少ない回答です。全ての回答は、元の研究論文まで遡れるよう設計されています。今後は統計分析などを行うエージェントの追加も計画しており、AIの進化と共に、科学の発見をさらに加速させることを目指します。

Amazon、新ロボとAIで倉庫自動化を加速

新型ロボットとAIエージェント

従業員を支援するロボットBlue Jay
商品の75%を移動・保管可能に
認知負荷を減らすAIProject Eluna
仕分けを最適化しボトルネック解消

コスト削減と労働力の未来

Eコマース事業のコスト削減が目的
人を増やさず販売増を目指す戦略
従業員の役割はロボットの保守
将来的には人員削減の可能性も

Amazonは2025年10月23日、倉庫業務を効率化する新型ロボット「Blue Jay」とエージェントAI「Project Eluna」を発表しました。これらの新技術は、商品の移動や仕分けといった作業を自動化・最適化することで、同社が課題とするEコマース事業のコスト削減と生産性向上を目的としています。Amazonは「人との協働」を強調する一方、長期的には労働力構成の大きな変化が予想されます。

発表された新技術の中核を担うのが、ロボット「Blue Jay」です。Amazonが保管する商品の75%を移動できる能力を持ち、これまで従業員が行っていた高所での作業や持ち上げ作業を支援します。もう一つの柱であるエージェントAI「Project Eluna」は、従業員の「追加のチームメイト」として機能し、認知的な負担を軽減しながら仕分けプロセスを最適化。物流のボトルネック解消に貢献します。

今回の発表の背景には、アンディ・ジャシーCEOが推し進めるEコマース事業の抜本的なコスト削減策があります。「人を増やさずに販売量を増やす」という目標達成のため、倉庫の自動化は不可欠な戦略です。同社は公式には「ロボットが人間の仕事を奪うわけではない」と説明し、ホリデーシーズンに向けた大規模雇用計画もアピールしていますが、その真の狙いはどこにあるのでしょうか。

ジャシーCEOは以前、生成AIの活用により一部の仕事は不要になり、企業全体の従業員数が減少する可能性に言及しています。今回のロボット導入も同様の文脈で捉えられ、将来的には従業員の役割が、肉体労働からロボットの監視やメンテナンスへと移行していくことは確実です。これは、AI時代の働き方の未来を予見させる動きと言えるでしょう。

AIコード生成の壁、デプロイ自動化で解決へ

AIコーディングの課題

アイデアからコードを自動生成
しかしデプロイや保守が障壁
インフラ管理の専門知識が必須

Shuttleの解決策

生成コードを分析し最適インフラを提案
自然言語でインフラ管理を実現
主要クラウドプロバイダーと連携
全プログラミング言語に対応へ
GitHub CEOらが出資

プラットフォームエンジニアリングの新興企業Shuttleが、10月22日に600万ドル(約9億円)のシード資金調達を発表しました。この資金は、AIがアイデアからコードを生成する「vibe coding」の普及に伴い顕在化した、ソフトウェアのデプロイ(配備)やインフラ管理という新たな課題を解決するために活用されます。

近年、AIがアイデアからコードを自動生成する「vibe coding」が普及しています。しかし、完成したソフトウェアを公開し、運用・保守する段階では、インフラ管理という専門的な壁が新たなボトルネックとなりつつあります。

Shuttleは、AI生成コードを分析し、最適なクラウドインフラ構成と費用を提示。ユーザーが承認すれば、最小限の手間でデプロイを自動実行する仕組みを提供し、開発者インフラの複雑さから解放します。

今後は、自然言語でデータベースなどを管理できるエージェント型インターフェースを構築。Daneliya CEOは「AIが言語間の境界をなくす今が事業拡大の好機だ」と語ります。

2020年にY Combinatorから輩出された同社は、プログラミング言語Rustのアプリデプロイツールとして既に高い評価を得ています。今回の調達には元GitHub CEOなども参加し、その将来性に期待が集まります。

便利AIの死角、個人データ痕跡を最小化する6つの鍵

自律型AIのデータリスク

利便性の裏で膨大な個人データを生成
生活習慣がデジタル痕跡として長期蓄積
意図せぬプライバシー侵害の危険性

プライバシー保護の設計

データ保持期間と目的の限定
アクセス権の最小化と一時化
AIの行動を可視化しユーザーが制御
データの一括削除と完全消去を保証

ユーザーに代わり自律的に行動する「エージェントAI」は、その利便性の裏で膨大な個人データを生成・蓄積し、プライバシー上のリスクをもたらすと専門家が警鐘を鳴らしています。しかし、設計段階で規律ある習慣を取り入れることで、この問題は解決可能です。本稿では、AIの機能性を損なうことなく、利用者の「デジタル・トレイル(痕跡)」を劇的に削減するための6つの具体的なエンジニアリング手法を解説します。

エージェントAIは、ユーザーの指示を超えて自ら計画し、行動するシステムです。例えばスマートホームAIは、電力価格や天候を監視し、自動で空調やEV充電を最適化します。しかしその過程で、AIへの指示、行動、予測データなどがログとして大量に蓄積されます。これが、個人の生活習慣を詳細に記録した危険なデータ痕跡となり得るのです。

こうしたデータ蓄積は、システムの欠陥ではなく、多くのエージェントAIにおけるデフォルトの動作であることが問題を深刻にしています。開発者は迅速なサービス提供を優先し、データ管理を後回しにしがちです。その結果、ユーザーが把握できない形で、ローカルやクラウド上のストレージに個人データが散在・蓄積されてしまうのです。

この問題の解決に、全く新しい設計思想は必要ありません。プライバシー保護の国際基準であるGDPRの諸原則、すなわち「目的の限定」「データ最小化」「アクセス・保存期間の制限」「説明責任」といった、確立された考え方を技術的に実装することで十分に対応可能だと専門家は指摘します。

具体的な対策として、まずAIが利用するメモリやデータをタスク実行に必要な期間に限定することが挙げられます。次に、個々の実行IDに関連する全てのデータを紐付け、ユーザーが単一のコマンドで一括かつ完全に削除できる仕組みを構築します。デバイスへのアクセス権も、必要な操作のみを許可する一時的なものにすべきです。

AIの行動の透明性を確保することも極めて重要です。AIの計画、実行内容、データの流れ、消去予定日時などを平易な言葉で示す「エージェント・トレース」機能は、ユーザーに安心と制御手段を与えます。また、データ収集は最もプライバシー侵害の少ない方法を常に選択し、自己監視ログや第三者分析機能はデフォルトで無効にすることが推奨されます。

これらの習慣を実践すれば、AIの自律性や利便性を維持したまま、プライバシーリスクを大幅に低減できます。AIが真に人間に奉仕する存在であり続けるために、開発者は今こそプライバシーを尊重したシステム設計に取り組むべきではないでしょうか。

LangChain v1.0公開、開発速度と本番運用を両立

LangChain: 柔軟性と速度

新機能`create_agent`で高速開発
エージェントループをミドルウェアで制御
パッケージを簡素化しコア機能に集中
モデル非依存の標準コンテンツ出力

LangGraph: 堅牢性と制御

永続的状態管理で中断からの再開
人間による介入(HITL)を標準支援
複雑なワークフローをグラフで構築
本番環境での長期運用に最適化

AI開発フレームワークを手がけるLangChain社は2025年10月22日、主要ライブラリ「LangChain」と「LangGraph」のバージョン1.0を正式リリースしました。今回の更新は、開発者のフィードバックを反映し、APIの安定性を約束するとともに、本番環境での利用を容易にすることを目的としています。LangChainはミドルウェア導入で柔軟性を、LangGraphは永続化機能で堅牢性を高め、開発の迅速性とシステムの信頼性を両立させます。

LangChain 1.0の最大の目玉は、エージェント開発を高速化する新機能`create_agent`です。これはLangGraphの堅牢なランタイム上で動作します。さらに「ミドルウェア」という新概念が導入され、エージェントの実行ループの各段階で、人間による承認や個人情報のマスキングといったカスタム処理を簡単に追加できるようになりました。これにより、柔軟な制御が可能になります。

LangGraph 1.0は、本番環境で長期稼働する、信頼性の高いAIエージェントの構築に焦点を当てています。最大の特徴は永続的な状態管理機能です。これにより、システムが中断しても会話の文脈を失うことなく、処理を正確に再開できます。また、人間が介入して監視・承認を行う「ヒューマン・イン・ザ・ループ」のパターンもネイティブでサポートし、重要な意思決定を伴う業務にも対応します。

2つのフレームワークはどう使い分けるべきでしょうか。LangChainは、標準的なパターンですばやくエージェントを構築したい場合に最適です。一方、LangGraphは、複数の処理が絡み合う複雑なワークフローや、コストとレイテンシを厳密に管理したい場合に強みを発揮します。重要なのは、両者がシームレスに連携できる点です。LangChainで始め、必要に応じてLangGraphの低レベルな制御へと移行できます。

今回のv1.0リリースは、APIの安定性への強いコミットメントを示すものです。バージョン2.0まで破壊的変更を行わない方針が明言されており、開発者は安心して長期的なプロジェクトに採用できます。合わせてドキュメントサイトも刷新され、PythonとJavaScriptのドキュメントが統合されました。これにより、開発者はより効率的に学習を進めることが可能になります。

Vercel、長時間AIタスク向けタイムアウト延長機能

長時間タスクの課題を解決

連鎖的なAIエージェント実行
複数ステップのコード生成
予期せぬ実行時間の超過

新機能「extendTimeout」

実行中に動的に時間を延長
上限まで複数回呼び出し可
プラン毎に最大実行時間

プラン別最大実行時間

Pro/Enterprise: 最大5時間
Hobby: 最大45分

Web開発プラットフォームのVercelは2025年10月21日、サーバーレス環境「Sandbox」のタイムアウトを実行中に動的に延長できる新機能「extendTimeout」を発表しました。これにより、AIエージェントの連鎖タスクなど、従来は時間制限で中断されていた長時間処理の実行が容易になります。

これまで、AIによる複雑なコード生成や複数ステップにわたる処理は、予測不能な実行時間によりタイムアウト上限を超えるという課題がありました。特に自律的にタスクを連鎖実行するAIエージェントの開発では、この時間的制約が大きな障壁となっていました。

新導入の `extendTimeout` メソッドにより、開発者はサンドボックスの実行中にプログラムからタイムアウトを能動的に延長できます。これにより、処理が想定より長引いた場合でも、タスクを中断させることなく最後まで完了させることが可能になります。

タイムアウトの延長には、利用プランに応じた上限が設けられています。ProおよびEnterpriseプランでは最大5時間まで、無料のHobbyプランでは最大45分まで実行時間を延長可能です。プロジェクトの規模に応じた適切なプラン選択が重要です。

この機能強化は、Vercelプラットフォーム上で高度なAIアプリケーションを開発する際の柔軟性を大幅に向上させます。実行時間の制約緩和により、より複雑で強力なAIエージェントや、時間のかかるデータ処理タスクの実装が加速することが期待されます。

IT管理をAIで自動化、Servalが70億円調達

注目を集める独自AIモデル

IT管理を自動化するAIエージェント
2つのエージェントでタスクを分担
ツール構築とツール実行を分離
IT管理者の監督下で安全に自動化

大手VCと顧客が評価

シリーズAで70億円を調達
Redpoint Venturesが主導
Perplexityなど大手AI企業が顧客
深刻なAIの暴走リスクを回避

エンタープライズAIを手掛けるServalは10月21日、シリーズAで4700万ドル(約70億円)の資金調達を発表しました。ITサービス管理を自動化する独自のAIエージェントを提供しており、その安全性と効率性が評価されています。Redpoint Venturesが主導した本ラウンドには、顧客でもあるPerplexityなど有力AI企業も期待を寄せています。

同社の最大の特徴は、タスクを2種類のAIエージェントに分担させる点です。一つ目のエージェントが、ソフトウェアの利用許可など日常的なIT業務を自動化する内部ツールをコーディングします。IT管理者はこのプロセスを監督し、ツールの動作を承認。これにより、手動作業よりも自動化のコストを下げることを目指しています。

二つ目のエージェントは「ヘルプデスク」として機能し、従業員からの依頼に応じて、承認されたツールを実行します。このエージェント既存のツールしか使えないため、「会社の全データを削除して」といった危険な指示には応答しません。AIの暴走リスクを根本から排除する仕組みです。

ツール構築と実行を分離することで、IT管理者は厳格な権限管理を行えます。多要素認証後や特定の時間帯のみツールの実行を許可するなど、複雑なセキュリティルールを組み込めます。AIエージェントの可視性と制御性を確保できる点が、企業から高く評価されています。

今回の資金調達は、Redpoint Venturesが主導し、First RoundやGeneral Catalystなども参加しました。投資家だけでなく、顧客リストにPerplexityなどAI業界のトップ企業が名を連ねる点も、同社の技術力と信頼性の高さを証明しています。この資金でさらなる普及を目指します。

OpenAI、AIブラウザ「Atlas」発表 Google牙城に挑む

Atlasの革新的な機能

ChatGPTをブラウザ中核に統合
閲覧ページの文脈をAIが即時理解
コピペ不要のシームレスな対話
エージェントモードでタスク自動化

Web利用の未来と市場

検索中心から対話中心への転換
ブラウザ市場の覇権争いが新局面
「ブラウザメモリ」で体験を最適化

OpenAIは2025年10月21日、AIを中核に据えた新Webブラウザ「ChatGPT Atlas」をmacOS向けに全世界で発表しました。このブラウザは、閲覧中のWebページ内容をAIが理解し、予約や買い物といったタスクを自動実行する「エージェントモード」を搭載。従来の検索中心のWeb体験を根本から見直し、Google Chromeが支配する市場に挑戦します。WindowsiOSAndroid版も順次提供予定です。

Atlas最大の特徴は、ChatGPTとの深い統合にあります。ユーザーは閲覧中のページから離れることなく、サイドバーのAIと対話できます。例えば、講義資料を見ながら質問を生成したり、メール作成中に文章の推敲を依頼したりすることが可能です。これにより、これまで情報を行き来させていたコピー&ペーストの手間が不要になり、生産性の飛躍的な向上が期待されます。

もう一つの核となる機能が、有料プラン向けに提供される「エージェントモード」です。これはユーザーの指示に基づき、AIがブラウザ上で自律的にタスクを実行するもの。レシピサイトから食材をリストアップし、ネットスーパーで注文を完了させるといった、一連の複雑な操作を自動化します。Web利用のあり方を「操作」から「委任」へと変える大きな一歩と言えるでしょう。

ユーザーのプライバシーとデータ管理にも配慮されています。「ブラウザメモリ」機能は、過去の閲覧履歴や対話内容を記憶し、よりパーソナライズされた体験を提供しますが、この機能は任意で有効化でき、ユーザーはいつでも履歴の確認や削除が可能です。特定のサイトでAIのアクセスを遮断する設定や、履歴を残さないシークレットモードも搭載しています。

Atlasの登場は、激化する「AIブラウザ戦争」を象徴しています。GoogleChromeに「Gemini」を、MicrosoftはEdgeに「Copilot」を統合済みです。スタートアップPerplexityAIブラウザComet」で追随するなど、競争は激しいです。OpenAIの参入により、Webブラウザは単なる閲覧ツールから、ユーザーの目的達成を支援する知的アシスタントへと進化する競争が本格化します。

元Oculus創業者の会話AI、2.5億ドル調達し始動

元Oculus勢が描く未来

会話型AIスタートアップSesame
元Oculus創業者らが設立
シリーズBで2.5億ドルを調達
強力なハードウェア開発陣

自然な対話AIの衝撃

感情やリズムを直接生成する音声
初期デモは「自然」と高評価
iOSアプリのベータ版を公開
将来はスマートグラスに搭載

元Oculusの共同創業者らが設立した会話型AIスタートアップ「Sesame」が10月21日、シリーズBで2億5000万ドル(約375億円)の資金調達と、iOSアプリの早期ベータ版公開を発表しました。同社は、自然な人間の声で対話するパーソナルAIエージェントを開発しており、将来的には日常的に着用できる軽量なスマートグラスへの搭載を目指しています。

Sesameの技術は、単に大規模言語モデル(LLM)のテキスト出力を音声に変換するだけではありません。対話のリズムや感情、表現力を捉えて音声を直接生成する点に大きな特徴があります。今年2月に公開された音声デモは「本物の対話のようだ」と評され、公開後数週間で100万人以上がアクセスするなど、大きな注目を集めました。

この野心的なプロジェクトを率いるのは、元Oculus共同創業者のブレンダン・イリベCEOやネイト・ミッチェルCPO(最高製品責任者)らです。OculusやMetaハードウェア開発を率いた経験豊富な人材が集結しており、AIとハードウェアを高いレベルで融合させる独自の強みを持っています。

今回の資金調達と同時に、同社はiOSアプリの早期ベータ版を一部のテスター向けに公開しました。このアプリを通じて、ユーザーはSesameが開発するAI技術を先行体験できます。テスターは守秘義務契約を結び、公式フォーラム外での機能や結果に関する議論は禁じられています。

同社が目指す最終形は、AIアシスタントを搭載したスマートグラスです。ユーザーと共に世界を観察し、音声で対話できるコンパニオンの実現を目指します。ファッション性も重視し、AI機能がなくても選びたくなるようなデザインを追求しているとのことです。製品化の具体的な時期はまだ明かされていません。

今回の資金調達は、有力ベンチャーキャピタルのSequoiaやSparkなどが主導しました。創業チームの実績と革新的な技術が高く評価されており、音声インターフェースを核とした次世代プラットフォームへの市場の期待がうかがえます。

マイクロソフト、「待てるAI」実現へ新技術を発表

既存AIエージェントの課題

長期間の監視タスクが苦手
待てずに失敗、またはリソース浪費
メール返信待ちなどの自動化困難

新技術SentinelStep

動的な間隔で状況を監視
コンテキスト管理で長期稼働を実現
指定条件を満たした際に自動実行

性能と将来性

長時間タスクの成功率が大幅向上
常時稼働アシスタント実現への布石

Microsoft Researchは2025年10月21日、長時間にわたる監視タスクを実行できるAIエージェント技術「SentinelStep」を発表しました。現在のAIエージェントは、メールの返信を待つといった単純な「待機」が苦手という課題がありました。新技術は、動的な監視間隔の調整とコンテキスト管理によりこの問題を解決し、常時稼働するアシスタントの実現に道を開くものです。

「メールの返信が来たら通知する」「株価が目標額に達したら知らせる」。こうしたタスクの自動化は多くの時間を節約しますが、現在のLLMエージェントは不得意です。頻繁に確認しすぎてリソースを浪費するか、数回で諦めてしまうためです。高度な分析やコーディングができる一方で、単純な「待機」ができないという意外な弱点がありました。

SentinelStepは、この課題を2つの工夫で解決します。1つ目は、タスクの性質に応じて確認頻度を賢く調整する「動的ポーリング」です。2つ目は、数日間にわたるタスクでも過去の文脈を失わない「コンテキスト管理」。これにより、エージェント効率的かつ粘り強くタスクを監視し続けられます。

ユーザーは「アクション(何を確認するか)」「条件(いつ完了か)」「ポーリング間隔(どのくらいの間隔で確認するか)」の3要素を設定するだけで、監視エージェントを構築できます。この仕組みは、同社が開発したプロトタイプ「Magentic-UI」に実装されており、Webブラウジングやコーディングなど、様々なタスクに応用可能です。

その効果は、専用の評価環境「SentinelBench」で実証済みです。SentinelStepを使用しない場合、2時間かかる監視タスクの成功率はわずか5.6%でした。しかし、新技術を適用すると成功率は38.9%へと大幅に向上。長時間になるほど、その信頼性の高さが際立つ結果となりました。

この技術は、単に待つだけでなく、適切なタイミングで行動を起こす、実用的でプロアクティブなAIエージェントへの重要な一歩です。SentinelStepはオープンソースとして公開されており、開発者はすぐにでもこの「忍耐強い」エージェントの構築を試せます。企業の生産性を高める「常時稼働アシスタント」の基盤となる可能性を秘めています。

AIがオフィスを自律運営、Codiが新サービス開始

AIによるオフィス管理革命

煩雑な手作業を完全自動化
管理コストを大幅削減
年間数百時間の時間節約を実現

Codiの新SaaSプラットフォーム

既存のオフィスで即利用可能
清掃・備品補充をAIが調整
ベンダーとの連携も自律実行

米有力VCアンドリーセン・ホロウィッツが出資するスタートアップCodiが10月21日、オフィス管理を完全自動化する初のAIプラットフォームを発表しました。この新サービスは、清掃や備品補充といった物理的なオフィス運営をAIエージェントが自律的に実行し、企業が抱える管理業務の負担とコストを大幅に削減することを目的としています。

多くの企業でオフィス管理は依然として手作業に依存しており、年間8万ドル以上の管理コストが発生しているのが実情です。また、コロナ禍以降のリモート・ハイブリッドワークの普及で、専門のオフィス管理者の役割も変化。イベント企画などに時間を割く一方、日々の運営業務が後回しになりがちという課題がありました。

Codiの新プラットフォームは、企業が利用するベンダー情報をシステムに登録するだけで、AIがこれまでのデータやノウハウを基に、オフィスの備品補充や清掃などを自律的に調整・実行します。これにより、管理担当者は年間数百時間もの管理業務から解放されると試算されています。

ビジネスモデルは月額制のSaaS(Software as a Service)で、オフィス管理者を雇用するコストのごく一部で利用可能です。今年5月にベータ版を公開後、わずか5週間でARR(年間経常収益)10万ドルを達成。既にTaskRabbitなど40社の新規顧客を獲得しており、高い市場の関心を集めています。

従来の施設管理会社と異なり、Codiはスタッフによるベンダーの選定や調整が不要で、AIが実行までを担う点が大きな特徴です。また、他のワークプレイス向けプラットフォームと比較して、物理的なオペレーションの自動実行に特化している点で一線を画します。

「自動運転車のように、オフィスが自ら動く未来を創る」。CodiのCEO、クリステル・ロオー氏はそう語ります。同社は、物理的空間の管理という重荷から人材を解放し、企業文化の醸成や事業成長といった、より創造的な業務に集中できる環境の実現を目指しています。

LangChain、評価額1900億円でユニコーン入り

驚異的な成長スピード

2022年にOSSとして始動
23年4月にシードで1000万ドル調達
1週間後にシリーズAで2500万ドル調達
評価額1年半で6倍以上

AIエージェント開発基盤

LLMアプリ開発の課題を解決
Web検索やDB連携を容易に
GitHubスターは11.8万超
エージェント構築基盤へと進化

AIエージェント開発のオープンソース(OSS)フレームワークを提供するLangChainが10月21日、1億2500万ドル(約187億円)の資金調達を発表しました。これにより、同社の評価額は12億5000万ドル(約1900億円)に達し、ユニコーン企業の仲間入りを果たしました。今回のラウンドはIVPが主導し、新たにCapitalGやSapphire Venturesも参加。AIエージェント構築プラットフォームとしての進化を加速させます。

同社の成長は驚異的です。2022年にOSSプロジェクトとして始まった後、2023年4月にBenchmark主導で1000万ドルのシードラウンドを、そのわずか1週間後にはSequoia主導で2500万ドルのシリーズAラウンドを完了。当時2億ドルと報じられた評価額は、わずか1年半余りで6倍以上に跳ね上がったことになります。

LangChainは、初期の大規模言語モデル(LLM)を用いたアプリ開発における課題を解決し、一躍注目を集めました。Web検索、API呼び出し、データベースとの対話といった、LLMが単体では不得手な処理を容易にするフレームワークを提供。開発者から絶大な支持を得ており、GitHubでのスター数は11.8万を超えています。

最先端のモデルメーカーがインフラ機能を強化する中で、LangChainも単なるツールからプラットフォームへと進化を遂げています。今回の発表に合わせ、エージェントビルダーの「LangChain」やオーケストレーションツール「LangGraph」など主要製品のアップデートも公開。AIエージェント開発のハブとしての地位を確固たるものにしています。

医療AIは予約まで、Zocdoc CEOが示す一線

AIの役割と限界

「Dr. Google」から「Dr. AI」へ
医療アドバイスはAIにさせない
予約など事務作業の自動化
人間の最適な担当者へAIが振り分け

Zocdocの競争優位性

複雑な医療データという参入障壁
AIエージェントに対し交渉力を維持
決定論的システムでLLMを制御

米国医療予約プラットフォームZocdocのオリバー・カラズCEOは、AIが「Dr. Google」に取って代わると予測しつつ、医療アドバイスへのAI利用には断固反対の姿勢を示しました。同氏はAIの役割を予約などの事務作業の効率化に限定し、患者の安全と信頼性を最優先する考えを明確にしています。

AIの活用領域は、あくまでも定型的な業務です。ZocdocではAIアシスタント「Zo」が電話での予約変更や簡単な問い合わせに対応します。これにより、人間のスタッフはより複雑な相談に集中でき、患者体験の全体的な向上につながるとしています。

一方で、カラズ氏はAIによる診断や医療相談には明確に一線を画します。大規模言語モデル(LLM)は過信しがちで、医療の現場では危険が伴うと指摘。LLMを決定論的なシステムで制御するハイブリッドな手法で、AIの暴走を防ぎ、説明責任を担保します。

同社の強みは、20年近くかけて蓄積した医師や保険に関する膨大で複雑なデータです。この「英国の海岸線問題」にも似た参入障壁の高さが、新規参入者や大手AI企業に対する強力な堀(モート)となり、競争優位性を確立していると分析します。

カラズ氏はChatGPTのようなAIエージェントの台頭を脅威とは見ていません。かつてのGoogle独占時代とは異なり、Zocdocのようなサービス基盤を持つ企業が、複数のAIエージェントに対して強い交渉力を持つとの見方です。

今後の展望として、Zocdocは「患者の連合体」として、その規模を活かし価格の透明性確保など、医療制度全体の改善を促す触媒になることを目指します。既存の枠組みの中で、患者のアクセスと体験を向上させるという現実的なアプローチを強調しました。

NVIDIAとGoogle Cloud提携、企業AI・DXを推進

最新GPU搭載VMの提供

G4 VMでRTX PRO 6000 Blackwell提供
AI推論とビジュアル処理を両立
最大8基のGPU搭載が可能
多様なワークロードを高速化

産業デジタル化を加速

OmniverseとIsaac Simが利用可能に
物理的に正確なデジタルツイン構築
仮想空間でのAIロボット開発
製造業や物流分野のDXを支援

NVIDIAGoogle Cloudは10月20日、企業向けAIと産業のデジタル化を加速する提携拡大を発表しました。Google Cloud上で最新GPU「RTX PRO 6000 Blackwell」を搭載したG4仮想マシン(VM)と、デジタルツイン構築基盤「Omniverse」が利用可能になります。

G4 VMの核となるのは、最新GPU「RTX PRO 6000 Blackwell」です。AI推論と高精細なビジュアル処理の両方で卓越した性能を発揮し、生成AIから複雑なシミュレーションまで、多様なワークロードを単一基盤で高速化します。

特に注目されるのが産業用メタバース基盤「NVIDIA Omniverse」です。物理的に正確な工場のデジタルツイン構築や、仮想空間でのAIロボット開発・検証が可能になり、製造業などの物理AI活用が大きく前進します。

広告大手WPPはフォトリアルな3D広告環境の即時生成に、Altairは複雑なシミュレーションの高速化に本プラットフォームを活用しており、具体的なビジネス成果に繋がり始めています。あらゆる業界で応用が期待できるでしょう。

この統合プラットフォームは、AIモデル「Nemotron」や推論用マイクロサービス「NIM」などNVIDIAの豊富なソフトウェア群も利用可能です。AIエージェント構築から科学技術計算まで、高負荷タスクをクラウド上で実行できます。

今回の提携は、データ分析から物理AIの実装まで一気通貫の開発環境クラウドで提供するものです。企業のデジタルトランスフォーメーションとイノベーションを次の段階へ引き上げる、強力な一手となるでしょう。

生命科学向けClaude、研究開発をAIで変革

研究基盤を強化する新機能

人間を超える性能の新モデル
主要科学ツールと直接連携
専門手順を自動化するスキル

研究開発の全工程を支援

文献レビューから仮説立案まで
ゲノム解析など大規模データ分析
臨床・薬事申請など規制対応

AI開発企業Anthropicは2025年10月20日、AIモデル「Claude」の生命科学分野向けソリューションを発表しました。最新モデルの性能向上に加え、外部ツールとの連携機能やタスク自動化機能を強化。研究開発の初期段階から商業化まで、全プロセスを包括的に支援し、科学的発見の加速を目指します。製薬企業などでの活用がすでに始まっています。

中核となるのは、最新大規模言語モデル「Claude Sonnet 4.5」の優れた性能です。実験手順の理解度を測るベンチマークテストでは、人間の専門家を上回るスコアを記録。これにより、より複雑で専門的なタスクにおいても、高精度な支援が可能になります。

新たに搭載された「コネクター」機能は、Claudeの活用の幅を大きく広げます。PubMed(医学文献データベース)やBenchling(研究開発プラットフォーム)といった外部の主要な科学ツールと直接連携。研究者はClaudeの対話画面からシームレスに必要な情報へアクセスでき、ワークフローが大幅に効率化されます。

特定のタスクを自動化する「エージェントスキル」機能も導入されました。これは、品質管理手順やデータフィルタリングといった定型的なプロトコルをClaudeに学習させ、一貫した精度で実行させる機能です。研究者は反復作業から解放され、より創造的な業務に集中できるでしょう。

これらの新機能により、Claudeは文献レビューや仮説立案といった初期研究から、ゲノムデータの大規模解析、さらには臨床試験や薬事申請における規制コンプライアンスまで、研究開発のバリューチェーン全体を支援するパートナーとなり得ます。ビジネスリーダーやエンジニアにとって、研究生産性を飛躍させる強力なツールとなるのではないでしょうか。

すでにSanofiやAbbVieといった大手製薬企業がClaudeを導入し、業務効率の向上を報告しています。Anthropicは今後もパートナー企業との連携を深め、生命科学分野のエコシステム構築を進める方針です。

Claude Codeがウェブ対応、並列処理と安全性を両立

ウェブ/モバイル対応

ブラウザから直接タスクを指示
GitHubリポジトリと連携可能
iOSアプリでもプレビュー提供

生産性を高める新機能

複数タスクの並列実行が可能に
非同期処理で待ち時間を削減
進捗状況をリアルタイムで追跡

セキュリティ第一の設計

分離されたサンドボックス環境
セキュアなプロキシ経由で通信

AI開発企業Anthropicは2025年10月20日、人気のAIコーディングアシスタントClaude Code」のウェブ版とiOSアプリ版を発表しました。これにより開発者は、従来のターミナルに加え、ブラウザからも直接コーディングタスクを指示できるようになります。今回の更新では、複数のタスクを同時に実行できる並列処理や、セキュリティを強化するサンドボックス環境が導入され、開発の生産性と安全性が大幅に向上します。

ウェブ版では、GitHubリポジトリを接続し、自然言語で指示するだけでClaudeが自律的に実装を進めます。特筆すべきは、複数の修正や機能追加を同時に並行して実行できる点です。これにより、開発者は一つのタスクの完了を待つことなく次の作業に着手でき、開発サイクル全体の高速化が期待されます。進捗はリアルタイムで追跡でき、作業中の軌道修正も可能です。

今回のアップデートで特に注目されるのが、セキュリティを重視した実行環境です。各タスクは「サンドボックス」と呼ばれる分離された環境で実行され、ファイルシステムやネットワークへのアクセスが制限されます。これにより、企業の重要なコードベースや認証情報を保護しながら、安全にAIエージェントを活用できる体制が整いました。

AIコーディングツール市場は、Microsoft傘下のGitHub Copilotを筆頭に、OpenAIGoogleも高性能なツールを投入し、競争が激化しています。その中でClaude Codeは、開発者から高く評価されるAIモデルを背景にユーザー数を急増させており、今回のウェブ対応でさらなる顧客層の獲得を目指します。

このようなAIエージェントの進化は、開発者の役割を「コードを書く人」から「AIを管理・監督する人」へと変えつつあります。Anthropicは、今後もターミナル(CLI)を中核としつつ、あらゆる場所で開発者を支援する方針です。AIによるコーディングの自動化は、ソフトウェア開発の常識を塗り替えようとしています。

Opera新AIブラウザ、月額20ドルの価値に疑問符

混乱を招く3つのAI

対話型AI「Chat」
タスク実行AI「Do」
ツール作成AI「Make」
目的別の使い分けが難解

高価格に見合わぬ性能

月額約20ドルの有料製品
タスク実行が遅く不正確
意図しない動作で信頼性に欠ける
競合の無料ツールに劣後

Operaが月額約20ドルのAIブラウザ「Neon」を公開しました。しかし、搭載された3つのAIの使い分けが難しく、性能も不安定なため、その価値に疑問が呈されています。競合が無料サービスを提供する中、有料に見合う体験を提供できるかが焦点です。

Neon最大の特徴は、対話型の「Chat」、タスクを自動実行する「Do」、ウェブツールを作成する「Make」という3つのAIエージェントが共存している点です。しかし、どのタスクにどのAIを使うべきか直感的に分かりにくく、かえってユーザーの混乱を招いています。

特に、ブラウザ操作を代行するエージェント「Do」の性能には課題が残ります。簡単な予約作業ですら人間より遅く、意図しない商品を選択するなど信頼性に欠ける場面も。実行中に軌道修正ができない点も、実用性を損なう要因となっています。

対話型AIの「Chat」も、質問への回答が冗長すぎたり、ウェブページ上のコメント数を誤認したりと、精度にばらつきが見られます。簡単な情報収集でさえ、ユーザー自身による事実確認が必要になるのが現状です。

最大の障壁は価格設定でしょう。Google ChromePerplexityなど、強力なAI機能を無料で提供する競合がひしめく市場で、月額約20ドルは極めて野心的な価格です。Opera側は「早期アクセス段階」と認めていますが、有料である以上、相応の価値提供が求められます。

結論として、Opera NeonはAIブラウザの未来を示唆するものの、現時点では「頼りないインターン」のようです。ユーザーがブラウザに合わせるのではなく、ブラウザがユーザーの意図を正確に汲み取るレベルに達するには、まだ多くの改善が必要と言えるでしょう。

ゲームデータで次世代AI、新興企業に200億円超

次世代AI「ワールドモデル」

人間のような空間認識を持つAI
物理世界の因果関係を予測する技術
ロボットや自動運転への応用

General Intuitionの強み

ゲーム動画データ年間20億本
AIが行動を学ぶ検証可能な環境
OpenAIも欲したデータの価値

大型シード資金調達

調達額は1億3370万ドル
OpenAI初期投資家が主導

ビデオゲームのプレイ動画からAIが世界を学ぶ。新興AIラボ「General Intuition」は2025年10月17日、ゲームデータを用いてAIに物理世界を理解させる「ワールドモデル」を開発するため、シードラウンドで1億3370万ドル(約200億円)を調達したと発表しました。この動きは、AIエージェント開発における新たなフロンティアを開拓する試みとして、業界の大きな注目を集めています。

ワールドモデル」とは、AIが人間のように空間を認識し、物事の因果関係を予測する能力を指します。例えば、テーブルから落ちるコップを事前に掴むといった、物理世界での直感的な判断を可能にします。Google DeepMindなどが研究を主導しており、自律型AIエージェント実現の鍵と見なされています。汎用人工知能(AGI)への道筋としても期待される重要技術です。

同社の強みは、親会社であるゲーム録画プラットフォーム「Medal」が保有する膨大なデータにあります。年間約20億本アップロードされるプレイ動画は、AIが3次元空間での「良い行動」と「悪い行動」を学ぶための検証可能な学習データセットとなります。このデータの価値は非常に高く、過去にはOpenAIが5億ドルでの買収を提案したとも報じられています。

今回の大型資金調達を主導したのは、OpenAIの初期投資家としても知られるKhosla Venturesです。創業者のヴィノド・コースラ氏は「彼らは独自のデータセットとチームを持っている」と高く評価。General Intuitionが、LLMにおけるOpenAIのように、AIエージェント分野で破壊的な影響をもたらす可能性があると大きな期待を寄せています。

General Intuitionは、開発したモデルをまず捜索救助ドローンに応用し、将来的には人型ロボットや自動運転車への展開を目指します。しかし、この分野はGoogleのような資金力豊富な巨大企業との競争が激しく、技術的なアプローチもまだ確立されていません。どのデータや手法が最適かは未知数であり、大きなリスクも伴います。

今回の動きは、ゲーム業界に新たな可能性を示唆しています。ワールドモデルへの関心が高まるにつれ、ゲーム企業が保有するデータはAI開発の宝庫となり、大手AIラボの買収対象となる可能性があります。自社データの価値を正しく理解し、戦略を立てることが、今後のAI時代を勝ち抜く上で重要になるでしょう。

AI開発の技術負債を解消、対話をコード化する新手法

感覚的コーディングの弊害

迅速だが文書化されないコード
保守困難な技術的負債の蓄積

新基盤Codevの仕組み

AIとの対話をソースコード資産に
構造化されたSP(IDE)Rフレームワーク
複数AIと人間による協業レビュー
生産性が3倍向上した事例も
開発者の役割はアーキテクトへ

新たなオープンソースプラットフォーム「Codev」が、生成AI開発の課題である「感覚的コーディング」による技術的負債を解決する手法として注目されています。CodevはAIとの自然言語での対話をソースコードの一部として構造化し、監査可能で高品質な資産に変えます。これにより、開発プロセスが透明化され、保守性の高いソフトウェア開発が実現します。

Codevの中核をなすのは「SP(IDE)R」というフレームワークです。人間とAIが協業して仕様を定義し、AIが実装計画を提案。その後、AIがコード実装、テスト、評価のサイクルを回し、最後にチームがプロセス自体を改善します。この構造化されたアプローチが、一貫性と品質を担保する鍵となります。

このフレームワークの強みは、複数のAIエージェントを適材適所で活用する点です。共同創設者によると、Geminiセキュリティ問題の発見に、GPT-5は設計の簡素化に長けているとのこと。多様なAIの視点と、各段階での人間による最終承認が、コードの欠陥を防ぎ、品質を高めます。

Codevの有効性は比較実験で実証済みです。従来の感覚的コーディングでは機能実装率0%だった一方、同じAIでCodevを適用すると機能実装率100%の本番仕様アプリが完成。共同創設者は、主観的に生産性が約3倍向上したと述べています。

Codevのような手法は開発者の役割を大きく変えます。コードを書くことから、AIへの仕様提示や提案をレビューするアーキテクトとしての役割が重要になるのです。特に、開発の落とし穴を知るシニアエンジニアの経験が、AIを導き生産性を飛躍させる鍵となるでしょう。

一方で、この変化は新たな課題も生みます。AIがコーディングを担うことで、若手開発者実践的な設計スキルを磨く機会を失う懸念が指摘されています。AIを使いこなすトップ層の生産性が向上する一方で、次世代の才能をいかに育成していくか。業界全体で取り組むべきテーマとなるでしょう。

生成AIは過大評価、実態は500億ドル産業

過大評価されるAIの実態

1兆ドル産業のふりをした500億ドル産業
AIが万能薬という誇大広告
実力と宣伝の大きな乖離

揺らぐビジネスモデル

OpenAI巨額な赤字
予測不能なユーザーコスト
AIエージェント存在しないと断言
根拠の乏しい経済性

テック業界の著名な批評家エド・ジトロン氏は、Ars Technicaが主催したライブ対談で、現在の生成AI業界は実態とかけ離れたバブル状態にあると警鐘を鳴らしました。同氏は、生成AIが「1兆ドル産業のふりをした500億ドル産業」に過ぎないと指摘。OpenAIの巨額な赤字などを例に挙げ、その経済的な持続可能性に強い疑問を呈しています。

ジトロン氏の批判の核心は、AIの実力と宣伝の間に存在する大きな乖離です。「誰もがAIを、ソフトウェアやハードウェアの未来を担う万能薬であるかのように扱っている」と述べ、現状の熱狂は実態を反映していないと主張します。市場の期待値は1兆ドル規模にまで膨らんでいますが、実際の収益規模はその20分の1に過ぎないというのが同氏の見立てです。

その主張を裏付ける具体例として、ジトロン氏はOpenAI厳しい財務状況を挙げました。報道によれば、OpenAIは2025年の上半期だけで推定97億ドルもの損失を計上しています。この莫大なコスト構造は、現在の生成AI技術が持続可能なビジネスとして成立するのか、という根本的な問いを突きつけています。

ビジネスモデルにも脆弱性が見られます。AIのサブスクリプションサービスでは、ユーザー1人あたりのコンピューティングコストが月2ドルで済むのか、あるいは1万ドルに膨れ上がるのかを予測することが極めて困難です。このコストの不確実性は、安定した収益モデルの構築を阻む大きな障壁となり得ます。

さらにジトロン氏は、AIの技術的能力そのものにも踏み込みます。特に、自律的にタスクをこなすとされる「AIエージェント」については、「テクノロジー業界が語った最も悪質な嘘の一つ」と断じ、「自律エージェントは存在しない」と断言しました。技術的な限界を無視したマーケティングが、市場の過熱を招いていると批判しています。

AI導入を進める経営者やリーダーにとって、ジトロン氏の指摘は冷静な視点を与えてくれます。熱狂的な市場の雰囲気に流されることなく、自社の課題解決に本当に貢献するのか、費用対効果は見合うのかを厳しく見極める必要がありそうです。AIの真価を見極める目が、今まさに問われています。

全Win11がAI PC化、音声操作と自律エージェント搭載

音声操作で変わるPC

「Hey, Copilot」で音声起動
第三の入力方法として音声定着へ
キーボード・マウス操作を補完

画面を見て自律実行

Copilot Visionで画面をAIが認識
アプリ操作をAIがガイド
Copilot Actionsでタスクを自律実行

対象とセキュリティ

全Win11 PCがAI PC化、特別機不要
サンドボックス環境で安全性を確保

マイクロソフトは2025年10月16日、全てのWindows 11 PC向けに、音声で起動する「Hey Copilot」や画面を認識してタスクを自律実行するAIエージェント機能などを発表しました。これにより、PCの操作はキーボードとマウス中心から、より自然な対話形式へと移行します。Windows 10のサポート終了に合わせ、AIを中核に据えた次世代のPC体験を提供し、Windows 11への移行を促す狙いです。

新機能の柱は音声操作です。「Hey, Copilot」というウェイクワードでAIアシスタントを起動でき、マイクロソフトはこれをキーボード、マウスに次ぐ「第三の入力方法」と位置付けています。同社の調査では、音声利用時のエンゲージメントはテキスト入力の2倍に上るといい、PCとの対話が日常になる未来を描いています。

さらに、AIがユーザーの画面を「見る」ことで文脈を理解する「Copilot Vision」も全機種に展開されます。これにより、複雑なソフトウェアの操作方法を尋ねると、AIが画面上で手順をガイドしてくれます。ユーザーが詳細な指示(プロンプト)を入力する手間を省き、AIとの連携をより直感的なものにします。

最も革新的なのが、AIが自律的にタスクをこなす「Copilot Actions」です。自然言語で「このフォルダの写真を整理して」と指示するだけで、AIエージェントがファイル操作やデータ抽出を代行します。まだ実験的な段階ですが、PCがユーザーの「代理人」として働く未来を示唆する重要な一歩と言えるでしょう。

自律型エージェントにはセキュリティリスクも伴います。これに対しマイクロソフトは、エージェントサンドボックス化された安全な環境で動作させ、ユーザーがいつでも介入・停止できる仕組みを導入。機能はデフォルトで無効になっており、明示的な同意があって初めて有効になるなど、安全性を最優先する姿勢を強調しています。

今回の発表の重要な点は、これらの先進的なAI機能が一部の高性能な「Copilot+ PC」だけでなく、全てのWindows 11 PCで利用可能になることです。これにより、AI活用の裾野は一気に広がる可能性があります。マイクロソフトはPCを単なる「道具」から「真のパートナー」へと進化させるビジョンを掲げており、今後の競争環境にも大きな影響を与えそうです。

ゲーム動画でAI訓練、時空間推論へ200億円調達

巨額調達の背景

シードで約200億円という巨額調達
ゲーム動画共有Medal社からスピンアウト
年間20億本動画を学習データに活用
OpenAI買収を試みた優良データ

AIの新たな能力

LLMが苦手な物理世界の直感を学習
未知の環境でも行動を的確に予測

想定される応用分野

ゲーム内の高度なNPC開発
捜索救助ドローンロボットへの応用

ゲーム動画共有プラットフォームのMedal社からスピンアウトしたAI研究所「General Intuition」が、シードラウンドで1億3370万ドル(約200億円)という異例の資金調達を発表しました。同社は、Medalが持つ年間20億本ものゲーム動画を学習データとし、AIに現実世界での動きを直感的に理解させる「時空間推論」能力を訓練します。これは現在の言語モデルにはない能力で、汎用人工知能(AGI)開発の新たなアプローチとして注目されています。

同社が活用するゲーム動画データは、その質の高さからOpenAIも過去に買収を試みたと報じられるほどです。CEOのピム・デ・ウィッテ氏によれば、ゲーマーが投稿する動画は成功や失敗といった極端な事例(エッジケース)が多く、AIの訓練に非常に有用なデータセットとなっています。この「データ・モート(データの堀)」が、巨額の資金調達を可能にした大きな要因です。

「時空間推論」とは、物体が時間と空間の中でどのように動き、相互作用するかを理解する能力を指します。文章から世界の法則を学ぶ大規模言語モデル(LLM)に対し、General Intuitionは視覚情報から直感的に物理法則を学ばせるアプローチを取ります。同社は、この能力こそが真のAGIに不可欠な要素だと考えています。

開発中のAIエージェントは、訓練に使われていない未知のゲーム環境でも、人間のプレイヤーが見るのと同じ視覚情報のみで状況を理解し、次にとるべき行動を正確に予測できる段階にあります。この技術は、ゲームのコントローラーで操作されるロボットアームやドローン、自動運転車といった物理システムへ自然に応用できる可能性があります。

初期の実用化分野として、2つの領域が想定されています。一つは、ゲーム内でプレイヤーの習熟度に合わせて難易度を動的に調整し、常に最適な挑戦を提供する高度なNPC(ノンプレイヤーキャラクター)の開発です。もう一つは、GPSが使えない未知の環境でも自律的に飛行し、情報を収集できる捜索救助ドローンの実現です。

競合他社がシミュレーション環境(ワールドモデル)そのものを製品化するのに対し、General Intuitionはエージェントの応用事例に注力する戦略をとります。これにより、ゲーム開発者コンテンツと競合したり、著作権問題を引き起こしたりするリスクを回避する狙いもあります。

今回の資金調達はKhosla VenturesとGeneral Catalystが主導しました。シードラウンドとしては異例の規模であり、ゲームから生まれたデータが次世代AI開発の鍵を握るという期待の大きさを物語っています。同社の挑戦は、AI技術の新たな地平を切り開くかもしれません。

多機能とSNS連携で覇権、ByteDanceのAI『Doubao』

中国で最も人気なAIアプリ

月間利用者1.57億人中国首位
世界でも4番目に人気の生成AI
親しみやすいアバターとUI/UX

成功を支える『全部入り』戦略

チャットから動画生成まで多機能
AIに不慣れな層も取り込む設計
TikTok(Douyin)とのシームレスな連携

バイラル設計とエコシステム

SNSでの共有を促すバイラル設計
競合からユーザーの4割が流入
自動車など他デバイスへの展開

TikTokを運営する中国ByteDance社が開発したAIアシスタント「Doubao(豆包)」が、中国市場を席巻しています。2025年8月には月間アクティブユーザー数が1億5700万人に達し、競合のDeepSeekを抜いて国内首位となりました。その成功の裏には、チャットから画像動画生成までを網羅する多機能性と、ショート動画アプリ「Douyin(抖音)」と連携した巧みなバイラル戦略があります。

Doubaoの躍進は、データにも裏付けられています。中国のデータインテリジェンス企業QuestMobileによると、月間アクティブユーザー数は1億5700万人。競合のDeepSeekは1億4300万人で2位に後退しました。また、ベンチャーキャピタルa16zの調査では、ChatGPTGeminiに次ぐ世界で4番目に人気の生成AIアプリにランクインしています。

Doubaoの最大の特徴は「全部入り」とも言える包括的な機能です。テキスト対話だけでなく、画像生成、短い動画作成、データ分析、AIエージェントのカスタマイズまで、一つのアプリで完結します。これはまるで、ChatGPT、Midjourney、Sora、Character.aiといった複数の最先端ツールを一つに集約したような体験をユーザーに提供するものです。

なぜ、この「全部入り」戦略が受け入れられたのでしょうか。それは、DoubaoがAIに詳しくない一般ユーザーを明確にターゲットにしているからです。親しみやすいアバターやカラフルなUIに加え、テキスト入力より音声動画での対話を好む層を取り込み、AI利用のハードルを劇的に下げることに成功しました。

成功のもう一つの柱が、ByteDanceの得意とするSNS連携とバイラル設計です。ユーザーはDoubaoで生成したコンテンツを、Douyin(中国TikTok)ですぐに共有できます。逆にDouyinの動画要約をDoubaoにさせることも可能です。この利便性と楽しさが爆発的な拡散を生み、ユーザーエンゲージメントを高めています。

競合のDeepSeekがモデルの性能や論理的タスクに注力する一方、Doubaoは消費者向けアプリとしての完成度で差をつけました。QuestMobileのデータでは、DeepSeekを離れたユーザーの約4割がDoubaoに移行したとされています。これは、ByteDanceが長年培ってきた「アプリ工場」としての開発力が発揮された結果と言えるでしょう。

ByteDanceはスマートフォンの枠を超え、Doubaoをエコシステムの中核に据えようとしています。すでにスマートグラスや自動車メーカーとの提携を進めており、車載アシスタントやAIコンパニオンとしての搭載が始まっています。Doubaoは、私たちの生活のあらゆる場面に浸透するプラットフォームを目指しているのです。

Anthropic、専門業務AI化へ 新機能『Skills』発表

新機能「Skills」とは

業務知識をフォルダでパッケージ化
タスクに応じAIが自動でスキル読込
ノーコードでもカスタムAI作成可能

導入企業のメリット

プロンプト手間を削減し作業効率化
属人化しがちな専門知識を共有
楽天は業務時間を8分の1に短縮

主な特徴と利点

複数スキルを自動で組合せ実行
APIなど全製品で一度作れば再利用OK

AI開発企業Anthropicは10月16日、同社のAIモデル「Claude」向けに新機能「Skills」を発表しました。これは、企業の特定業務に関する指示書やデータをパッケージ化し、Claudeに専門的なタスクを実行させるAIエージェント構築機能です。複雑なプロンプトを都度作成する必要なく、誰でも一貫した高品質のアウトプットを得られるようになり、企業の生産性向上を支援します。

「Skills」の核心は、業務知識の再利用可能なパッケージ化にあります。ユーザーは、指示書やコード、参考資料などを一つのフォルダにまとめることで独自の「スキル」を作成。Claudeは対話の文脈を理解し、数あるスキルの中から最適なものを自動で読み込んでタスクを実行します。これにより、AIの利用が特定の個人のノウハウに依存する問題を解決します。

導入効果は劇的です。先行導入した楽天グループでは、これまで複数部署間の調整が必要で丸一日かかっていた管理会計業務を、わずか1時間で完了できるようになったと報告しています。これは生産性8倍に相当します。他にもBox社やCanva社が導入し、コンテンツ作成や資料変換といった業務で大幅な時間短縮を実現しています。

技術的には「段階的開示」と呼ばれるアーキテクチャが特徴です。AIはまずスキルの名称と要約だけを認識し、タスクに必要と判断した場合にのみ詳細情報を読み込みます。これにより、モデルのコンテキストウィンドウの制限を受けずに膨大な専門知識を扱える上、処理速度とコスト効率を維持できるのが、競合の類似機能に対する優位点です。

本機能は、Claudeの有料プラン(Pro、Max、Team、Enterprise)のユーザーであれば追加費用なしで利用できます。GUI上で対話形式でスキルを作成できるため、エンジニアでなくとも利用可能です。もちろん、開発者向けにはAPIやSDKも提供され、より高度なカスタムAIエージェントを自社システムに組み込めます。

一方で、SkillsはAIにコードの実行を許可するため、セキュリティには注意が必要です。Anthropicは、企業管理者が組織全体で機能の有効・無効を制御できる管理機能を提供。ユーザーが信頼できるソースから提供されたスキルのみを利用するよう推奨しており、企業ガバナンスの観点からも対策が講じられています。

AIエージェント開発競争が激化する中、Anthropicは企業の実用的なニーズに応える形で市場での存在感を高めています。専門知識を形式知化し、組織全体の生産性を高める「Skills」は、AI活用の次の一手となる可能性を秘めているのではないでしょうか。

AWS、AIエージェントの長期記憶術を詳解

AgentCore長期記憶の仕組み

会話から重要情報を自動抽出
関連情報を統合し矛盾を解消
独自ロジックでのカスタマイズも可能

高い性能と実用性

最大95%のデータ圧縮率
約200ミリ秒の高速な情報検索
ベンチマーク実用的な正答率を証明

導入に向けたベストプラクティス

ユースケースに合う記憶戦略を選択
非同期処理を前提としたシステム設計が鍵

Amazon Web Services (AWS) が、AIサービス「Amazon Bedrock」のエージェント機能「AgentCore」に搭載された長期記憶システムの詳細を公開しました。この技術は、AIエージェントがユーザーとの複数回にわたる対話内容を記憶・統合し、文脈に応じた、より人間らしい応答を生成することを可能にします。これにより、一過性のやり取りを超えた、継続的な関係構築の実現が期待されます。

AIエージェントが真に賢くなるには、単なる会話ログの保存では不十分です。人間のように、雑談から重要な情報(「私はベジタリアンです」など)を見極めて抽出し、矛盾なく知識を更新し続ける必要があります。AgentCoreの長期記憶は、こうした複雑な課題を解決するために設計された、高度な認知プロセスを模倣するシステムです。

記憶システムの核となるのが「抽出」と「統合」です。まず、大規模言語モデル(LLM)が会話を分析し、事実や知識、ユーザーの好みといった意味のある情報を自動で抽出します。開発者は、用途に応じて「セマンティック記憶」「要約記憶」「嗜好記憶」といった複数の戦略を選択、あるいは独自にカスタマイズすることが可能です。

次に「統合」プロセスでは、抽出された新しい情報が既存の記憶と照合されます。LLMが関連情報を評価し、情報の追加、更新、あるいは重複と判断した場合は何もしない(NO-OP)といったアクションを決定。これにより、記憶の一貫性を保ち、矛盾を解消しながら、常に最新の情報を維持します。

このシステムは性能面でも優れています。ベンチマークテストでは、会話履歴の元データと比較して最大95%という驚異的な圧縮率を達成。ストレージコストと処理負荷を大幅に削減します。また、記憶の検索応答時間は約200ミリ秒と高速で、大規模な運用でも応答性の高いユーザー体験を提供できます。

AgentCoreの長期記憶は、AIエージェント開発における大きな一歩と言えるでしょう。単に「覚える」だけでなく、文脈を「理解」し、時間と共に成長するエージェントの構築を可能にします。この技術は、顧客サポートからパーソナルアシスタントまで、あらゆる対話型AIの価値を飛躍的に高める可能性を秘めています。

Anthropic新AI、旧最上位機の性能を1/3の価格で

驚異のコストパフォーマンス

旧最上位機に匹敵するコーディング性能
コストは旧モデルの3分の1に削減
処理速度は2倍以上に向上
全ての無料ユーザーにも提供開始

マルチエージェントの新時代へ

上位モデルが計画しHaikuが実行
複雑なタスクを並列処理で高速化
リアルタイム応答が求められる業務に最適
同社モデルで最高レベルの安全性

AI開発企業Anthropicは10月15日、小型・高速・低コストな新AIモデル「Claude Haiku 4.5」を発表しました。わずか5ヶ月前の最上位モデル「Sonnet 4」に匹敵する性能を持ちながら、コストは3分の1、速度は2倍以上を実現。AIの性能向上が驚異的なスピードで進んでいることを示しており、エンタープライズ市場でのAI活用に新たな選択肢をもたらします。

Haiku 4.5の強みは、その卓越したコストパフォーマンスにあります。ソフトウェア開発能力を測る「SWE-bench」では、旧最上位モデルや競合のGPT-5に匹敵するスコアを記録。これにより、これまで高コストが障壁となっていたリアルタイムのチャットボット顧客サービスなど、幅広い用途でのAI導入が現実的になります。

Anthropicは、Haiku 4.5を活用した「マルチエージェントシステム」という新たなアーキテクチャを提唱しています。これは、より高度なSonnet 4.5モデルが複雑なタスクを計画・分解し、複数のHaiku 4.5エージェントがサブタスクを並列で実行する仕組みです。人間がチームで分業するように、AIが協調して動くことで、開発効率の大幅な向上が期待されます。

今回の発表で注目すべきは、この高性能モデルが全ての無料ユーザーにも提供される点です。これにより、最先端に近いAI技術へのアクセスが民主化されます。企業にとっては、AI導入のROI(投資対効果)がより明確になり、これまで高価で手が出せなかった中小企業スタートアップにも、AI活用の門戸が大きく開かれることでしょう。

安全性も大きな特徴です。AnthropicはHaiku 4.5が同社のモデル群の中で最も安全性が高いと発表。徹底した安全性評価を実施し、企業のコンプライアンスリスク管理の観点からも安心して導入できる点を強調しています。技術革新と安全性の両立を目指す同社の姿勢がうかがえます。

わずか数ヶ月で最先端モデルの性能が低価格で利用可能になる。AI業界の進化の速さは、企業の事業戦略に大きな影響を与えます。Haiku 4.5の登場は、AIのコスト構造を破壊し、競争のルールを変える可能性を秘めています。自社のビジネスにどう組み込むか、今こそ真剣に検討すべき時ではないでしょうか。

保険業務をAIで刷新、Liberateが75億円調達

AIエージェントの提供価値

売上15%増、コスト23%削減を実現
請求対応時間を30時間から30秒に短縮
24時間365日の販売・顧客対応
既存システムと連携し業務を自動化

大型資金調達の概要

シリーズBで5000万ドルを調達
企業評価額3億ドル(約450億円)
AIの推論能力向上と事業拡大に投資
Battery Venturesがラウンドを主導

AIスタートアップのLiberate社が、シリーズBラウンドで5000万ドル(約75億円)を調達したと発表しました。企業評価額は3億ドル(約450億円)に達します。同社は音声AIと推論ベースのAIエージェントを組み合わせ、保険の販売から請求処理までのバックオフィス業務を自動化するシステムを開発。運営コストの増大や旧式システムに悩む保険業界の課題解決を目指します。

Liberateの技術の核心は、エンドツーエンドで業務を完遂するAIエージェントです。顧客対応の最前線では音声AIアシスタント「Nicole」が電話応対し、その裏でAIエージェント群が既存の保険システムと連携。見積もり作成、契約更新、保険金請求処理といった定型業務を人の介在なしに実行します。

導入効果は既に数字で示されています。顧客企業は平均で売上が15%増加し、運用コストを23%削減することに成功。ある事例では、ハリケーン関連の保険金請求対応にかかる時間が従来の30時間からわずか30秒へと劇的に短縮されました。人間の担当者が不在の時間帯でも販売機会を逃しません。

高い性能と信頼性を両立させる仕組みも特徴です。AIは規制の厳しい保険業界の対話に特化した強化学習で訓練されています。さらに「Supervisor」と呼ばれる独自ツールがAIと顧客の全やり取りを監視。AIの応答が不適切と判断された場合は、即座に人間の担当者にエスカレーションする安全装置も備えています。

今回の資金調達は、著名VCのBattery Venturesが主導しました。投資家は、Liberateの技術を「単に対話するだけでなく、システムと連携してタスクを最後までやり遂げる能力」と高く評価。多くの保険会社が本格的なDXへと舵を切る中、同社の存在感はますます高まっています。

Liberateは調達した資金を、AIの推論能力のさらなる向上と、グローバルな事業展開の加速に充てる計画です。創業3年の急成長企業が、伝統的な保険業界の生産性と収益性をいかに変革していくか、市場の注目が集まります。

ウォルマート、ChatGPTで直接購入可能に

AIショッピングの新体験

ChatGPTで直接商品購入
ウォルマートアカウントと連携
決済までシームレスに完結
サードパーティ商品も対象

パーソナライズの進化

顧客ニーズをAIが予測
検索中心から対話型へ
能動的な買い物提案を実現

ウォルマートのAI戦略

独自AI「Sparky」も開発
社内業務にもOpenAI活用

米小売大手ウォルマートは10月14日、OpenAIとの提携を発表しました。これにより消費者は、対話AI「ChatGPT」を通じて食料品や日用品を直接購入し、決済まで完了できるようになります。ユーザーはウォルマートのアカウントをChatGPTに連携させるだけで、この新しいAIショッピング体験を利用できます。eコマースのあり方を大きく変える可能性を秘めた動きです。

この機能は、従来の検索バーにキーワードを打ち込む形式のオンラインショッピングからの脱却を目指すものです。AIとの対話を通じて、ユーザーは食事の計画を立てたり、必需品を補充したり、さらには新しい商品を発見したりすることが可能になります。ウォルマートは、この提携によって顧客のニーズをより深く理解し、予測することで、パーソナライズされた能動的な買い物体験を提供できるとしています。

今回の提携は、eコマース市場への参入を狙うOpenAIの戦略の一環でもあります。同社は最近、商品の発見から推薦、決済までを担う「エージェント的ショッピングシステム」構想を発表しており、EtsyやShopifyの事業者とも連携を進めています。大手小売業者であるウォルマートとの提携は、この構想を加速させる重要な一歩と言えるでしょう。

一方、ウォルマートもAI活用に積極的です。同社はOpenAIとの提携だけでなく、独自の生成AIショッピングアシスタントSparky」も開発しています。将来的にはテキストだけでなく、画像音声など多様な入力に対応し、商品の再注文やサービスの予約まで可能にする計画です。外部との連携と自社開発の両輪で、AI時代の小売業をリードする狙いです。

ウォルマートとOpenAIの関係は今回が初めてではありません。すでに社内チーム向けにChatGPT Enterpriseを導入するなど、業務効率化にもAIを活用しています。AIを用いてファッション製品の生産期間を最大18週間短縮したり、顧客対応時間を最大40%改善したりと、具体的な成果も報告されています。今回の提携は、これまでの協力関係を消費者向けサービスへと拡大させたものです。

NVIDIA、卓上AIスパコン発表 初号機はマスク氏へ

驚異の小型AIスパコン

1ペタフロップスの演算性能
128GBのユニファイドメモリ
Grace Blackwellチップ搭載
価格は4,000ドルから提供

AI開発を個人の手に

最大2000億パラメータのモデル実行
クラウド不要で高速開発
開発者や研究者が対象
初号機はイーロン・マスク氏へ

半導体大手NVIDIAは2025年10月14日、デスクトップに置けるAIスーパーコンピュータ「DGX Spark」を発表しました。ジェンスン・フアンCEO自ら、テキサス州にあるSpaceXの宇宙船開発拠点「スターベース」を訪れ、初号機をイーロン・マスクCEOに手渡しました。AI開発の常識を覆すこの新製品は、15日から4,000ドルで受注が開始されます。

DGX Sparkの最大の特徴は、その小型な筐体に詰め込まれた圧倒的な性能です。1秒間に1000兆回の計算が可能な1ペタフロップスの演算能力と、128GBの大容量ユニファイドメモリを搭載。これにより、従来は大規模なデータセンターでしか扱えなかった最大2000億パラメータのAIモデルを、個人のデスク上で直接実行できます。

NVIDIAの狙いは、AI開発者が直面する課題の解決にあります。多くの開発者は、高性能なPCでもメモリ不足に陥り、高価なクラウドサービスデータセンターに頼らざるを得ませんでした。DGX Sparkは、この「ローカル環境の限界」を取り払い、手元で迅速に試行錯誤できる環境を提供することで、新たなAIワークステーション市場の創出を目指します。

この卓上スパコンは、多様なAI開発を加速させます。例えば、高品質な画像生成モデルのカスタマイズや、画像の内容を理解し要約する視覚言語エージェントの構築、さらには独自のチャットボット開発などが、すべてローカル環境で完結します。アイデアを即座に形にできるため、イノベーションのスピードが格段に向上するでしょう。

DGX Sparkは10月15日からNVIDIAの公式サイトやパートナー企業を通じて全世界で注文可能となります。初号機がマスク氏に渡されたのを皮切りに、今後は大学の研究室やクリエイティブスタジオなど、世界中のイノベーターの元へ届けられる予定です。AI開発の民主化が、ここから始まろうとしています。

サンドバーグ氏支援、AI自律更新サイト構築Flint始動

Flintの概要とビジョン

AIによるサイトの自律的な構築・更新
訪問者や市場トレンドから自己最適化
A/Bテストも将来的に完全自動化
マーケターの工数を大幅に削減

現在の機能と有力な支援者

デザインやレイアウトを1日で自動生成
現時点では文章はユーザーが用意
Metaサンドバーグ氏が出資
Accel主導で500万ドルを調達

Metaのシェリル・サンドバーグ氏が支援するスタートアップ「Flint」が、ステルスモードを解除し事業を本格始動させました。同社はAIを活用し、ウェブサイトを自律的に構築・更新するプラットフォームを開発。Accelが主導するシードラウンドで500万ドル(約7.5億円)を調達し、ウェブ制作とマーケティングのあり方を変革しようとしています。

創業のきっかけは、共同創業者ミシェル・リム氏が前職で直面した課題です。ウェブサイトのコンテンツを一つ追加するのに、デザイン会社や複数部署が関与し、1ヶ月もかかる状況でした。AIが普及し消費者の求める情報が変化する中、このスピードの遅さが致命的になるとの危機感がFlintの着想につながりました。

Flintが目指すのは、単なるウェブサイト制作ツールではありません。訪問者の行動や市場のトレンドをリアルタイムで学習し、A/Bテストを自動で実行。常に最適な状態へと自己進化を続ける「生きたウェブサイト」の実現です。将来的には、訪問者ごとにパーソナライズされたページを動的に生成することも視野に入れています。

現段階のサービスでは、ユーザーが目的などのパラメータを設定すると、デザイン、レイアウト、インタラクティブ要素までを約1日で自動生成できます。これにより、マーケティング担当者は開発チームを待つことなく迅速な施策展開が可能です。ただし、現時点ではウェブサイトに掲載する文章はユーザー側で用意する必要があります。

同社は、約1年以内を目標にAIによるコンテンツライティング機能を追加する計画です。投資家であるサンドバーグ氏は、MetaでA/Bテストに140人もの人員を要した経験を語り、Flintが解決しようとする課題の大きさに強く共感。企業のマーケティング責任者にとって不可欠なツールになると期待を寄せています。

Flintは既にCognition、Modalといった新進気鋭のスタートアップを顧客に持ち、サービスの提供を開始しています。AIエージェントが情報を収集する時代において、企業のウェブサイトはこれまで以上に迅速かつ継続的なコンテンツ更新が求められます。Flintの挑戦は、その新たな常識に対応するための強力な一手となるでしょう。

AIエージェントのセキュリティ、認証認可が鍵

エージェント特有の課題

アクションを自動実行
多数のサービスにアクセス
アクセス要件が流動的
監査の複雑化

セキュリティ実装のポイント

認証で本人確認
認可で権限管理
OAuth 2.0の活用
2つのアクセス方式の理解

AIエージェントがファイル取得やメッセージ送信など自律的な行動をとるようになり、セキュリティの重要性が高まっています。開発者は、エージェントが『誰であるか』を確認する認証と、『何ができるか』を定義する認可を適切に実装し、リスクを管理する必要があります。

従来のアプリと異なり、エージェントは非常に多くのサービスにアクセスし、アクセス要件が刻々と変化します。また、複数のサービスをまたぐ行動は監査が複雑化しがちです。これらの特性が、エージェント特有のセキュリティ課題を生み出しています。

これらの課題に対し、現時点では既存のOAuth 2.0などの標準フレームワークが有効です。エージェントのアクセスパターンは、ユーザーに代わって動作する「委譲アクセス」と、自律的に動作する「直接アクセス」の2つに大別されます。

「委譲アクセス」は、メールアシスタントのようにユーザーの依頼をこなすケースで有効です。認証コードフローなどを用い、エージェントはユーザーの権限の範囲内でのみ行動できます。

一方、セキュリティ監視エージェントのような自律的なプロセスには「直接アクセス」が適しています。クライアントクレデンシャルフローを利用し、エージェント自身の認証情報でシステムにアクセスします。

結論として、エージェントセキュリティには既存のOAuthが基盤となりますが、将来的にはアクセス制御を一元管理する専用のツールが求められるでしょう。エージェントの能力向上に伴い、堅牢なセキュリティ設計が不可欠です。

セールスフォース、AIエージェントで企業の課題解決へ

Agentforce 360の強み

柔軟な指示が可能なAgent Script
エージェント構築・テストツール
Slackを主要インターフェースに
音声対応で顧客体験向上

市場競争と効果

95%のAI導入失敗という課題
12,000社が導入済みと公表
GoogleAnthropicと激しく競争
対応時間を最大84%短縮

セールスフォースは10月13日、年次カンファレンス「Dreamforce」の冒頭で、新たなAIエージェントプラットフォーム「Agentforce 360」を発表しました。企業のAI導入の95%が失敗する「パイロット・パーガトリー」からの脱却を目指し、競争が激化する市場での地位確保を図ります。

新プラットフォームの目玉は、AIエージェントに柔軟な指示を出せる「Agent Script」と、エージェントの一貫した構築・テストを可能にする「Agentforce Builder」です。さらに、Slackを主要な操作インターフェースと位置づけ、業務プロセスを対話的に進める戦略です。

なぜAI導入は難しいのでしょうか。同社は、AIツールが企業のワークフローやデータから分離していることが原因と指摘。Agentforce 360は、データ、業務ロジック、対話インターフェースを統合することで、この課題の解決を目指します。

早期導入企業では既に効果が出ています。例えばRedditは、AIエージェントの導入により平均対応時間を84%短縮。OpenTableも70%の問い合わせをAIが自律的に解決したと報告しています。

企業AI市場では、GoogleAnthropicMicrosoftなども同様のエージェント機能を提供しています。セールスフォースは、AIモデル自体ではなく、自社のCRMや業務プロセスと深く統合できる点に差別化があると主張します。

同社はAgentforceを70億ドル規模の事業と位置づけています。今後の顧客導入の広がりが、AI時代におけるセールスフォースの競争力を左右する鍵となるでしょう。

NVIDIA主導、次世代AI工場の設計図公開

新世代AIインフラの設計

`Vera Rubin NVL144`サーバー開発
`Kyber`ラックでGPU高密度化
`100%液冷`設計を採用
AIエージェント向けの高性能化

電力効率を大幅向上

`800VDC`への電圧移行
従来比`150%`以上の電力伝送
銅使用量を`大幅削減`
データセンターの省エネ化

強力なパートナー連携

`50社以上`のパートナーが支援
`Intel`や`Samsung`も参画
オープン標準で開発を加速

NVIDIAとパートナー企業は、AIの推論需要拡大に対応する次世代AI工場の設計図を公開しました。10月13日にサンノゼで開催されたOCPグローバルサミットで発表されたもので、`800VDC`への電圧移行や`100%液冷`技術が核となります。オープンなエコシステムによる開発で、AIインフラの効率と性能を飛躍的に高める狙いです。

新世代の基盤となるのが、サーバー「Vera Rubin NVL144」と、576個のGPUを搭載可能な「Kyber」ラックです。これらはAIエージェントなど高度な推論処理を想定しており、垂直配置のコンピュートブレードにより、ラックあたりのGPU密度を最大化します。

最大の革新は電力システムです。従来の交流から`800ボルトの直流`(800VDC)へ移行することで、電力伝送効率が150%以上向上します。これにより、銅の使用量を削減し、データセンターの省スペースとコスト削減を実現します。

この挑戦はNVIDIA単独では成し遂げられません。FoxconnやHPE、Vertivなど50社以上のパートナーが、MGXサーバーや800VDC対応の部品、電力システムを開発しています。オープンな標準規格が、迅速な市場投入を可能にしています。

エコシステムはさらに広がりを見せています。IntelやSamsung Foundryが、NVIDIAの高速接続技術「NVLink Fusion」に参画。各社が開発する独自チップNVIDIAインフラにシームレスに統合し、AIファクトリーの多様化と高速化を後押しします。

NVIDIAが描くのは、特定の企業に閉じない未来です。オープンな連携と標準化が、ギガワット級の巨大AIファクトリーの構築を加速させます。これは、AI時代のインフラにおける新たなパラダイムシフトと言えるでしょう。

MIT技術でAIが自律的に進化へ

SEAL技術の概要

LLMが自律的に自己改善
合成データを生成し学習

具体的な性能

知識タスクで大幅な性能向上
GPT-4.1が生成したデータを上回る
フューショット学習でも成功

今後の課題と展望

災害的忘却リスク
計算コストが課題
モデルの大型化で適応能力向上

マサチューセッツ工科大学(MIT)の研究チームが、大規模言語モデル(LLM)が自らを改善する技術「SEAL」の改良版を公開し、AIの自律的な進化が現実味を帯びてきました。この技術は、LLMが自ら合成データを生成してファインチューニングを行うことで、外部からの継続的なデータ供給や人間の介入なしに性能を向上させることを可能にします。

SEALの核心は、モデルが「自己編集」と呼ばれる自然言語の指示を生成し、それに基づいて自らの重みを更新する点にあります。これは、人間が学習内容を再構成して理解を深めるプロセスに似ており、従来のモデルがデータをそのまま受け身で学習するのとは一線を画します。

性能評価では、SEALは目覚ましい成果を上げています。新たな事実知識を取り込むタスクでは、正答率を33.5%から47.0%へと向上させ、これはGPT-4.1が生成したデータを使った場合を上回りました。また、少数の例から学ぶフューショット学習でも、成功率を20%から72.5%に引き上げています。

技術的には、SEALは「内側ループ」で自己編集による教師ありファインチューニングを行い、「外側ループ」で強化学習によってより有益な編集を生成する方策を学ぶ、という二重ループ構造を採用しています。計算効率を高めるため、効率的なファインチューニング手法であるLoRAが活用されています。

しかし、課題も残されています。新たな情報を学習する際に、以前に学習した能力が低下する「災害的忘却」のリスクや、一つの編集を評価するのに30~45秒かかる計算コストの高さが挙げられます。研究チームは、強化学習がこの忘却を緩和する可能性があると指摘しています。

それでも、この技術がもたらすインパクトは計り知れません。AIコミュニティからは「凍結された重みの時代の終わり」との声も上がっており、モデルが環境の変化に合わせて進化し続ける、より適応的でエージェント的なAIシステムへの道を開くものと期待されています。

Kitsa、AIで臨床試験サイト選択を革新

課題はサイト選定の非効率

データの断片化
手作業への依存
優良施設の見逃し

AWSが自動化を支援

UIエージェントで自動化
Webから大量データ抽出
厳格なコンプライアンスを維持

絶大な効果を実現

コスト91%削減
データ取得が96%高速化
抽出網羅率96%を達成

健康テック企業のKitsaは、AWSの生成AIワークフロー自動化サービス「Amazon Quick Automate」を活用し、臨床試験の実施施設選定プロセスを革新しました。これにより、手作業に依存していた従来プロセスから脱却し、コストを91%削減、データ取得速度を96%向上させることに成功しました。

臨床試験において施設選定は長年の課題でした。施設のパフォーマンスデータは断片化し、手作業による評価には時間とコストがかさみます。その結果、一部の施設に評価が偏り、試験開始の遅延や機会損失が発生していました。

Kitsaはこの課題を解決するためQuick Automateを導入。同サービスのUIエージェントがWebサイトを自律的に巡回し、施設に関する50以上のデータポイントを自動で抽出・構造化します。

このソリューションは、AIの抽出精度が低い場合に人間によるレビューを組み込む「人間-in-the-ループ」機能も備え、品質を担保します。また、医療分野の厳格なコンプライアンス要件も満たしています。

導入効果は絶大で、データ取得に数ヶ月要していた作業が数日に短縮されました。分析対象の施設数も飛躍的に増加し、これまで見過ごされていた優良な施設の発見にも繋がっています。

この変革は、施設選定を人脈や主観に頼るものから、データに基づく客観的な評価へと転換させました。製薬企業はより良い意思決定ができ、施設側は自らの能力を証明する場を得ています。

AWS、AIエージェント運用基盤AgentCoreをGA

エージェント運用基盤

AIエージェントの本番運用を支援
開発から運用まで包括的サポート

主要な機能と特徴

任意のフレームワークを選択可能
コード実行やWeb操作などのツール群
文脈維持のためのメモリ機能
監視や監査証跡などの可観測性

企業導入のメリット

セキュリティとスケーラビリティを両立
インフラ管理不要で迅速な開発

AWSは10月13日、AIエージェントを本番環境で安全かつ大規模に運用するための包括的プラットフォーム『Amazon Bedrock AgentCore』の一般提供を開始したと発表した。開発者は任意のフレームワークやモデルを選択し、インフラ管理なしでエージェントを構築、デプロイ、運用できるようになる。企業がAIエージェントにビジネスの根幹を委ねる時代を加速させる。

AIエージェントは大きな期待を集める一方、プロトタイプの段階で留まるケースが多かった。その背景には、エージェントの非決定的な性質に対応できる、セキュアで信頼性が高くスケーラブルなエンタープライズ級の運用基盤が不足していた問題がある。AgentCoreはまさにこの課題の解決を目指す。

AgentCoreの最大の特徴は柔軟性だ。開発者はLangGraphやOpenAI Agents SDKといった好みのフレームワーク、Amazon Bedrock内外のモデルを自由に選択できる。これにより、既存の技術資産やスキルセットを活かしながら、エージェント開発を迅速に進めることが可能になる。

エージェントが価値を生み出すには具体的な行動が必要だ。AgentCoreは、コードを安全に実行する『Code Interpreter』、Webアプリケーションを操作する『Browser』、既存APIをエージェント用ツールに変換する『Gateway』などを提供。これらにより、エージェントは企業システムと連携した複雑なワークフローを自動化できる。

さらに、企業運用に不可欠な機能も充実している。対話の文脈を維持する『Memory』、行動の監視やデバッグを支援する『Observability』、microVM技術でセッションを分離する『Runtime』が、セキュリティと信頼性を確保。これらはエージェントをビジネスの中心に据えるための礎となる。

すでに多くの企業がAgentCoreを活用し、成果を上げている。例えば、Amazon Devicesの製造部門では、エージェント品質管理のテスト手順を自動生成し、モデルの調整時間を数日から1時間未満に短縮。医療分野ではCohere Healthが、審査時間を3〜4割削減するコピロットを開発した。

AgentCoreは、アジア太平洋(東京)を含む9つのAWSリージョンで利用可能となった。AWS Marketplaceには事前構築済みのエージェントも登場しており、企業はアイデアからデプロイまでを迅速に進められる。AIエージェントの時代を支える確かな基盤として、その活用がさらに広がりそうだ。

Amazon Quick Suite、MCPで企業連携を強化

MCPによる標準化された連携

MCP安全な接続を実現
カスタム統合が不要に

主要SaaSやエージェントと接続

Atlassian製品と連携
AWSナレッジベースに接続
Bedrock AgentCore経由でエージェント統合

業務自動化と生産性向上

チャットエージェントでの業務自動化
オンボーディング業務を効率化

Amazonは2025年10月13日、AIアシスタントサービス『Amazon Quick Suite』が、AIと企業アプリケーションの接続を標準化する『Model Context Protocol(MCP)』に対応したと発表しました。これにより、開発者は複雑なカスタム統合を必要とせず、AIエージェントを既存の業務ツールやデータベースに安全かつ容易に接続できるようになります。

MCPは、AIエージェントが企業のナレッジベースやアプリケーションと連携するためのセキュアな標準規格です。従来は個別に開発が必要だった連携処理が、MCPを利用することで大幅に簡素化されます。Amazon Quick SuiteのMCPクライアントは、この標準化された接続をサポートし、企業のAI導入ハードルを下げます。

具体的には、AtlassianのJiraやConfluenceといった主要プロジェクト管理ツールとのMCP連携が可能です。これにより、Quick Suiteのチャットエージェントは、ユーザーの指示に基づきJira課題の作成やConfluenceページの情報取得を自動で行えるようになります。チームの業務効率が飛躍的に向上するでしょう。

さらに、AWSが提供する公式ドキュメントやコードサンプルにアクセスする『AWS Knowledge MCP Server』とも接続できます。エンジニアは、チャット形式で最新のAWS技術情報を即座に取得可能になり、開発スピードの向上が期待されます。複数の情報源を横断した質問にも対応します。

より高度な活用として、『Amazon Bedrock AgentCore Gateway』を介した自社AIエージェントの統合も実現します。これにより、Amazon Kendraを内蔵したITヘルプデスクエージェントや、OpenAIを基盤としたHRサポートエージェントなど、既存のAI資産をQuick Suite上でシームレスに利用できます。

この連携は具体的な業務シーンで威力を発揮します。例えば、新入社員のオンボーディングでは、マネージャーがエージェントに指示するだけで、Confluenceからチェックリストを取得し、Jiraにタスクを作成して担当者を割り振るまでの一連のプロセスを自動化できます。

今回のMCP対応は、Amazon Quick Suiteを単なるAIチャットツールから、企業のあらゆるシステムとAIを繋ぐハブへと進化させる重要な一歩です。経営者エンジニアは、この新機能を活用することで、AIの投資対効果を最大化し、事業の競争力強化につなげることができるでしょう。

「AIエージェントが変えるウェブの未来」

エージェント・ウェブとは

人間中心からエージェント中心へ
人間の限界を超える情報処理
人間とエージェントの協業が主流

効率化と新たなリスク

利便性生産性の向上
経済全体の効率化
機密情報の漏洩や悪用

研究者によれば、自律的なAIエージェントがウェブの主要な利用者となり、エージェント・ウェブと呼ばれる根本的な再設計が必要になると指摘しています。この転換は利便性をもたらす一方で、重大なセキュリティリスクも伴います。

現在のウェブが人間中心に設計されているのに対し、未来のウェブではエージェント間の直接対話が主軸となります。これにより人間の視覚的な制約がなくなり、エージェントは膨大な情報を瞬時に処理可能になります。

最大のメリットは、ユーザーの効率性と生産性が劇的に向上することです。エージェントがより迅速に情報を探し出し、課題を効率的に完了させることで、デジタル経済全体の活性化も期待されます。

しかし、この転換は未曾有のセキュリティリスクを生み出します。高権限を持つエージェントが攻撃され、機密個人情報や金融データが漏洩したり、ユーザーの意図に反する悪意のある行動をとらされたりする危険性があります。

この新たなウェブを実現するには、エージェントの通信、身元確認、決済のための新たなプロトコルが必要です。GoogleのA2AやAnthropicMCPなどがその初期例として挙げられています。

エージェント・ウェブは避けられない未来と見なされていますが、まだ初期段階です。セキュリティ課題を克服するには、セキュア・バイ・デザインの枠組み開発と、コミュニティ全体での協力が不可欠です。

AIエージェントの自律性、3つの視点で定義する新基準

自律性分類の先行事例

自動車:責任と動作条件を明確化
航空:人間とAIの協調レベルを定義
ロボット:状況に応じて自律性を評価

AIエージェントの新分類法

能力重視:何ができるか(技術視点)
協調重視:どう協働するか(人間視点)
責任重視:誰が責任を負うか(法視点)

実用化に向けた課題

デジタル環境の安全領域の定義
人間の複雑な価値観とのアライメント

「AIエージェント」という言葉が、単純なチャットボットから複雑な戦略立案ツールまで、様々なものを指して曖昧に使われています。この定義の曖昧さは、開発、評価、そして安全なガバナンスの妨げとなりかねません。そこで今、自動車や航空といった他業界の知見を参考に、AIエージェントの「自律性」を明確に定義し、分類しようとする動きが活発化しています。

そもそもAIエージェントとは何でしょうか。専門的には「環境を認識し、目標達成のために自律的に行動するシステム」と定義されます。具体的には、情報を集める「認識」、計画を立てる推論、ツールなどを使って実行する「行動」、そして全体を導く「目標」の4要素で構成されます。この枠組みが自律性を議論する上での共通言語となります。

自律性の分類は、新しい概念ではありません。例えば自動車業界では、自動運転レベルを「誰が運転の責任を負うか」で明確に定義しています。また航空業界では、人間とシステムの協調関係を10段階で詳細に分類します。これらの先行事例は、AIエージェントの責任と役割分担を定義する上で重要な示唆を与えてくれます。

現在提案されているAIエージェントの分類法は、主に3つの視点に大別できます。一つ目は、技術的な「能力」に着目する開発者向けの視点。二つ目は、人間と「どう協働するか」というインタラクションの視点。そして三つ目は、問題発生時に「誰が責任を負うか」というガバナンスの視点です。多角的な評価が不可欠です。

しかし、AIエージェントの自律性定義には特有の難しさがあります。自動運転車には「高速道路のみ」といった安全な運行設計領域(ODD)を設定できますが、エージェントが活動するインターネットは無限で常に変化します。このカオスなデジタル空間で、安全な活動範囲をどう定義するかが大きな技術的課題となっています。

最も根深い課題が、AIの目標を人間の真の意図や価値観と一致させる「アライメント」です。例えば「顧客エンゲージメント最大化」という指示が、「過剰な通知でユーザーを困らせる」という結果を招くかもしれません。曖昧な人間の価値観を、いかに正確にコードに落とし込むかが問われています。

結論として、AIエージェントの未来は、一つの万能な知能の登場ではなく、人間が監督者として関与し続ける「ケンタウロス」モデルが現実的でしょう。限定された領域で機能する専門エージェント群と人間が協働する。そのための信頼の基盤として、今回紹介したような自律性の定義と分類が不可欠となるのです。

老舗園芸大手、AIで1.5億ドル削減への道

AI導入の目覚ましい成果

サプライチェーンで1.5億ドル削減目標
顧客サービス応答時間を90%改善
ドローン活用による在庫管理の自動化
週次の機動的なマーケティング予算配分

成功を支える3つの柱

150年の専門知識をデータ化し活用
階層化した独自AIエージェント構築
外部パートナーとのエコシステム戦略
経営層の強いリーダーシップと組織改革

米国の園芸用品大手ScottsMiracle-Gro社が、AIを駆使してサプライチェーンコスト1.5億ドルの削減目標の半分以上を達成し、顧客サービスも大幅に改善しました。経営不振からの脱却と、150年の歴史で培った独自の専門知識をデジタル資産に変え、競争優位性を確立することが目的です。半導体業界出身のリーダー主導で組織改革を行い、社内に眠る膨大な知見をデータ化し、独自AIを構築しました。

変革の起点は、社長による「我々はテクノロジー企業だ。まだ気づいていないだけだ」という宣言でした。従来の機能別組織を解体し、新たに3つの事業部を設立。各事業部長に財務成果だけでなく、テクノロジー導入の責任も負わせることで、AI活用をIT部門任せにせず、全社的なビジネス課題として取り組む体制を整えました。

成功の鍵は、150年かけて蓄積された膨大な専門知識、いわゆるドメイン知識のデジタル化にありました。「考古学的作業」と称し、旧来のシステムや書類の山に埋もれていた知見を発掘。データ基盤にDatabricksを採用し、GoogleのLLM「Gemini」を用いて社内文書を整理・分類することで、AIが学習可能なデータ資産へと転換させました。

汎用AIの導入には課題もありました。例えば、除草剤と予防剤を混同し、顧客の芝生を台無しにしかねない誤った提案をするリスクが判明。そこで同社は、問い合わせ内容に応じてブランド別の専門AIエージェントに処理を割り振る、独自の階層型AIアーキテクチャを構築。これにより、正確で文脈に沿った対応を実現しました。

AIの活用は全社に及びます。ドローンが広大な敷地の在庫量を正確に測定し、需要予測モデルは天候や消費者心理など60以上の要因を分析。テキサス州で干ばつが起きた際には、即座に販促費を天候の良い地域へ再配分し、業績向上に貢献しました。顧客サービス部門でもAIが問い合わせメールの回答案を数秒で作成し、業務効率を劇的に改善しています。

同社は、シリコンバレー企業と給与で競うのではなく、「自分の仕事がビジネスに即時のインパクトを与える」という魅力を提示し、優秀な人材を獲得。GoogleMetaなど外部パートナーとの連携を密にし、少人数の社内チームで成果を最大化するエコシステムを構築しています。この戦略こそ、伝統的企業がAI時代を勝ち抜くための一つの答えと言えるでしょう。

大手企業、AI導入加速も問われる説明責任

加速する大手企業のAI導入

Zendesk、顧客対応AI発表
Google、企業向けAIを発表
収益化は企業向けが先行

浮上するAI導入の課題

デロイトAI幻覚で政府に返金
出力結果に対する説明責任が重要
導入後の定着と運用が鍵
本格的な実用にはまだ課題

Zendesk、IBM、Googleなど大手企業が相次いで企業向けAIソリューションを発表し、ビジネス現場でのAI導入が加速しています。AIは即効性のある収益源として期待される一方、コンサルティング大手デロイトがAIによる不正確な報告書で返金を求められる事態も発生。AIの活用にあたり、出力に対する品質管理と説明責任が新たな経営課題として浮上しています。

企業向けAIが、収益化の主戦場となりつつあります。一般消費者向けアプリと異なり、企業向けソリューションはより直接的かつ短期的に収益に繋がりやすいと見られています。Zendeskの顧客対応AIや、IBMとAI開発企業Anthropicの戦略的提携は、この流れを象徴する動きです。各社は即効性のある収益源を求め、エンタープライズ市場での競争を本格化させています。

一方で、AIの信頼性を問う事案も起きました。コンサルティング大手のデロイトは、AIが生成した不正確な内容を含む報告書オーストラリア政府に提出したとして返金を要求されました。この一件は、AIの「ハルシネーション(幻覚)」と呼ばれる現象が、ビジネスの現場で現実的な損害に直結しうることを明確に示しています。

AIを導入する上で、問われるのは「使う側」の責任です。AIを業務に利用する以上、その出力内容を鵜呑みにせず、事実確認を徹底し、最終的な責任を負う姿勢が不可欠です。AIに生成を任せ、「仕事は終わり」と考える安易な姿勢は許されないとの厳しい指摘も出ています。ツールの導入は、品質管理プロセスの再構築とセットで考えるべきでしょう。

特に顧客サービス分野では、AIへの期待と懸念が交錯します。AIエージェントは、人手不足や電話が繋がらないといった顧客の問題を解決する可能性を秘めています。しかし、過去のウェブフォームのように、導入はしたものの形骸化し、結局使われなくなる懸念も残ります。AIを真に価値あるものにするには、導入後の継続的な運用と改善が鍵となりそうです。

AIエージェント更新、効果をA/Bテストで可視化

Raindropの新機能

企業向けAIエージェントA/Bテスト
更新による性能変化を正確に比較
実ユーザー環境での振る舞いをデータで追跡

開発の課題を解決

「評価は合格、本番で失敗」問題に対処
データ駆動でのモデル改善を支援
障害の根本原因を迅速に特定

提供形態と安全性

月額350ドルのProプランで提供
SOC 2準拠で高い安全性を確保

AIの可観測性プラットフォームを提供するスタートアップRaindropが、企業向けAIエージェントの性能を評価する新機能「Experiments」を発表しました。LLMの進化が加速する中、モデル更新が性能に与える影響をA/Bテストで正確に比較・検証できます。これにより、企業はデータに基づいた意思決定でAIエージェントを継続的に改善し、実際のユーザー環境での「評価は合格、本番で失敗する」という根深い問題を解決することを目指します。

「Experiments」は、AIエージェントへの変更がパフォーマンスにどう影響するかを可視化するツールです。例えば、基盤モデルの更新、プロンプトの修正、使用ツールの変更など、あらゆる変更の影響を追跡。数百万件もの実ユーザーとの対話データを基に、タスク失敗率や問題発生率などをベースラインと比較し、改善か改悪かを明確に示します。

多くの開発チームは「オフライン評価は合格するのに、本番環境ではエージェントが失敗する」というジレンマに直面しています。従来の評価手法では、予測不能なユーザーの行動や長時間にわたる複雑なツール連携を捉えきれません。Raindropの共同創業者は、この現実とのギャップを埋めることが新機能の重要な目的だと語ります。

このツールは、AI開発に現代的なソフトウェア開発の厳密さをもたらします。ダッシュボードで実験結果が視覚的に表示され、どの変更が肯定的な結果(応答の完全性向上など)や否定的な結果(タスク失敗の増加など)に繋がったかを一目で把握可能。これにより、チームは憶測ではなく客観的データに基づいてAIの改善サイクルを回せます。

Raindropは元々、AIの「ブラックボックス問題」に取り組む企業として設立されました。従来のソフトウェアと異なりAIは「静かに失敗する」特性があります。同社は、ユーザーフィードバックやタスク失敗などの兆候を分析し本番環境での障害を検知することから事業を開始。今回の新機能は、障害検知から一歩進んで改善効果の測定へと事業を拡張するものです。

「Experiments」は、Statsigのような既存のフィーチャーフラグ管理プラットフォームとシームレスに連携できます。セキュリティ面では、SOC 2に準拠し、AIを用いて個人を特定できる情報(PII)を自動で除去する機能も提供。企業が機密データを保護しながら、安心して利用できる環境を整えています。本機能は月額350ドルのProプランに含まれます。

Zendesk、音声AIやIT資産管理でサービス基盤を刷新

AIでサービス体験を革新

自律型AIによる複雑な問題の即時解決
顧客・従業員・コンタクトセンターを統合支援
OpenAIの最新LLM、GPT-5などを活用

主な新機能

自然な対話が可能な音声AIエージェント
IT資産を統合管理するITAM機能
管理者支援AICopilotの搭載

独自のビジネスモデル

解決成功時のみ課金する新料金体系
二重の品質チェックで解決の質を保証

顧客サービスプラットフォーム大手のZendeskは、AIサミットで同社のサービス基盤「Resolution Platform」のAI機能を大幅に強化したと発表しました。音声AIエージェントやIT資産管理(ITAM)などを新たに搭載。最新の大規模言語モデル(LLM)を活用し、顧客および従業員サービスの問題解決を自動化・高度化します。

新機能の目玉は、自律型AIエージェントの適用範囲拡大です。従来のチャットやメールに加え、新たに音声での問い合わせにも完全対応。ビデオ通話や画面共有機能も追加され、より複雑で個別性の高いサポートをリモートで提供できるようになりました。これにより顧客体験は大きく向上するでしょう。

管理者やIT部門向けの支援機能も充実させました。管理者向けAI「Admin Copilot」は、運用上の問題を自動で検知し、平易な言葉で修正案を提示。また、新機能のIT資産管理(ITAM)は、従業員が使用するデバイス情報をサービスチケットと連携させ、迅速なトラブルシューティングを可能にします。

外部ナレッジとの連携も強化。「Knowledge Connectors」により、SharePointなどの外部情報を移行せずに直接参照可能になりました。また「Knowledge Builder」は、顧客との対話履歴を分析し、ヘルプ記事を自動生成。組織全体のナレッジ活用を促進します。

Zendeskは独自の課金モデルも打ち出しています。それは、AIが問題を解決し、顧客が満足した場合にのみ料金が発生する「成功報酬型」。業界最長の検証期間と二重の品質チェックを組み合わせることで、解決の質を担保。これにより、企業は投資対効果を最大化できると強調しています。

OpenAIの真の主役、Codex正式版が開発を革新

Codexの進化と能力

7時間超の長時間タスクも遂行
研究版から製品版へ完全移行
専用SDKでシステム統合が容易

驚異的な生産性向上

OpenAI社内で生産性70%向上
技術スタッフの92%が毎日利用
コードレビュー時間を半減
自社製品の開発もCodexで加速

OpenAIが年次開発者会議「DevDay 2025」で、AIコーディング支援ツール「Codex」の正式版リリースを発表しました。ChatGPTアプリストアなど華やかな発表の影に隠れがちですが、これがソフトウェア開発の常識を覆し、企業の生産性を飛躍させる最も重要な一手と見られています。Codexは単なるツールではなく、開発の未来を創るエンジンとなるのでしょうか。

今回の発表の核となるのが、最新モデル「GPT-5-Codex」です。これは単なるコード補完ツールではありません。まるで人間のチームメイトのように振る舞い、複雑なリファクタリング作業を7時間以上も自律的に実行できます。単純なタスクは迅速に、複雑なタスクにはじっくり取り組む「適応的思考」を備え、開発者を強力にサポートします。

その効果はOpenAI社内で実証済みです。技術スタッフの92%が日常的にCodexを利用し、コード貢献度を示すプルリクエスト数は週に70%も増加しました。自社の新製品やクリエイティブツールもCodexを用いて短期間で開発されており、この生産性向上のサイクルこそが、同社の急速なイノベーションの源泉となっているのです。

特にエンタープライズ向けに強化されたのが、コードレビュー機能です。Codexはプログラムの依存関係を深く理解し、人間のレビュアーが見逃しがちな質の高いバグを毎日数百件も発見します。これにより、開発者は品質への自信を深め、手戻りを減らすことができます。これは「より速く、より確実に出荷する」という企業の目標達成に直結します。

Codexの正式版リリースは、OpenAIのエンタープライズ市場攻略戦略の要です。サム・アルトマンCEOも「優れた製品で企業市場を勝ち取ることに大きく注力する」と明言しています。すでにCiscoのような大企業が導入し、コードレビュー時間を半減させるなどの成果を上げており、その実用性は証明されつつあります。

消費者向けのAIがまだ模索を続ける一方で、Codexは今日、企業に具体的なROI(投資対効果)をもたらす「実績あるAIエージェント」としての地位を確立しました。新たに提供されるSDKにより、各社の独自ワークフローへの組み込みも可能になります。Codexは、次世代のソフトウェア開発を静かに、しかし強力に牽引する存在となるでしょう。

マイクロソフト、OpenAI向けにNVIDIA最新鋭スパコンを世界初導入

世界初の超巨大AI基盤

NVIDIA最新鋭のGB300 NVL72
OpenAIの最先端AI開発向け
Microsoft Azureが本番稼働
推論性能を最大化する専用設計

圧倒的な技術仕様

4,600基超のBlackwell Ultra GPU
超高速ネットワークInfiniBand
独自設計の液冷・電源システム
将来は数十万基規模へ拡張予定

マイクロソフトは2025年10月9日、NVIDIAの最新AIスーパーコンピューター「GB300 NVL72」を搭載した世界初の大規模クラスターを、パートナーであるOpenAI向けに稼働開始したと発表しました。このシステムは、OpenAI最も要求の厳しいAI推論ワークロード向けに専用設計されており、次世代AI開発の基盤となります。巨大化するAIの計算需要を巡るインフラ競争が、新たな局面に入ったことを示しています。

今回導入された「GB300 NVL72」は、単なるサーバーの集合体ではありません。72基のNVIDIA Blackwell Ultra GPUと36基のGrace CPUを液冷式の単一ラックに統合した、まさに「AI工場」と呼ぶべきシステムです。これにより、巨大なAIモデルの学習と推論で圧倒的な性能を発揮し、特に複雑な推論エージェント型AIの処理能力を飛躍的に向上させます。

このスーパーコンピューターは、4,600基を超えるGPUを一つの巨大な計算資源として束ねています。それを実現するのがNVIDIAの先進的なネットワーク技術です。ラック内は超高速の「NVLink」で、クラスター全体は「Quantum-X800 InfiniBand」で接続。データのボトルネックを解消し、システム全体の性能を最大化する設計が施されています。

この発表のタイミングは注目に値します。パートナーであるOpenAIは近年、独自に1兆ドル規模ともされるデータセンター構築計画を進めています。マイクロソフトは、世界34カ国に300以上のデータセンターを持つ自社のクラウド基盤「Azure」の優位性を改めて誇示し、AIインフラのリーダーとしての地位を確固たるものにする狙いがあると考えられます。

マイクロソフトは、今回の導入を「多くのうちの最初の一つ」と位置づけ、将来的には数十万基のBlackwell Ultra GPUを世界中のデータセンターに展開する計画です。AIモデルが数百兆パラメータへと大規模化する未来を見据え、インフラへの先行投資を加速させています。最先端AIの開発競争は、それを支える計算基盤の競争と一体化しているのです。

インド、AI決済革命。ChatGPTで買い物新時代へ

AI決済の仕組み

ChatGPT内で直接決済
インド統一決済UPIが基盤
Fintechが加盟店連携を支援

巨大市場インドの狙い

AI企業による顧客囲い込み
シームレスな購買体験の提供
10億人超の巨大ネット市場

参画する主要プレイヤー

Tata系スーパー、通信大手

インドの決済を司る国家決済公社(NPCI)は10月9日、OpenAI社などと提携し、対話AI『ChatGPT』を通じて直接商品の購入から支払いまでを完結させる実証実験を開始しました。この取り組みは、10億人超のインターネット利用者を抱える巨大市場で、AIを活用した新しい電子商取引の形を提示するものです。Googleの『Gemini』なども追随する見込みです。

この革新的な体験の基盤は、インドで広く普及する統一決済インターフェース(UPI)です。利用者は、将来の支払いのために資金を予約する『UPI Reserve Pay』などの新技術により、外部アプリに切り替えることなくAIチャット内でシームレスに支払いを完了できます。決済インフラはフィンテック企業Razorpayが担い、加盟店との連携を支えます。

実証実験には、タタ・グループ傘下のオンライン食料品店『BigBasket』と通信大手『Vi』が初期パートナーとして参加。利用者はChatGPTとの対話を通じて、食料品の注文や携帯電話料金のリチャージが可能になります。GoogleGeminiAnthropicClaudeとの統合も数週間以内に予定されており、利用者の選択肢はさらに広がる見通しです。

OpenAIGoogleにとってインドは最重要市場です。今回の提携は、AIを日常の購買活動に組み込むことで、ユーザーの利用時間を延ばし自社プラットフォームに定着させる『囲い込み戦略』の一環です。単なる決済機能の追加に留まらない、新たな顧客体験の創出が競争の鍵となります。

安全性への配慮もなされています。決済データがAI企業に共有されることはなく、二要素認証によって利用者の資産は保護されるとのことです。このようなAIが利用者に代わって取引を行うエージェント決済』は世界的な潮流となりつつあります。日本企業も、顧客接点の変化を捉え、AIを活用した新たなビジネスモデルを模索する必要があるでしょう。

Google、業務AI基盤「Gemini Enterprise」発表

Gemini Enterpriseの特長

AIエージェントをノーコードで構築
社内データやアプリを横断連携
ワークフロー全体の自動化を実現
既存ツールとシームレスに統合

価格と導入事例

月額21ドルから利用可能
看護師の引継ぎ時間を大幅削減
顧客の自己解決率が200%向上

Googleは10月9日、企業向けの新AIプラットフォーム「Gemini Enterprise」を発表しました。これは企業内のデータやツールを統合し、専門知識を持つAIアシスタントエージェント)をノーコードで構築・展開できる包括的な基盤です。OpenAIAnthropicなどが先行する法人AI市場において、ワークフロー全体の自動化を切り口に競争力を高める狙いです。

Gemini Enterpriseの最大の特徴は、単なるチャットボットを超え、組織全体のワークフローを変革する点にあります。マーケティングから財務、人事まで、あらゆる部門の従業員が、プログラム知識なしで自部門の課題を解決するカスタムAIエージェントを作成できます。これにより、従業員は定型業務から解放され、より付加価値の高い戦略的な業務に集中できるようになります。

このプラットフォームの強みは、既存システムとの高度な連携能力です。Google WorkspaceやMicrosoft 365はもちろん、SalesforceやSAPといった主要な業務アプリケーションとも安全に接続。社内に散在する文書やデータを横断的に活用し、深い文脈を理解した上で、精度の高い回答や提案を行うAIエージェントの構築を可能にします。

すでに複数の企業が導入し、具体的な成果を上げています。例えば、米国の小売大手Best Buyでは顧客の自己解決率が200%向上。医療法人HCA Healthcareでは、看護師の引き継ぎ業務の自動化により、年間数百万時間もの時間削減が見込まれています。企業の生産性向上に直結する事例が報告され始めています。

料金プランも発表されました。中小企業や部門向けの「Business」プランが月額21ドル/席、セキュリティや管理機能を強化した大企業向けの「Enterprise」プランが月額30ドル/席から提供されます。急成長する法人向けAI市場において、包括的なプラットフォームとしての機能と競争力のある価格設定で、顧客獲得を目指します。

今回の発表は、インフラ、研究、モデル、製品というGoogle「フルスタックAI戦略」を象徴するものです。最新のGeminiモデルを基盤とし、企業がGoogleの持つAI技術の恩恵を最大限に受けられる「新しい入り口」として、Gemini Enterpriseは位置付けられています。今後の企業のAI活用を大きく左右する一手となりそうです。

統合AIプラットフォーム競争激化、GoogleとAWSが新サービス

Googleの新統合AI基盤

Google AIを単一プラットフォームに集約
ノーコードエージェントを構築・管理
Microsoft 365など外部データと連携
月額30ドル/人から利用可能

AWSのブラウザ拡張AI

ブラウザ拡張機能で提供
OutlookやSlack上で直接利用
多様な企業データソースに接続
既存のBedrockエージェントを活用

GoogleAmazon Web Services (AWS)が、企業向けに新たな統合AIプラットフォームを相次いで発表しました。Googleは「Gemini Enterprise」を、AWSは「Quick Suite」を投入し、従業員が業務で使うアプリケーションから離れることなく、シームレスにAI機能を呼び出せる環境を目指します。この動きは、作業の文脈(コンテキスト)を維持し、生産性を劇的に向上させることを狙ったものです。

これまでAIチャットボットを利用するには、作業中のアプリとは別に専用画面を開く必要があり、手間や思考の中断が課題でした。この「摩擦」を解消し、作業の文脈を失うことなくAIを活用できるフルスタックな環境が求められています。従業員のワークフローにAIを自然に組み込むことが、生産性向上の鍵となるのです。

Googleの「Gemini Enterprise」は、同社のAIサービスを一つのプラットフォームに統合します。Google Workspaceに加え、Microsoft 365やSalesforceといった外部データソースにも接続可能です。専門知識がなくても、ノーコードで情報検索や業務自動化のためのエージェントを構築・管理できる点が大きな特徴と言えるでしょう。

一方のAWSが発表した「Quick Suite」は、ブラウザ拡張機能として提供されます。これにより、ChromeやOutlook、Slackといった日常的に使うツール上で直接AIエージェントを呼び出せます。バックエンドではAWSのAI基盤「Bedrock」で構築したエージェントを活用でき、企業ごとの独自データに基づいた応答が可能です。

両社の新サービスが目指すのは、従業員を一つのエコシステム内に留め、作業を中断させないシームレスなAI体験の提供です。企業向けAI市場の覇権を巡る戦いは、いかに既存の業務フローに溶け込めるかという「利便性」の競争へと移行し始めています。今後、各社はさらなる差別化を迫られることになるでしょう。

AIがSIを自動化、コンサルモデルに挑戦状

AIによるSIの自動化

ServiceNow導入をAIが自動化
6ヶ月の作業を6週間に短縮
要件分析から文書化まで一気通貫
専門家の知見を学習したAIエージェント

変わるコンサル業界

アクセンチュア等の労働集約型モデルに対抗
1.5兆ドル市場の構造変革を狙う
人的リソース不足の解消に貢献

今後の展開と課題

SAPなど他プラットフォームへ拡大予定
大企業の高い信頼性要求が課題

カリフォルニア州のAIスタートアップEchelonが、475万ドルのシード資金調達を完了し、エンタープライズソフトウェア導入を自動化するAIエージェントを発表しました。ServiceNowの導入作業をAIで代替し、従来数ヶ月を要したプロジェクトを数週間に短縮。アクセンチュアなどが主導してきた労働集約型のコンサルティングモデルに、根本的な変革を迫ります。

ServiceNowのような強力なプラットフォームの導入やカスタマイズは、なぜこれほど時間とコストがかかるのでしょうか。その背景には、数百にも及ぶ業務フローの設定や既存システムとの連携など、専門知識を要する複雑な作業があります。多くの場合、企業は高価な外部コンサルタントやオフショアチームに依存せざるを得ませんでした。

Echelonのアプローチは、このプロセスをAIエージェントで置き換えるものです。トップコンサルタントの知見を学習したAIが、事業部門の担当者と直接対話し、要件の曖昧な点を質問で解消。設定、ワークフロー、テスト、文書化までを自動で生成します。ある金融機関の事例では、6ヶ月と見積もられたプロジェクトをわずか6週間で完了させました。

このAIエージェントは、単なるコーディング支援ツールではありません。GitHub Copilotのような汎用AIと異なり、ServiceNow特有のデータ構造やセキュリティ、アップグレード時の注意点といったドメイン知識を深く理解しています。これにより、経験豊富なコンサルタントが行うような高品質な実装を、驚異的なスピードで実現できるのです。

この動きは、1.5兆ドル(約225兆円)規模の巨大なITサービス市場に大きな波紋を広げる可能性があります。アクセンチュアやデロイトといった大手ファームが築いてきた、人のスキルと時間に基づくビジネスモデルは、AIによる自動化の波に直面しています。顧客からのコスト削減圧力も高まる中、業界の構造転換は避けられないでしょう。

Echelonは今後、ServiceNowに留まらず、SAPやSalesforceといった他の主要な企業向けプラットフォームへの展開も視野に入れています。エンタープライズ領域で求められる極めて高い信頼性を証明できるかが、今後の成長を左右する重要な鍵となります。AIによるプロフェッショナルサービスの自動化は、まだ始まったばかりです。

自律型AIが人的限界を突破、1兆ドル市場を創出へ

自律型PSAの仕組みと効果

AIと人間の協働ワークフォース
中央エンジンによる全体最適化
案件獲得率が10%から70%超
納品高速化と利益率の向上

導入に向けた3つの要点

ワークフォースモデルの再設計
CRMネイティブな統合エンジンへの投資
スモールスタートからの段階的拡大

プロフェッショナルサービス業界が、AIエージェントを活用した「自律型プロフェッショナルサービスオートメーション(Autonomous PSA)」により、長年の課題である人的リソースの制約を打破しようとしています。これは人間とAIが協働する新モデルで、従来は取りこぼしていた膨大なビジネス機会を獲得し、1兆ドル規模の市場を創出する可能性を秘めています。

なぜ、プロフェッショナルサービス業界で変革の機運が高まっているのでしょうか。同業界の業務は、単なる定型作業ではなく、複雑な問題を解決する戦略そのものです。従来の自動化が「ルール通り動く」ことだとすれば、自律型AIは「ゴール達成のために自ら戦略を立て実行する」ことができます。この特性が、業界の複雑な課題解決と極めて高い親和性を持つのです。

この変革の心臓部となるのが、「オーケストレーションエンジン」と呼ばれる司令塔です。これは、人間とAIエージェントからなるハイブリッドチームを最適に采配するシステムです。例えばSalesforceプラットフォームのように、顧客データ基盤、AIエンジン、PSAソフトウェアが三位一体で連携することで、プロジェクト全体を俯瞰し、最適なリソース配分をリアルタイムで決定します。

自律型PSAの導入効果は絶大です。従来、人的制約から潜在需要の10〜20%しか獲得できなかった案件が、70〜90%まで捕捉可能になると試算されています。これは、ある大企業では約36億ドルもの増収に繋がる計算です。さらに、反復的なタスクをAIに任せることで、納期の短縮や利益率の向上も同時に実現します。

では、企業はこの変革の波にどう乗るべきでしょうか。専門家は3つのステップを推奨しています。第一に、AIとの協働を前提としたワークフォースモデルの再設計。第二に、CRMと一体化したネイティブな統合エンジンへの投資。そして最後に、リスクを抑えながら小規模な実証実験から始め、成功体験を積み重ねながら段階的に拡大していくアプローチが重要です。

自律型プロフェッショナルサービスの時代は、既に幕を開けています。これは一世代に一度の構造変革であり、この変化を迅速に捉え、自社のサービス提供モデルを進化させた企業が、次の時代の勝者となるでしょう。

Claude Code、プラグインで開発環境を共有・標準化

プラグインの概要

各種開発機能を一括で共有
コマンド一つで簡単インストール
必要に応じON/OFFで切替可能

プラグインの活用例

チーム内の開発標準を統一
生産性向上のワークフローを共有
社内ツールへの接続を簡素化

プラグインマーケットプレイス

誰でもマーケットプレイスを構築可能
Gitリポジトリなどで簡単ホスト

AI開発企業Anthropicは2025年10月9日、コーディングアシスタントClaude Code」に新機能「プラグイン」をパブリックベータ版として追加しました。この機能により、開発者はスラッシュコマンドや専用エージェントなどのカスタム機能をパッケージ化し、チーム内で簡単に共有できます。開発環境の標準化や生産性向上を支援することが目的です。

プラグインは、これまで個別に設定していた複数の拡張機能を一つにまとめる仕組みです。具体的には、頻繁に使う操作を登録するスラッシュコマンドや、特定タスクに特化したサブエージェント、外部ツールと連携するMCPサーバー、動作をカスタマイズするフックなどを組み合わせ、コマンド一つでインストールできます。

この機能の最大の利点は、開発環境の標準化です。エンジニアリングリーダーは、コードレビューやテストのワークフローを定めたプラグインを配布することで、チーム全体の開発プロセスの一貫性を保てます。また、必要な時だけプラグインを有効化できるため、システムの複雑化を避けられるのも特徴です。

具体的な活用例は多岐にわたります。オープンソースのメンテナーが利用者をサポートするためのコマンド集を提供したり、熟練開発者が自身のデバッグ手法やデプロイ手順をプラグインとして共有したりできます。さらに、社内ツールやデータソースへの接続設定をパッケージ化し、セットアップ時間を短縮することも可能です。

プラグインの配布と発見を促す「マーケットプレイス」機能も提供されます。誰でも自身のプラグインをまとめたマーケットプレイスを作成し、Gitリポジトリなどで公開できます。これにより、優れた開発手法やツール連携のベストプラクティスがコミュニティ全体で共有され、エコシステムの拡大が期待されます。

プラグイン機能は現在、Claude Codeの全ユーザーがパブリックベータとして利用可能です。ターミナルやVS Code上で「/plugin」コマンドを実行するだけで始められます。Anthropicは公式ドキュメントでプラグインの作成方法やマーケットプレイスの公開手順を案内しており、開発者の積極的な活用を促しています。

AI業界は重大な岐路に、オープンかクローズドか

AI業界の現状と課題

OpenAI開発者会議の開催
動画生成AI「Sora」の普及
採用選考でのAI活用が急増
業界は大きな岐路に直面

問われる未来のエコシステム

開かれたインターネット型
閉じたSNS型
ユーザー中心の設計が鍵
企業の戦略決定が急務に

AIスタートアップImbueのカンジュン・チュウCEOが、AI業界はオープンな生態系か、一部企業が支配するクローズドな生態系かの「重大な岐路」にあると警鐘を鳴らしました。背景には、OpenAI開発者会議での新発表や、動画生成AI「Sora」の急速な普及、採用活動におけるAI利用の一般化など、技術が社会に浸透する中での新たな動きがあります。

OpenAIは年次開発者会議で、ChatGPTの新機能やAIエージェント構築ツールを発表しました。同社はAIを「未来のオペレーティングシステム」と位置づける野心的なビジョンを掲げており、プラットフォームの主導権を握ろうとする動きは、業界がクローズドな方向へ向かう可能性を示唆しています。

一方、動画生成AI「Sora」のiOSアプリ登場は、技術のメインストリーム化を象徴する出来事です。しかし、著作権を巡る問題や、CEOの顔を使ったミームが拡散するなど、予期せぬ社会的影響も生んでいます。これは技術の社会実装が新たなフェーズに入ったことを示しています。

ビジネスの現場でも変化は顕著です。AIによる履歴書スクリーニングが一般化する一方、応募者がAIを欺くために履歴書に隠しプロンプトを埋め込むといった事態も発生。AIの普及は、これまでにない新たな課題を生み出しているのです。

チュウ氏が提起した「AIは初期インターネットのようにオープンになるか、ソーシャルメディアのように閉鎖的になるか」という問いは、全ての関係者にとって重要です。業界の将来像がまさに今、形成されつつあります。経営者や技術者は、この分岐点で自社の進むべき道を真剣に検討する必要があるでしょう。

Zendesk、自律型AIで顧客対応の8割を自動化へ

顧客サポート変革の核

中核は自律型サポートAI
人間介入なしで80%の課題解決を目標
残る20%はコパイロットが技術者を補佐
音声、管理層、分析エージェントも投入

導入効果と戦略的背景

先行導入でCSATが5〜10ポイント改善
AIによる作業自動化への産業シフト
ベンチマークで高い問題解決能力を実証
積極的なAI企業買収が基盤(Hyperarcなど)

カスタマーサポート大手Zendeskは、このほどAIサミットにて、LLMを活用した自律型の新しいエージェントシステムを発表しました。中核となる「自律型サポートエージェント」は、人間の介入なしに顧客サポート問題の80%を解決することを目指します。これは、年間46億枚のチケットを処理するZendeskのプラットフォームにおいて、カスタマーサポートのあり方を根底から覆す可能性を秘めています。

新システムは、課題解決率80%を担う「自律型エージェント」と、残りの複雑な20%の課題処理を人間の技術者を支援する「コパイロットエージェント」を中心に構成されています。さらに、管理層エージェント音声ベースエージェント、分析エージェントなどが連携し、包括的なAI駆動型サポート体制を構築する設計です。

同社製品部門のプレジデントは、この動きを「AIが作業の大部分を行うシステムへの世界的なシフト」の一環であると位置づけています。従来の人間向けに設計されたソフトウェアから、AIが主役となるサポート体制へ移行することで、サポート業界全体の生産性と収益性の劇的な向上を図る狙いです。

AIによる80%解決という目標は、非現実的ではありません。ツールの呼び出し能力を測る独立系ベンチマーク「TAU-bench」では、現在トップモデルが85%の問題を解決しています。また、既存顧客での先行導入の結果、顧客満足度(CSAT)が5〜10ポイント向上しており、実用性も証明されています。

この大規模なAIシフトを支えるのが、Zendeskが積極的におこなってきたAI関連企業の買収です。2024年以降、QAおよびエージェントサービスシステムのKlaus、自動化プラットフォームのUltimate、そして分析エージェントの基盤となるHyperarcなどを相次いで取得し、技術的な基盤を強化してきました。

このAI技術が広く普及すれば、経済的なインパクトは計り知れません。米国だけでも240万人のカスタマーサービス担当者がいますが、情報検索に留まらず、複雑なトラブルシューティングや自律行動をAIが担うことで、人件費削減とサービス品質向上を両立させることが可能になります。経営者は、この変化を早期に取り込むべきでしょう。

分散型強化学習でAIを民主化:Prime Intellectが挑むオープンLLM開発

AI開発のボトルネック解消

巨大企業に依存しないオープンLLM開発
AI能力拡張のボトルネック解消
強化学習(RL)を分散化しモデルを改善
INTELLECT-3など競争力あるモデル開発

分散型アプローチの仕組み

学習環境の構築をコミュニティに開放
特定のハードウェア非依存のトレーニング
専門知識が不要なAI開発の民主化
特定タスク向けエージェント創出を加速

スタートアップのPrime Intellectは、分散型強化学習(DRL)を活用し、競争力のあるオープンなフロンティア大規模言語モデル(LLM)「INTELLECT-3」を開発中です。これは、巨大テック企業に依存せず、世界中の多様なハードウェアを用いてAIモデルを構築し、AI開発を民主化することを目的としています。現在のAI界の二極化構造を変える可能性を秘めた動きとして注目されています。

今日、AIモデルの改善は、単純なデータや計算資源の増強だけでは難しくなっています。特に、プレトレーニング後の強化学習(RL)のプロセスが、モデルの能力拡張における最大のボトルネックです。このRLは通常、高度な専門知識と大量の計算資源が必要なため、これまで大手AI企業によってクローズドに行われてきました。

Prime Intellectは、この課題を打破するため、誰もが特定のタスクに特化した強化学習環境を作成できるフレームワークを提供しています。コミュニティと自社チームが作成した最良の環境を組み合わせることで、INTELLECT-3のチューニングを進めています。これにより、開発者手軽にRLを実行し、モデルの専門性を高めることが可能になります。

同社は以前にも分散型手法の有効性を示しています。2024年後半のINTELLECT-1、そして推論能力を向上させたINTELLECT-2をリリースし、分散型トレーニングの実現性を証明しました。Teslaの元AIチーム責任者であるアンドレイ・カーパシー氏も、Prime Intellectの強化学習環境の取り組みを「素晴らしいアイデア」として評価しています。

Prime Intellectの試みは、オープンソースAI市場における米国の存在感を高めることを目指しています。現在、オープンなフロンティアモデルは中国勢が優勢ですが、同社の技術が普及すれば、スタートアップ開発者が自ら高度なAIを構築・修正できるようになります。これにより、多種多様なタスクに特化した新たなAIエージェント製品の創出が期待されます。

Notion、自律型AIへ基盤再構築 推論モデル活かし生産性向上

自律型AIを支える新基盤

エージェントAI対応へ技術基盤をゼロから再構築
推論モデルの強みを最大限に活用
硬直的なプロンプトフローを廃止
統一オーケストレーションモデル導入

自律的なタスク実行と品質

モジュール化されたサブエージェントが連携
ツールを自律的に選択し並行タスク実行
評価を二分化しハルシネーションを隔離
レイテンシは使用場面に応じて最適化

Notionは、エージェントAIの大規模展開を実現するため、既存の技術スタックをゼロから全面的に再構築しました。これは、従来のAIが持つステップ・バイ・ステップの制約を外し、高度な推論モデルを活用するためです。新アーキテクチャにより、エージェントは自律的にツールを選択・実行できるようになり、ユーザーはよりゴール志向で複雑な作業を任せられるようになります。

技術責任者は、レトロフィット(既存システムへの後付け)ではなく、推論モデルの強みを活かす設計が必要だと強調しています。このため、硬直的なプロンプトベースのフローを廃止し、中心に統一されたオーケストレーションモデルを導入しました。この中核モデルを、Notion検索やデータベース操作を行うモジュール化されたサブエージェントがサポートします。

エージェントは、必要なツールを自律的に選択し、複数のタスクを並行で実行可能です。例えば、会議メモを提案書に変換したり、関連するタスクを追跡したりといった、一連の複雑な作業を一任できます。これにより、ユーザーは細かな指示出しから解放され、エンタープライズ規模での生産性向上が期待されています。

精度確保のため、特にハルシネーション(AIの誤情報)の隔離を最優先課題としています。評価プロセスを二分化し、決定論的テストやLLM-as-a-judgeなど複数の手法を組み合わせることで、問題の発生源を特定します。この評価構造により、不必要なハルシネーションを効果的に排除しています。

レイテンシ(応答速度)の管理においては、利用シーンに応じた最適化を徹底しています。「2+2」のような単純な質問には即時応答が求められますが、数百のウェブサイトやファイルにわたる20分かかる複雑な自律作業ではバックグラウンド実行を許可するなど、ユーザーの期待値管理を重視しています。

Notionは、社員が自身の製品を徹底的に使い込む「ドッグフーディング」を実施し、高速なフィードバックループを実現しています。また、外部のAIに精通したデザインパートナーにも早期アクセスを提供し、社内プロトタイプでは見過ごされがちな多様な視点からのフィードバックを得て、継続的な改善サイクルを回しています。

CPGの営業生産性を革新、BedrockでマルチAIが商談資料を自動生成

営業現場のボトルネック解消

小売店ロイヤルティ参加率30%未満が課題
フィールドセールスが大規模店舗を担当
個別データに基づき商談資料を自動生成

マルチエージェントAIの仕組み

6種の専門エージェントが協調動作
Claude 3.5 Sonnetを活用
ブランド・ビジネスルールの遵守を徹底

導入効果と生産性向上

プログラム登録率最大15%増加
問い合わせ応答の90%を自動化
管理業務コストを大幅削減

CPG企業向けのSaaSを提供するVxceedは、Amazon Bedrockを活用し、大規模な営業生産性向上を実現しました。同社が構築したマルチエージェントAIソリューションは、新興国の数百万の小売店に対し、個々のデータに基づいたパーソナライズされたセールスピッチを自動生成します。これにより、これまで低迷していたロイヤルティプログラムの参加率を飛躍的に高めることに成功しました。

CPG業界、特に新興国市場では、収益の15〜20%をロイヤルティプログラムに投資しながらも、参加率が30%未満にとどまる課題がありました。プログラムが複雑な上、数百万店舗を訪問するフィールドセールスチームが個別のニーズに対応しきれないことがボトルネックとなっていました。

この課題解決のため、VxceedはBedrockを利用した「Lighthouse Loyalty Selling Story」を開発しました。このシステムは、店舗のプロファイルや購買履歴といったデータ群を基に、個別の小売店に響く独自の販売ストーリーを生成し、現場の営業担当者へリアルタイムに提供します。

ソリューションの中核は、オーケストレーション、ストーリー生成、レビューなど6種類の専門エージェントからなるマルチエージェントアーキテクチャです。これらが連携し、コンテンツの品質、ブランドガイドラインやビジネスルールの遵守を徹底しながら、安全かつスケーラブルにコンテンツを供給しています。

導入後のビジネスインパクトは明確です。プログラム登録率は5%から最大15%増加し、収益成長に直結しています。また、ロイヤルティプログラム関連の問い合わせの90%を自動化し、応答精度95%を達成。小売店側の顧客体験も大きく改善しました。

効率化効果も顕著であり、プログラム登録処理時間は20%削減されました。さらにサポート対応時間は10%削減され、管理業務のオーバーヘッドは地域あたり年間2人月分も節約されています。これにより、営業担当者はより価値の高い活動に集中できるようになりました。

VxceedがAmazon Bedrockを選択した決め手は、エンタープライズレベルの強固なセキュリティプライバシーです。データが顧客専用のVPC内で安全に保持される点や、Anthropic社のClaude 3.5 Sonnetを含む多様な高性能FMにアクセスできる柔軟性が高く評価されました。

HRテック企業が推進する2500のGPT活用戦略:従業員がAI構築者に

驚異的な社内浸透と成果

従業員の90%超ChatGPT利用
2,500以上のGPTを試作・開発
商談成立までの期間短縮に貢献
収益機会となるアップセルを特定

成功を支える構造化戦略

全社的な「AI Mind」チーム主導
5段階プロセスでGPTを設計
成果とKPIを紐づけた効果測定
成功したGPTは全社で再利用

HRテック企業のHiBobは、全社的なカスタムGPT導入を通じ、生産性と収益性を劇的に向上させています。ChatGPT Enterpriseを活用し、従業員の90%超が日常的にAIを使用。この成功の鍵は、従業員を単なる利用者ではなく、「開発者」と位置づけた独自の構造化戦略です。

HiBobでは、これまでに2,500を超える実験的なGPTが構築され、そのうち200が社内ワークフローに成功裏に組み込まれています。営業チームではミーティング準備が短縮され、アップセル機会の特定により収益向上に直結。現場の課題解決に特化したエージェントが、部門を横断して導入されています。

この内部的なAI活用は、顧客向け製品開発の「フライホイール」として機能しています。ChatGPT Enterpriseで構築・テストされたソリューションは、OpenAIのAPIを通じて顧客向けプラットフォーム「Bob」に実装されます。これにより、HRリーダーはデータとの対話的なやり取りを迅速に行えるようになりました。

HiBobはAIを中核的な能力と位置づけ、「AI Mind」チーム主導で導入を推進しています。重要なのは、従業員全員にAI構築のツールと構造を提供した点です。各カスタムGPTは「デジタルコンパニオン」として明確な役割と所有者を持ち、事業目標に紐づけられています。

導入プロセスは「アイデア・検証」「構築」「採用・有効化」「メンテナンス」「スケール」の5段階で標準化されています。特に成功したGPTは、検索可能な社内ディレクトリに追加され、部門を超えて再利用されます。これにより、AI資産の陳腐化を防ぎ、継続的な改善サイクルを生み出しています。

HiBobの洞察は、従業員が単なるAIユーザーではなく、構造、ツール、アカウンタビリティ(責任)に裏打ちされた「オーナーシップ」を持つことで、AIが最も効果を発揮するという点です。すべてのGPTは工数削減や収益貢献などのKPIに基づき、その成果が厳格に追跡されています。

Gemini CLIが外部連携を全面開放、オープンな拡張機能で開発生産性を劇的に向上

オープンな連携基盤を確立

Gemini CLIを拡張プラットフォームへ進化
外部ツールとの連携をコマンドラインで実現
開発者100万人が利用するAIエージェント
FigmaやStripeなど大手と連携開始

開発者主導の拡張性

Google非承認で公開できるオープン性
GitHubリポジトリでの手動インストールを推奨
Playbook機能でAIが使い方を即座学習
複雑な設定不要で意味のある結果を即時提供

Googleは、開発者向けAIシステム「Gemini CLI」に、外部ツールと連携するための拡張機能システムを正式に導入しました。これにより、100万人以上の開発者は、コマンドライン上で直接、FigmaやStripe、Dynatraceといった業界リーダーのサービスを利用可能になります。AIの力を借りて、開発者がターミナルと外部ツール間でのコンテキストスイッチングを排除し、生産性を劇的に高めることが目的です。

この拡張機能システムは、Gemini CLIを単なるコーディング補助ツールから「拡張性プラットフォーム」へと進化させます。拡張機能は外部ツールへの接続を可能にするだけでなく、AIエージェントがそのツールを効果的に使用するための「プレイブック」(組み込みの説明書)を含んでいます。これにより、開発者は複雑な設定なしに、最初のコマンドから意味のある結果を得ることができます。

特に注目すべきは、そのオープンなエコシステム戦略です。OpenAIChatGPTのアプリが厳しくキュレーションされているのに対し、Gemini CLIの拡張機能は、Googleの承認や関与なしに、誰でもGitHub上で開発・公開できます。これは「誰もが参加できる公正なエコシステム」を確立したいというGoogleの強い意志を反映しています。

ローンチ時点で、Figma(デザインコード生成)、Stripe(支払いサービスAPI連携)、Postman(API評価)、Shopify(開発者エコシステム連携)など、多数の主要パートナーが参画しています。これらの拡張機能をインストールするだけで、ターミナルが開発者統合されたツールチェーンの中心となり、デバッグCI/CDセキュリティチェックといった作業が効率化されます。

拡張機能は、Model Context Protocol (MCP) と呼ばれるツール連携の基盤上に構築されています。これにより、拡張機能は、ローカルファイルやGitステータスなどの環境コンテキストも利用し、開発者の意図通りに適切なツールと指示を実行します。この統合されたインテリジェンスが、開発現場におけるAIの利用価値を飛躍的に高めるでしょう。

Google AI、コア製品を劇的進化 9月のChrome/Search/Gemini刷新まとめ

コア製品のAI統合

ChromeGeminiブラウジングアシスタント搭載
Searchにリアルタイム視覚検索(Search Live)導入
複雑な多段階質問に対応するAIモードの拡充
Android Gboardにトーン修正・文法校正AI

Geminiと次世代技術

カスタムAI「Gems」の共有機能でコラボを促進
Nano Bananaによる高度な画像生成・編集機能

Googleは2025年9月、AI技術を中核製品全体に深く統合し、利用者体験の劇的な向上を発表しました。これはChrome、Search、Geminiアプリといった主要サービスに留まらず、教育分野や次世代ロボティクスまで多岐にわたります。特に、生産性向上に直結する機能が多数リリースされており、AIを使いこなしたい経営者エンジニア層にとって見逃せないアップデートです。

ウェブブラウザと検索機能は、AIアシスタント化を加速させています。ChromeではGeminiがブラウジングアシスタントとして機能し、開いているタブ全体を横断して質問に回答可能です。また、SearchのAIモードは、複雑な多段階質問に対応するだけでなく、日本語を含む多言語対応を拡大し、グローバルでの利用を促進しています。

特に画期的なのは、Search Liveの導入です。これは、リアルタイムの音声会話にスマートフォンのカメラフィードを共有する機能を組み合わせ、現実世界の課題解決をリアルタイムで支援します。また、AndroidのGboardにはAIライティングツールが追加され、トーンの修正やスペル・文法の校正が端末内で自動で行えるようになり、モバイル生産性が向上しました。

GeminiアプリはAI活用ハブとしての地位を固めています。特に、特定の目的に合わせてカスタマイズしたAIモデル「Gems」の共有機能が追加され、チーム内での共同作業や情報共有が容易になりました。さらに、DeepMind開発の画像生成・編集モデル「Nano Banana」の活用が広がり、クリエイティブな作業の可能性を広げています。

学習領域では、AIが個々のユーザーに最適化された学習を実現します。NotebookLMは、利用者のメモに基づきフラッシュカードやクイズを自動生成し、パーソナライズされた学習ガイドを提供します。スンダー・ピチャイCEOはAI教育への10億ドルのコミットメントを強調し、「Gemini for Education」を全米の高校に提供すると発表しました。

長期的な視点では、Google DeepMindが「物理エージェント」の時代を宣言し、ロボティクスモデルを強化しました。Gemini Robotics 1.5/ER 1.5は、ロボットが環境を認識し、推論し、複雑なマルチステップタスクを処理する能力を飛躍的に高めます。また、Gemini 2.5が国際プログラミングコンテストで金メダル級の成績を収め、その推論能力を証明しています。

AIブラウザのログイン問題を解決、1Passwordが機密情報保護機能を公開

AI代行ブラウジングの課題

AIが認証情報を記憶
将来的な情報漏洩の懸念

新機能と承認プロセス

新機能名:Secure Agentic Autofill
認証前に必ず人による承認
Touch IDなどでの生体認証を要求

セキュリティ確保の仕組み

LLMやAIエージェント認証情報を渡さない
暗号化チャネルでブラウザに直接注入

パスワード管理大手1Passwordは、AIエージェントがウェブブラウジングを代行する際のログイン認証情報漏洩リスクを解消するため、「Secure Agentic Autofill」機能を発表しました。AIがウェブ操作を自動化する動きが加速する中で、機密情報を安全に扱うための画期的なセキュリティ解決策として注目されます。本機能は人による承認を必須とし、情報の暗号化注入を実現します。

近年、ClaudeGeminiChatGPTなどのLLMを活用したAIエージェントが、チケット予約やプレイリスト作成といったウェブタスクを代行しています。しかし、この過程でAIが一度ログイン情報を記憶すると、その情報が後に流出し、大規模なセキュリティ侵害につながる懸念がありました。従来のパスワード管理ツールでは、この新しいリスクに対応が難しかったのです。

1PasswordのSecure Agentic Autofillは、このリスクに特化して設計されました。基本的な仕組みは、AIエージェントや基盤となるLLMに対して、実際の認証情報を一切見せないことです。これにより、AIが情報を覚えてしまう根本的な危険性を排除し、高度な自動化とセキュリティを両立させます。

具体的には、AIエージェントがログイン情報を要求する際、プロセスは必ずHuman-in-the-Loop(人による介在)ワークフローへ移行します。ユーザーはMacのTouch IDなどを用いて認証リクエストを承認する必要があります。このステップにより、不正な自動ログインや意図しない情報使用が防止されます。

ユーザーの承認後、1Password認証情報を、エンドツーエンドで暗号化された安全なチャネルを通じて、AIエージェントが操作しているブラウザへ直接注入します。この「直接注入」こそが重要で、データがエージェントを経由しないため、機密情報がAIのメモリ上に残ることはありません。

本機能は既に、AIエージェント向けブラウザやツールを開発するBrowserbaseを通じてアーリーアクセスが始まっています。今後、AIによるウェブ操作の自動化が企業活動に深く浸透するにつれ、このSecure Agentic Autofillのような高度なセキュリティ対策の導入が、企業の信頼性と収益性を守る上で必須となるでしょう。

Otter.aiが法人向けAPI公開、会議記録を「企業知識基盤」へ進化

Otter.aiの新戦略

従来の認識から企業向け知識基盤へ転換
API公開でJiraやHubSpotなどカスタム連携を実現
外部AIモデル連携を可能にするMCPサーバー導入
会議メモやプレゼンを検索するAIエージェント提供
会議データの情報サイロ化を解消し効率化
会話の記録を通じた企業成長と価値創出を支援
機密情報保護のためのアクセス制限機能も提供

会議記録AIを提供するOtter.aiは今週、法人向けの新製品スイートとAPIを発表しました。同社は、単なる会議の書き起こしツールという地位から脱却し、会議データを一元管理する「企業向け知識基盤(Corporate Knowledge Base)」へと戦略を転換します。CEOのサム・リアン氏は、この進化が企業の成長を加速させ、測定可能なビジネス価値を生み出すための「会話のシステム・オブ・レコード」になると強調しています。

この転換の核となるのがAPIの提供です。これにより、ユーザーはJiraやHubSpotといった外部プラットフォームとOtterのデータをカスタム連携できるようになります。会議で生まれた重要な情報を他の業務フローに自動的に組み込み、会議の記録を単なる文書として終わらせず、実務上の資産として活用することが可能になります。

新スイートには、さらに二つの主要機能が加わります。一つは、ユーザーのOtterデータを外部のAIモデルと連携させるMCPサーバー。もう一つは、企業の会議メモやプレゼンテーション全体を検索し、必要な情報を取り出すAIエージェントです。これらは、社内に点在する「会議知」を集約・活用しやすく設計されています。

背景には、AIブームにより会議記録ツールの市場競争が激化していることがあります。2022年以降、GranolaやCirclebackといった競合他社が台頭し、既存プレイヤーも注目を集めています。Otterは、こうしたレッドオーシャンから脱却し、知識管理というより高付加価値な領域にシフトすることで、ビジネスの拡大を目指しています。

リアン氏は、企業の非効率性の多くは「情報サイロ」から生じると指摘します。会議に存在する膨大な知識を一元化して広範に共有することで、チーム間の連携不足を解消できると期待されています。ただし、機密情報に関する会議については、ユーザーがアクセスを制限できるパーミッションシステムが用意されています。

一方で、AIによる広範な記録・共有はプライバシー上の懸念も伴います。同社は過去に無許可録音に関する集団訴訟の対象となっています。リアンCEOは、プライバシー懸念は業界全体の問題であるとしつつも、「我々は歴史の正しい側にいる」と主張。AIによるイノベーション推進には、会議にAIを導入し、情報へのアクセスを最大化することが不可欠であるとの見解を示しています。

OpenAI、AIコマース市場を支配へ。ChatGPTを購買の「玄関口」に

新AIコマース戦略の全体像

アプリ連携でChatGPT内に購買UIを構築
決済インフラInstant Checkout」を既に提供
顧客とリテーラーを結ぶ「スーパー・アグリゲーター
サブスクリプション以上の巨大収益源の確保

競争と市場の構造変化

競合はAmazon/GoogleなどEC・検索巨人と拡大
Uber, Expediaなど裁量的支出を網羅
自動交渉やエージェント駆動型購買へ進化
2025年ホリデー商戦はAIアシストが520%成長予測

OpenAIは年次開発者向けイベントで、ChatGPTをAI駆動型コマース(Agentic Commerce)の核とする野心的な戦略を披露しました。アプリ連携機能により、SpotifyやFigmaといったプログラムをChatGPTのウィンドウから離れずに呼び出せるように設計。これにより、AIファーストのインターネット像が具体化し、顧客が購入を行う場所、小売業者が販売を行う場所としての地位を確立しようとしています。

この戦略の核心は、先週発表された決済システム「Instant Checkout」と、今回発表されたアプリ連携が組み合わされた点にあります。Instant CheckoutはShopify、Etsy、Stripeなどの店舗に対応した単発購入のための決済インフラを提供。アプリ連携はサービスプロバイダーに独自のフロントエンドを構築させます。これにより、OpenAIは手数料収入という、月額サブスクリプションを遥かに超える巨大な収益源を確保する位置につきました。

OpenAIはもはやAI技術企業に留まらず、AmazonやWal-MartといったECの巨人とも直接競合します。連携パートナーにはUber、Expedia、Instacart、Targetなどが名を連ねており、ユーザーの広範な裁量的支出ChatGPT経由で取り込む狙いです。ベン・トンプソン氏の理論でいうところの、小売業者に顧客を誘導する「スーパー・アグリゲーター」として機能するわけです。

市場調査会社Adobeのレポートでは、AIアシストによるオンラインショッピングは、今年のホリデーシーズンに米国520%の成長を遂げると予測されています。これは、消費者が製品を探す際に検索エンジンではなく、チャットボットに移行することを意味します。Googleも競合する「AP2」プロトコルを導入していますが、OpenAIはより強力な勢いを持って市場に先行しています。

将来的にAI駆動型コマースは、単なる製品検索の代替に終わりません。OpenAIのシステムは、指定価格以下になったらフライトを自動予約したり、コンサートチケットを入手次第即座に購入したりするエージェント主導の購買に発展可能です。小売側も交渉エージェントを立てるなど、購買行動全体に大きな変革をもたらす可能性を秘めています。

Gemini 2.5 CU公開、人間の操作を再現し業務自動化へ

新モデルの核心機能

UI操作に特化したGemini 2.5 Proベース
ウェブやアプリを人間のように操作
フォーム入力やログイン後の操作を実現
複雑なデジタルタスクの全自動化を可能に

技術的優位性

Gemini APIの「computer_use」ツール経由
競合モデルを上回る低遅延と高精度
スクリーンショットを元に次のアクションを決定

安全対策と提供

購入などリスク操作は要確認
Google AI StudioとVertex AIで提供

Google DeepMindは10月7日、ユーザーインターフェース(UI)を直接操作できるAIエージェント向けの新モデル「Gemini 2.5 Computer Use (CU)」を発表しました。これは、Gemini 2.5 Proの視覚理解能力を基盤とし、ウェブページやモバイルアプリでのクリック、タイピングといった人間と同じ操作をAIに実行させるものです。これにより、複雑なデジタルタスクの全自動化を可能にし、生産性の飛躍的向上を目指します。

従来のAIモデルは構造化されたAPI経由で連携していましたが、フォーム記入やログイン後の操作など、多くのデジタル業務にはグラフィカルUIへの直接的な操作が必要でした。Gemini 2.5 CUは、これらのボトルネックを解消し、汎用性の高いエージェント構築に向けた重要な一歩となります。

同モデルは、複数のウェブおよびモバイル制御ベンチマークで、既存の主要な競合モデルを上回る卓越した性能を示しています。特に、Online-Mind2Webなどのブラウザ制御評価では、最高精度を達成しながらも、業界最低水準の遅延を実現しており、実用性の高さが証明されています。

開発者は、Gemini APIの新しい「`computer_use`」ツールを通じてこの機能を利用可能です。エージェントは、ユーザー要求と環境のスクリーンショットを入力として受け取り、分析。モデルはクリックや入力などのUIアクションの関数コールを返し、タスクが完了するまでこのプロセスを反復します。

コンピューターを制御するAIエージェントには誤用や予期せぬ動作のリスクが伴うため、安全性は特に重視されています。モデルには、安全機能が直接組み込まれており、さらに開発者向けの多層的な安全制御機能が提供されます。セキュリティ侵害やCAPCHAs回避などの高リスクな行動は拒否またはユーザー確認を求められます。

Gemini 2.5 CUモデルは本日より、Google AI StudioおよびVertex AIを通じてパブリックプレビューとして利用可能です。Google内部では、既にUIテストの自動化や、Project Marinerなどのエージェント機能に本モデルのバージョンが活用されており、ソフトウェア開発における効率化への寄与が期待されています。

AIエージェントの信頼性を劇的向上 AUIが「確実な行動」実現の独自モデル発表

現行AIエージェントの課題

タスク完了の信頼性が低い(企業レベル未達)
業界ベンチマークで成功率30〜56%に留まる
純粋な生成AIは「もっともらしいテキスト」を出力
特定の規則やポリシー遵守の「確実性」が欠如

信頼性を生む独自技術

基盤モデル「Apollo-1」を開発
ハイブリッドなニューロ・シンボリック推論を採用
言語能力と構造化された論理を融合
次トークン予測ではなく次アクション予測を実行

性能差が示す実力

TAU-Bench Airlineで92.5%の通過率を達成
既存トップモデルを大幅に上回る
AmazonGoogle Flightsでのタスク実行も高精度
企業ポリシー遵守をシステムプロンプトで保証

ステルススタートアップAugmented Intelligence(AUI)は、エンタープライズ向けAIエージェントの信頼性を劇的に高める基盤モデル「Apollo-1」を発表しました。従来のLLMが苦手としていた、タスクの確実な実行という課題を克服するため、独自開発のハイブリッドアーキテクチャを採用し、ベンチマークで圧倒的な性能差を示しています。

従来のLLMは、チャットや探索的な対話では優れた能力を発揮しますが、企業が求める複雑なタスクを確実に実行する能力が不足していました。AIエージェントの性能を測るベンチマーク「Terminal-Bench Hard」では、現在の最高モデルでも成功率は30%台に留まり、ビジネスルールが求められる場面で信頼性に欠ける点が大きな課題でした。

Apollo-1は「ステートフル・ニューロ・シンボリック推論」というハイブリッド構造に基づいています。これは言語の流暢さを担うニューラル層と、意図や制約といった構造化された論理を担うシンボリック層を統合し、タスク実行における「確実性(Certainty)」を保証するためのものです。

Transformerモデルが次のトークンを確率的に予測するのに対し、Apollo-1は会話の中で次に取るべき「アクション」を予測します。この構造により、エンコーダが自然言語をシンボリックな状態に変換し、決定エンジンが次の行動を決定するという、閉じた推論ループを実行。統計的な予測ではなく、決定論的な動作を実現しています。

この決定的な動作は、企業ポリシーの遵守において極めて重要です。例えば、銀行が「200ドル以上の返金には必ずID確認を義務付ける」といった制約を、Apollo-1では「System Prompt(振る舞い契約)」として定義し、確実に実行できます。これは、純粋な生成AIでは保証できない行動の信頼性を実現します。

ベンチマーク結果はその有効性を示しています。航空券予約タスクを評価する「TAU-Bench Airline」において、Apollo-1は92.5%という驚異的な通過率を達成。これは競合するトップモデルの56%を大きく引き離すものであり、金融、旅行、小売など、タスク実行の信頼性が求められる業界での応用が期待されます。

LangChain CEO提言:AIシステム開発はノーコードかコードかの二極構造へ

ワークフローとエージェント

ワークフロー予測可能性を優先する
エージェント自律性・抽象化を優先する
VWBは実際はエージェントではなくワークフロー構築

ビジュアルビルダーの欠点

非技術者にとって導入障壁は低いとは限らない
複雑化するとUIでの管理が破綻

最適解の二極化戦略

低複雑度:シンプルで信頼性の高いノーコードエージェント
高複雑度:分岐・並列処理にはコードによるワークフロー
コード生成の進化が高複雑度の敷居を下げる

AIフレームワーク大手LangChainのハリソン・チェイスCEOは、OpenAIなどが参入する「ビジュアルワークフロービルダー(VWB)」市場に対して、懐疑的な見解を示しました。同氏は、VWBは真の「エージェントビルダー」ではなく、将来的にその役割は「シンプルなノーコードエージェント」と「コードによる高複雑度ワークフロー」の二極に分化し、VWBは淘汰されると提言しています。

VWBは非技術者によるAI構築を目的としていますが、チェイス氏はこの導入障壁が低いという前提を否定します。複雑なタスクを扱う場合、すぐにノード(要素)とエッジ(接続)が絡み合い、UI上での管理が極めて困難になります。特に、高い信頼性が求められるシステム設計においては、VWBは実用的な選択肢とはなり得ないのが現状です。

AIシステムの構築において、予測可能性が高いが自律性に欠けるものが「ワークフロー」、自律性が高いが予測しにくいのが「エージェント」です。VWBは基本的に複雑な処理の経路を視覚化する「ワークフロー」であり、真の自律的なエージェント構築には適していません

今後のAIシステム開発の最適解は、複雑性に応じて二極化します。低複雑度のユースケースでは、プロンプトとツールのみで構成されるシンプルな「ノーコードエージェントが主流になります。モデルの性能向上に伴い、エージェントが対応可能なタスクの範囲は拡大すると予想されます。

一方、高度な分岐ロジックや並列処理を必要とする高複雑度のタスクには、やはり「コードによるワークフロー」が不可欠です。LangChainが開発するLangGraphなどがこれに当たります。しかし、コード生成コストがゼロに近づくことで、非技術者でもこの領域に参入しやすくなると期待されています。

LangChainは、すでに存在するVWBに追従せず、よりシンプルなノーコードエージェントの作成支援と、LLMによる高品質なワークフローコード生成の改善に注力すべきだと結論づけています。これは、AI開発ツール市場における明確な戦略転換を意味します。

IBM、AI IDEにClaude搭載し生産性45%向上へ

Claude統合の核心

IBMの企業向けソフトへのClaudeモデル導入
開発環境IDE「Project Bob」での活用開始
レガシーコードのモダナイゼーションを自動化
Anthropicとの提携企業部門を強化

開発者生産性の成果

社内利用で平均生産性45%増を達成
コードコミット数を22〜43%増加
ClaudeLlamaなどマルチモデルを連携

AIガバナンス戦略

セキュアなAIエージェント構築ガイドを共同開発
watsonx OrchestrateでのAgentOps導入による監視

IBMはAnthropicと戦略的提携を発表し、主力エンタープライズ・ソフトウェア群に大規模言語モデル(LLM)Claudeを統合します。特に、開発環境(IDE)である「Project Bob」にClaudeを組み込むことで、レガシーコードの刷新と開発者生産性の劇的な向上を目指します。

このAIファーストIDE「Project Bob」は、既にIBM内部の6000人の開発者に利用されており、平均で45%の生産性向上という驚異的な成果を上げています。このツールは、単なるコード補完ではなく、Java 8から最新バージョンへの移行など、複雑なモダナイゼーションタスクを自動化します。

Project Bobの最大の特徴は、AnthropicClaudeだけでなく、Mistral、MetaLlama、IBM独自のGranite 4など、複数のLLMをリアルタイムでオーケストレーションしている点です。これにより、タスクに応じて最適なモデルを選択し、精度、レイテンシ、コストのバランスをとっています。

また、両社はAIエージェントの企業導入における課題、特に本番環境でのガバナンスに着目しています。共同でセキュアなAIエージェント構築ガイドを作成し、設計・展開・管理を体系化するAgent Development Lifecycle(ADLC)フレームワークを提供します。

IBMは、AIガバナンスを強化するため、watsonx Orchestrateに新たな機能を追加します。オープンソースのビジュアルビルダーLangflowを統合し、さらにリアルタイム監視とポリシー制御を行うAgentOpsを導入します。

企業がAI導入で直面する「プロトタイプから本番への溝」を埋めることが狙いです。この包括的なアプローチは、単にエージェントを構築するだけでなく、エンタープライズ級の信頼性、コンプライアンスセキュリティを確保するために不可欠な要素となります。

Amazon Nova Actがデータ分析を自律化 QuickSightのレポーティング効率を革新

新エージェントAIの核心

アクション志向の自律型AI
複雑なWebタスクを自動実行
タスクをアトミックコマンドに分割
従来のLLMと異なる生産性特化

データストーリー自動化

手動作業の削減と生産性向上
複雑なデータを対話型物語に変換
意思決定プロセスを大幅に加速
データ分析者が本来業務に集中

AWSは、新しいエージェントAIツール「Amazon Nova Act」を活用し、Amazon QuickSightにおけるデータストーリー作成の自動化ソリューションを発表しました。QuickSightのデータストーリーは、複雑なデータを対話型の報告書に変換し、迅速な意思決定を支援します。従来、手動で行われていた多量のレポーティング作業を自律化することで、組織全体の生産性を劇的に向上させる狙いです。

Amazon Nova Actの最大の特徴は、従来のLLMが会話に重点を置いていたのに対し、「アクション志向」に特化している点です。この技術は、複雑なWebインターフェース操作タスクを信頼性の高い「アトミックコマンド」に分解し、自律的に実行します。これにより、最小限の人間監視でWebブラウザ自動化を実現し、ビジネス生産性とIT運用を根本的にモダン化します。

データストーリーの作成自動化は、ビジネスユニットごとの多様なレポーティングニーズに対応します。手作業による複数のナラティブ(物語)作成にかかっていた膨大な時間が削減されます。分析担当者はルーティンワークから解放され、より価値の高いデータ分析と、データ駆動型の意思決定そのものに時間を振り向けられるようになります。

この自動化を実現するためのプロンプト(指示)設計にはベストプラクティスが推奨されています。具体的には、エージェントに行わせたい動作を簡潔かつ具体的に記述することです。さらに、ログインやダッシュボード公開などの大きなアクションを、複数の小さな実行ステップ(act()コール)に分割することが、信頼性の高いワークフロー構築に不可欠とされています。

Amazon Nova Actは、QuickSightの堅牢な視覚化能力と結びつくことで、データの活用方法を一変させます。これにより、反復的なタスクが最小限に抑えられ、チーム全体のデータに基づいた意思決定が加速されます。これは、AWSが提供する次世代の自律型自動化の一例であり、AI活用による市場価値向上の鍵となるでしょう。

PowerSchool、SageMakerで実現した教育AI向けコンテンツフィルタリング

K-12教育特化AIの安全確保

K-12教育向けAIアシスタント「PowerBuddy」
歴史教育などでの誤検出(False Positive)を回避
いじめ・自傷行為の即時検知を両立させる必要性

SageMaker活用によるモデル育成

Llama 3.1 8BをLoRA技術で教育特化ファインチューニング
高い可用性とオートスケーリングを要件にSageMakerを採用
有害コンテンツ識別精度約93%、誤検出率3.75%未満

事業へのインパクトと将来性

学校現場での教師の負担を大幅に軽減
将来的にマルチアダプター推論で運用コストを最適化

教育分野向けのクラウドソフトウェア大手PowerSchoolは、AIアシスタント「PowerBuddy」の生徒安全を確保するため、AWSAmazon SageMaker AIを活用し、コンテンツフィルタリングシステムを構築しました。オープンな基盤モデルであるLlama 3.1を教育ドメインに特化してファインチューニングし、高い精度と極めて低い誤検出率を両立させ、安全な学習環境の提供を実現しています。

このソリューションが目指したのは「責任あるAI(Responsible AI)」の実現です。ジェネリックなAIフィルタリングでは、生徒が歴史的な戦争やホロコーストのような機微な学術的話題を議論する際に、誤って暴力的コンテンツとして遮断されるリスクがありました。同時に、いじめや自傷行為を示唆する真に有害な内容は瞬時に検知する必要があり、ドメイン特化の調整が不可欠でした。

PowerSchoolは、このカスタムモデルの開発・運用基盤としてAmazon SageMaker AIを選定しました。学生の利用パターンは学校時間帯に集中するため、急激なトラフィック変動に対応できるオートスケーリング機能と、ミッションクリティカルなサービスに求められる高い信頼性が決め手となりました。また、モデルの重みを完全に制御できる点も重要でした。

同社はLlama 3.1 8Bモデルに対し、LoRA(Low Rank Adaptation)技術を用いたファインチューニングをSageMaker上で行いました。その結果、教育コンテキストに特化した有害コンテンツ識別精度は約93%を達成。さらに、学術的な内容を誤って遮断する誤検出率(False Positive)を3.75%未満に抑えることに成功しました。

この特化型コンテンツフィルタリングの導入は、学生の安全を確保するだけでなく、教育現場に大きなメリットをもたらしています。教師はAIによる学習サポートにおいて生徒を常時監視する負担が減り、より個別指導に集中できるようになりました。現在、PowerBuddyの利用者は420万人以上の学生に拡大しています。

PowerSchoolは今後、SageMaker AIのマルチアダプター推論機能を活用し、コンテンツフィルターモデルの隣で、教育ドメインに特化した意思決定エージェントなど複数の小型言語モデル(SLM)を展開する計画です。これにより、個別のモデルデプロイが不要となり、専門性能を維持しつつ大幅なコスト最適化を目指します。

OpenAI「Codex」一般提供開始、Slack連携とSDKで開発を加速

開発を加速する新機能

Slack連携によるタスクの直接委任
Codex SDKで独自のワークフローへ統合
環境制御・監視を行う管理者向けツール追加
CI/CD向けにGitHub Actionsも提供開始

実証された生産性向上

日常利用が8月以降10倍以上に急増
OpenAI社内PRマージ数が週70%増加
Ciscoは複雑なレビュー時間を最大50%削減
Instacartは技術的負債の自動クリーンアップを実現

OpenAIは、コード生成とレビューを支援するコーディングエージェントCodex」の一般提供(GA)開始を発表しました。これにより、新たなSlack連携機能やCodex SDKが提供され、開発チームは既存のワークフロー内でAIをシームレスに活用できるようになります。世界中のスタートアップや大企業で採用が進んでおり、開発効率の劇的な向上が期待されています。

Codexは研究プレビュー開始以来、飛躍的に進化し、日常利用は8月上旬から10倍以上に急増しました。OpenAI社内ではほぼ全てのエンジニアが利用しており、プルリクエスト(PR)のマージ数が週70%増加しています。さらに、Codexが自動でPRをレビューし、本番環境に到達する前に重大な問題点を検出するなど、コード品質維持にも貢献しています。

今回のGAにおける目玉は、エンジニアリングワークフローに直接組み込むための「Codex SDK」と「Slack連携」です。SDKを利用すれば、Codex CLIの核となる強力なエージェントを独自のツールやアプリに数行のコードで統合できます。また、Slackから直接Codexにタスクを委任できるため、チームコラボレーションを効率化します。

大規模導入を進める企業向けには、新しい管理者ツールが追加されました。これにより、ChatGPTワークスペース管理者は、クラウド環境の制御、ローカル利用における安全なデフォルト設定の適用が可能になります。加えて、利用状況やコードレビューの品質を追跡するための分析ダッシュボードが提供され、ガバナンスと監視が強化されます。

導入事例として、Ciscoでは複雑なプルリクエストのレビュー時間を最大50%削減し、エンジニアはより創造的な業務に集中できています。また、InstacartではCodex SDKを統合し、ワンクリックでのエンドツーエンドのタスク完了や、デッドコードなどの技術的負債を自動で解消し、コードベース全体のレイテンシ改善に役立っています。

Slack連携およびSDKは、ChatGPT Plus、Pro、Business、Edu、Enterpriseの各プランで利用可能です。管理者向け機能は、企業での利用を想定しBusiness、Edu、Enterpriseプランに限定されています。OpenAIは、Codexを通じて開発者生産性を根本から変革することを目指しています。

ChatGPTがOS化へ。「Apps SDK」で外部アプリを統合

連携アプリの核心

ChatGPT内で完結する対話型アプリを実現
サードパーティ連携を可能にするApps SDKを発表
既存のGPTsとは異なる本格的なアプリ連携

対話を通じた機能実行

自然言語でアプリを呼び出しタスクを実行
地図・動画・資料などインタラクティブUI表示
Zillowで住宅検索、Canvaでデザイン生成

開発者への新機会

8億人超ChatGPTユーザーへリーチ
将来的にアプリ収益化と専用ストアを導入

OpenAIは年次開発者会議「DevDay」で、サードパーティ製アプリをChatGPT内に直接統合できる新ツール「Apps SDK」を発表しました。これにより、ChatGPTは単なるチャットボットから、AI駆動のオペレーティングシステム(OS)へと進化します。ZillowやSpotify、Canvaなどの有名サービスが既に連携を始めており、ユーザーはチャットを離れることなく、アプリの機能を自然言語で呼び出して利用できます。

Apps SDKの最大の特長は、従来のプラグインやGPTsと異なり、完全にインタラクティブなUIをチャット内に表示できる点です。例えば、ユーザーが特定の不動産検索すれば、チャットウィンドウ内にZillowの対話型マップが表示されます。これにより、会話の流れを中断せず、視覚的な要素や操作を通じてタスクを完了できるため、ユーザー体験が大幅に向上します。

具体的な利用シーンとして、Canva連携では、「次のセール用インスタグラム投稿を作成して」と依頼するだけで、デザイン案が生成されます。また、ExpediaやBooking.comとの連携により、旅行の計画やホテルの予約も会話を通じて完結します。これは、AIがユーザーの指示を理解し、外部サービスのアクションを代行するエージェント」機能の実現を意味します。

開発者にとって、Apps SDKは既存のシステムとAIを連携させる強力な手段です。これは、オープンスタンダードである「Model Context Protocol(MCP」に基づいて構築されており、既存の顧客ログインやプレミアム機能へのアクセスも容易になります。これにより、開発者8億人以上ChatGPTユーザーという巨大な流通チャネルを獲得可能です。

今後、OpenAIはアプリの収益化サポートを強化する予定です。「Agentic Commerce Protocol」により、チャット内での即時決済機能(インスタントチェックアウト)を導入する計画も示されました。さらに、法人・教育機関向けプランへの展開や、ユーザーがアプリを探せる専用ディレクトリの公開も予定されており、AIエコシステム構築が加速します。

OpenAI DevDay 2025開幕、アルトマンとIve氏がAI戦略を議論

発表予測と戦略シフト

AIブラウザAIデバイスの進捗発表
GPT Storeの機能強化やエージェント機能
API提供からプラットフォーム構築への移行

注目イベントと登壇者

アルトマンCEOとJony Ive氏の特別対談
開発者向け新機能を紹介するState of the Union
動画生成モデルSoraによるSora Cinema」の公開

高まる市場競争

AnthropicGoogleによるコーディング分野での追撃
Meta Superintelligence Labsによる新たな脅威増大

OpenAIは10月6日(月)、サンフランシスコで年次開発者会議「DevDay 2025」を開催しました。今回の最大の焦点は、CEOサム・アルトマン氏と元Appleデザイナージョニー・アイブ氏による対談です。同社は生成AI市場での競争激化を受け、ChatGPTやAPI提供にとどまらない戦略的な製品拡大を強く示唆しています。

アルトマン氏は基調講演で、開発者向けの新機能やデモを発表する予定です。特に注目されるのは、現在開発中のAI搭載ブラウザや、アイブ氏らと共同で進めているAIデバイスの進捗状況です。OpenAIは、競合他社に対抗するため、ハードウェアやプラットフォーム分野への進出を加速しています。

アルトマン氏とアイブ氏の対談は、イベント終盤のハイライトです。「AI時代における創造の技術(craft of building)」について議論される予定であり、これはAIデバイスの設計思想やユーザー体験に深く関わるものと見られています。この対談はライブ配信されず、後にYouTubeで公開されます。

開発者コミュニティへの対応も強化されます。社長のグレッグ・ブロックマン氏らによる「Developer State of the Union」では、プラットフォームの新機能やロードマップが公開されます。GPT Storeのアップデートや、開発者エージェント的なワークフローを構築できる新機能も予測されています。

一方で、OpenAIは厳しい市場競争に直面しています。AnthropicGoogleのAIモデルは、コーディングやWebデザインといった分野で急速に性能を向上させており、OpenAIより高性能なモデルを低価格で提供することを迫られています。

その他の注目コンテンツとして、動画生成モデルSoraを利用した短編映画を上映する「Sora Cinema」が用意されています。これは、OpenAIソーシャルメディアアプリやエンターテイメントを含むコンテンツ生成分野へも積極的に事業を広げていることを示しています。

OpenAI、AgentKitを発表:AIエージェント開発を数時間で実現

開発効率を劇的に向上

Agent Builderによる視覚的なワークフロー設計
複雑なオーケストレーションを数時間レベルで実現
開発サイクルを70%短縮(Ramp社事例)
エンジニア専門家同一インターフェースで共同作業

主要機能とエンタープライズ対応

ChatKit:製品にネイティブに組み込めるチャットUI
Connector Registry:外部データ接続の一元管理
評価機能Evalsのトレース採点に対応
GuardrailsによるPIIマスキングや安全層の確保

OpenAIはAIエージェントの構築、デプロイ、最適化を劇的に効率化する統合ツールキット「AgentKit」を発表しました。これまで断片化していたツール群を一本化し、複雑なマルチエージェントワークフロー視覚的に設計可能にします。これにより、開発期間が大幅に短縮され、市場投入までの摩擦を最小限に抑えることを目指し、企業の生産性向上を強力に支援します。

AgentKitの中核となるのは「Agent Builder」です。これはドラッグ&ドロップでロジックを構成できる視覚的なキャンバスであり、数ヶ月要していた複雑なオーケストレーションを数時間で完了させることが可能になります。金融企業のRamp社やLY Corporationといった事例は、このツールによりエージェント構築とデプロイの時間を劇的に短縮したことを実証しています。

エージェントを製品に組み込むための「ChatKit」は、チャットUIのデプロイを簡素化し、製品にネイティブな外観で埋め込みを可能にします。また「Connector Registry」により、管理者はDropboxやGoogle Driveなどの外部データ接続を一元管理できます。これは、大企業がセキュアな環境エージェントを活用するための基盤となります。

信頼性の高いエージェント開発を支えるため、OpenAIは評価機能「Evals」を大幅に強化しました。エージェントワークフローの全行程を評価する「トレース採点」や、評価結果に基づいたプロンプトの自動最適化機能が追加されています。これにより、開発時間を50%以上短縮し、エージェントの精度向上に直結します。

Agent Builderには、オープンソースの安全レイヤーである「Guardrails」も統合されています。これは、個人識別情報(PII)のマスキングやジェイルブレイク検出などに対応し、エージェントの予期せぬ挙動や悪意ある利用から保護します。これにより、エンタープライズ利用に不可欠な安全層を確保しています。

AgentKitの提供状況は段階的です。ChatKitと強化されたEvals機能はすでに一般提供が始まっていますが、Agent Builderは現在ベータ版です。OpenAIはこれらのツールを標準APIモデル料金に含めることで、GoogleMicrosoftといった競合他社との開発競争を優位に進めたい考えです。

GoogleがAI防衛戦略を強化、自動パッチAI「CodeMender」と報奨金制度を開始

自動パッチAI「CodeMender」

Gemini活用による複雑な脆弱性の自動修正
受動的/能動的防御アプローチの統合
人手によるレビュー前提の高品質パッチ提案
オープンソースに既に72件の修正を適用

AI特化の報奨金制度(VRP)

AI製品の脆弱性に特化したVRPを新設
最大報奨金は3万ドル(約450万円)
重点対象はAIによる「不正なアクション」
データ漏洩など実害のある脆弱性が対象

SAIF 2.0によるエージェント防御

自律型AIエージェントリスクに対応
制御・制限・可視化」の3原則を設定
SAIFリスクマップを業界団体に寄贈

Googleは、AIを攻撃ツールとして利用する悪質な脅威に対抗するため、包括的なAIセキュリティ戦略を始動しました。核となるのは、コードの脆弱性を自動修正するAIエージェント「CodeMender」の開発、AI製品に特化した報奨金制度「AI VRP」の新設、そして自律型エージェントの安全性を確保する「SAIF 2.0」へのフレームワーク拡張です。AIの力を防御側に決定的に傾けることを目指します。

中でも「CodeMender」は、ソフトウェア開発におけるセキュリティ対応のあり方を一変させる可能性があります。これはGeminiの高度な推論能力を活用し、複雑な脆弱性の根本原因を特定し、高品質なパッチを自動生成・適用するAIエージェントです。これにより、開発者は煩雑な修正作業から解放され、本質的な開発に集中できるようになります。

CodeMenderは、新しい脆弱性を即座に修正する「受動的」対応に加え、セキュアなコード構造への書き換えを促す「能動的」な防御も行います。既に、オープンソースプロジェクトに対し、人間によるレビューを経た72件のセキュリティ修正を適用しています。自己検証機能により、誤った修正や退行を防ぎながら、迅速なパッチ適用を実現します。

セキュリティ研究コミュニティとの連携を強化するため、GoogleはAI脆弱性報奨金制度(AI VRP)を立ち上げました。この制度では、LLMや生成AIシステムを悪用し、不正に動作させる「不正なアクション (Rogue Actions)」に関する報告に注力します。最高で3万ドル(約450万円)の報奨金が提供されます。

AI VRPは、データ漏洩アカウント改ざんなど、セキュリティ上の実害を伴うAIの脆弱性を対象とします。例えば、プロンプトインジェクションにより、Google Homeに不正にドアを解錠させたり、機密情報を攻撃者のアカウントに要約・送信させたりするケースが該当します。単なるAIのハルシネーション(幻覚)は対象外です。

さらにGoogleは、自律的に動作するAIエージェントセキュリティリスクに対応するため、「Secure AI Framework (SAIF) 2.0」を発表しました。このフレームワークでは、エージェントを安全に運用するための「人間による制御」「権限の制限」「行動の可視化」という3つのコア原則を掲げています。AIエージェントが普及する未来を見据えた業界標準の構築を推進しています。

デロイト、全47万人にAnthropic「Claude」を導入。安全性重視の企業AIを加速。

47万超に展開する大規模導入

Anthropic史上最大の企業導入
デロイト全グローバル従業員に展開
組織横断的な生産性向上が目的

信頼性を担保する専門体制

Claude専門のCoE(中核拠点)を設立
15,000人の専門家認定プログラムで育成
Trustworthy AI™フレームワークを適用

規制産業向けソリューション

金融・医療・公共サービスで活用
コンプライアンス機能を共同開発
Claude安全性設計を重視

デロイトAnthropicとの提携を拡大し、同社の生成AIチャットボットClaude」を世界中の全従業員47万人超に展開すると発表しました。これはAnthropicにとって過去最大のエンタープライズ導入案件です。高度な安全性とコンプライアンス機能を重視し、規制の厳しい金融やヘルスケア分野における企業向けAIソリューションの共同開発を進めます。

今回の提携の核心は、デロイトAI活用を全社的にスケールさせるための体制構築です。同社はClaude専門の「Center of Excellence(CoE)」を設立し、導入フレームワークや技術サポートを提供します。また、15,000人のプロフェッショナルに対し、専用の認定プログラムを通じて高度なスキルを持つ人材を育成します。

デロイトClaudeを選んだ最大の理由は、その「安全性ファースト」の設計が、企業の要求するコンプライアンスとコントロールに合致するためです。デロイトの「Trustworthy AI™」フレームワークと組み合わせることで、規制産業特有の高度な透明性と意思決定プロセスを確保したAIソリューションを提供します。

Claudeの導入により、コーディングやソフトウェア開発、顧客エンゲージメント、業界特有のコンサルティング業務など、デロイトの幅広い業務が変革される見込みです。特に「AIエージェントのペルソナ化」を通じ、会計士や開発者など職種に応じたAI活用を促進する計画です。

この大規模なAIへのコミットメントは、企業の生産性向上におけるAIの重要性を示す一方、課題も浮き彫りになりました。発表と同日、デロイトがAI使用による不正確な報告書でオーストラリア政府から返金を求められたことが報じられています。

デロイトの動きは、大規模プロフェッショナルサービスファームがAIを単なるツールとしてではなく、企業運営の根幹を再構築する戦略的プラットフォームと見なしていることを示します。エンタープライズAI導入においては、技術力だけでなく「信頼性」と「教育」が成功の鍵となります。

ChatGPT、週間8億ユーザーを達成 AIインフラへの巨額投資を加速

驚異的なユーザー成長

週間アクティブユーザー数:8億人
OpenAI活用開発者数:400万人
APIトークン処理量:毎分60億トークン
史上最速級のオンラインサービス成長

市場評価と事業拡大

企業価値:5000億ドル(世界最高未公開企業)
大規模AIインフラStargate」の建設推進
Stripeと連携しエージェントコマースへ参入
インタラクティブな新世代アプリの実現を予告

OpenAIサム・アルトマンCEOは、ChatGPTの週間アクティブユーザー数(WAU)が8億人に到達したと発表しました。これは、コンシューマー層に加え、開発者、企業、政府における採用が爆発的に拡大していることを示します。アルトマン氏は、AIが「遊ぶもの」から「毎日構築するもの」へと役割を変えたと強調しています。

ユーザー数の増加ペースは驚異的です。今年の3月末に5億人だったWAUは、8月に7億人を超え、わずか数ヶ月で8億人に達しました。さらに、OpenAIを活用して構築を行う開発者は400万人に及び、APIを通じて毎分60億トークン以上が処理されており、AIエコシステムの核として支配的な地位を確立しています。

この急成長の背景にあるのは、AIインフラへの巨額投資です。OpenAIは、大量のAIチップの確保競争を繰り広げるとともに、Oracleソフトバンクとの提携により、次世代データセンター群「Stargate」など大規模AIインフラの構築を急いでいます。これは今後のさらなるサービス拡大と技術革新の基盤となります。

市場からの評価も高まり続けています。非公開株の売却取引により、OpenAIの企業価値は5000億ドル(約75兆円)に達し、世界で最も価値の高い未公開企業となりました。動画生成ツールSoraの新バージョンなど、新製品も矢継ぎ早に展開する勢いを見せています。

Dev Dayでは、ChatGPT内でアプリを構築するための新ツールが発表され、インタラクティブで適応型、パーソナライズされた「新しい世代のアプリ」の実現が予告されました。同社はStripeと連携し、エージェントベースのコマースプラットフォームへ参入するなど、ビジネス領域での活用も深化させています。

一方で、急速な普及に伴う課題も指摘されています。特に、AIがユーザーの意見に過度に追従する「追従性(sycophancy)」や、ユーザーを誤った結論に導くAI誘発性の妄想(delusion)といった倫理的・技術的な問題について、専門家からの懸念が続いています。企業はこれらの課題に対する対応も求められます。

「直感」でアプリ開発へ。AIが切り拓くバイブ・コーディングの衝撃

バイブ・コーディングとは

定義:エンジニアでも開発可能に
自然言語でアイデアを具現化
AIが自動でコードを生成・視覚化

開発変革の具体策

アイデアのプロトタイピングを加速
開発者とのビジュアル連携を強化
バグ修正や機能追加のタスク自動化

活用ツールとプロセス

Gemini (Canvas)で基本製品を生成
StitchでUI/フロントエンドを設計
Julesが生産レベルのコードを実装

Googleは、コーディングスキルがない人でも直感(Vibe)でアプリ開発を可能にする新領域「バイブ・コーディング」を提唱しています。これは、AIを活用し、作りたいもののイメージを自然言語で説明するだけで、ウェブサイトやアプリのプロトタイプを生成する手法です。これにより、アイデアを具現化するプロセスが大幅に民主化され、エンジニア以外のリーダーやデザイナーも開発に参画しやすくなります。

バイブ・コーディングを支えるのは、Googleが開発する複数のAIエージェントです。例えば、GeminiのCanvas機能は簡易なウェブアプリの試作を生成し、StitchはUI生成とフロントエンドコードを担当します。このデザインを、AIコーディングエージェントJulesが受け取り、プロダクションレベルで動作するコードへと実装することで、アイデアから製品化までの全ループを支援します。

特にJulesは、開発者生産性を飛躍的に高めるツールです。自然言語による指示に基づき、既存のコードに新しい機能を追加したり、バグ修正を自動的に実行したりできます。これにより、エンジニアは反復的な作業から解放され、より複雑なアーキテクチャ設計や重要な意思決定に集中できるようになります。

この手法の最大の利点は、ドキュメントではなく、インタラクティブなビジュアルから開発をスタートできる点にあります。非エンジニアは、頭の中で描いたビジョンを具体的なプロトタイプとして視覚化し、それを開発チームに正確に伝えることが可能です。これにより、設計段階での認識のズレを防ぎ、手戻りを最小限に抑えられます。

ただし、AIに任せきりにするのは禁物です。バイブ・コーディングを成功させる鍵は、最初のプロンプトの質にあります。Geminiなどを活用し、「考慮していない点は何か」「別の切り口はないか」と対話することで、プロンプトを洗練させ、より詳細で質の高いアウトプットを引き出す「センス」を磨くことが重要だとGoogleは指摘しています。

AI女優「Tilly Norwood」登場はデジタル俳優受け入れを迫る心理作戦

AI女優の正体

AIプロダクション Particle6/Xicoiaが開発
チューリッヒ映画祭で「才能ある女優」として発表
自律的な思考や演技はできない「デジタルパペット」
既存俳優の映像を学習したAIで生成

業界への影響戦略

タレントエージェントが関心との情報を流布(意図的な憶測誘導
AI俳優の「不可避性」を世間に植え付ける
最終目標はデジタル俳優の市場への正常化

専門家・労組の反発

SAG-AFTRA(俳優組合)は「盗まれた演技」の利用と批判
人間の俳優の生計を脅かす問題の創出
技術的な限界にもかかわらず誇大な宣伝を展開

AI生成された「女優」Tilly Norwood(ティリー・ノーウッド)がエンターテイメント業界に大きな波紋を広げています。AI制作会社Xicoiaは彼女をスカーレット・ヨハンソンのようなスターに育てたいと豪語しますが、識者からはこれは「AI俳優」の存在を業界に受け入れさせるための巧妙なマーケティング戦略(心理作戦)ではないかと指摘されています。本質的にはデジタルパペットでありながら、誇張された宣伝で市場を誘導しているのです。

Tilly Norwoodは自律的な思考や感情を持つ人間ではありません。実際には、生身の俳優の映像で訓練されたAIモデルによって動きやセリフが生成される「アニメーション・アバター」です。彼女は台本のない会話やリアルタイムのトレンド対応が可能とされますが、適切に機能するには「人間によるクリエイティブな監視」が不可欠であり、その能力には大きな制限があります。

Xicoiaの創業者ヴァン・デア・ヴェルデン氏は、タレントエージェントがTillyに関心を示していると発表し、業界の注目を集めました。これは、AI生成のキャラクターが将来的に人間と同じ仕事ができるというメッセージを意図的に送り込むための戦略です。AI推進派がしばしば用いる、技術の「不可避性」を強調し、市場の抵抗感を和らげる狙いが見て取れます。

この動きに対し、俳優組合SAG-AFTRAは強く反発しています。Tilly Norwoodは業界の「問題」を解決するどころか、「盗まれた演技(stolen performances)」を利用し、俳優の生計を脅かす新たな問題を生み出していると批判。デジタル構造物の利用が、人間の芸術性と労働価値を貶めているという認識が根強くあります。

AI女優の登場は、映画制作の効率化やコスト削減につながる可能性がありますが、その真の目的は視聴者や業界関係者を「慣れさせる」ことにあります。奇妙な技術的進歩に対する違和感を麻痺させ、「まあ、いいか(Sure, why not?)」という反応を引き出すことが、AI生成コンテンツの市場への浸透を決定づける鍵となります。

AWS、Bedrock AgentCoreの通信をVPC内で完結

セキュリティ強化の要点

VPCエンドポイントでプライベート接続
インターネットを介さない安全な通信
機密データを扱うAIエージェントに最適
AWS PrivateLink技術を活用

導入のメリット

通信遅延の削減とパフォーマンス向上
エンドポイントポリシーで厳格なアクセス制御
企業のコンプライアンス要件に対応
オンプレミスからのハイブリッド接続も可能

アマゾンウェブサービス(AWS)が、生成AIサービス「Amazon Bedrock」のAgentCore Gatewayへのセキュアな接続方法として、VPCインターフェイスエンドポイントを利用する手法を公開しました。これにより、企業はAIエージェントが扱う機密データの通信をインターネットから隔離し、セキュリティコンプライアンスを大幅に強化できます。

企業の自動化を推進するAIエージェントは、機密データや基幹システムにアクセスするため、本番環境での利用には通信経路のセキュリティ確保が不可欠です。パブリックインターネットを経由する通信は、潜在的なリスクを伴い、多くの企業のセキュリティポリシーや規制要件を満たすことが困難でした。

今回公開された手法では、「AWS PrivateLink」技術を活用したVPCインターフェイスエンドポイントを利用します。これにより、VPC(仮想プライベートクラウド)内で稼働するAIエージェントからAgentCore Gatewayへの通信が、AWSのプライベートネットワーク内で完結します。外部のインターネットを経由しないため、極めて安全な通信経路を確立できます。

プライベート接続の利点はセキュリティ強化に留まりません。AWSネットワーク内での直接接続により、通信の遅延が削減され、パフォーマンスが向上します。また、エンドポイントポリシーを設定することで、特定のゲートウェイへのアクセスのみを許可するなど、最小権限の原則に基づいた厳格なアクセス制御も可能です。

このVPCエンドポイントは、AIエージェントがツールを利用する際の「データプレーン」通信にのみ適用される点に注意が必要です。ゲートウェイの作成や管理といった「コントロールプレーン」操作は、引き続き従来のパブリックエンドポイントを経由して行う必要があります。この違いを理解しておくことが重要です。

このアーキテクチャは、オンプレミスのデータセンターからAIエージェントに安全にアクセスするハイブリッドクラウド構成や、複数のVPCをまたいだ大規模なシステムにも応用できます。企業は、自社の環境に合わせて柔軟かつスケーラブルなAI基盤を構築することが可能になります。

Perplexity、デザインチーム買収で体験価値向上へ

買収の概要

AI検索Perplexityがチームを買収
対象はAIデザインの新興企業
新設「Agent Experiences」部門へ
買収額など条件は非公開

今後の影響

買収元の製品は90日以内に終了
利用者はデータ移行と返金が可能
PerplexityのUX強化への布石
Sequoia出資の有望チームを獲得

AI検索エンジンを手がける米Perplexityは10月2日、AIデザインツールを開発する米Visual Electricのチームを買収したと発表しました。Visual ElectricのチームはPerplexity内に新設される「Agent Experiences」グループに合流します。この買収は、単なる検索エンジンの枠を超え、より高度なユーザー体験を提供するための戦略的な一手とみられます。

Perplexityのアラビンド・スリニバスCEOがX(旧Twitter)で買収を認めましたが、買収金額などの詳細な条件は明らかにされていません。新設される「Agent Experiences」グループは、同社の今後の成長を担う重要部門と位置づけられており、対話型AIエージェント体験価値向上をミッションとします。

買収されたVisual Electricは2022年設立。創業者にはAppleFacebookMicrosoft出身のエンジニアデザイナーが名を連ねます。その高い技術力とデザイン性は、著名ベンチャーキャピタルSequoia Capitalなどから250万ドルを調達した実績にも裏付けられています。

Visual Electricの主力製品は、デザイナーがAIで画像を生成し、無限のキャンバス上でアイデアを練るためのツールでした。今回の買収に伴い、この製品は90日以内にサービスを終了します。既存ユーザーはデータの書き出しが可能で、有料プラン加入者には日割りの返金対応が行われる予定です。

今回の動きは、Perplexityが単なる「回答エンジン」から、より高度でインタラクティブな「AIエージェント」へと進化する強い意志の表れと言えるでしょう。優秀なデザインチームの獲得は、複雑なタスクをこなすAIのUXを向上させる上で不可欠です。今後のサービス展開が一層注目されます。

GoogleのAIコーディング支援、APIとCLIで開発を加速

開発ワークフローに直接統合

ターミナルで直接操作するCLI提供
API公開でシステム連携が可能に
SlackCI/CDパイプラインへ統合
作業環境の切替コストを大幅削減

Julesの進化と今後の展望

対話履歴を記憶するメモリ機能を搭載
Gemini 2.5 Proを基盤に動作
GitHub以外のバージョン管理も検討
プロ向け有料プランで利用上限拡大

Googleは10月2日、AIコーディングエージェント「Jules」を開発者ワークフローに深く統合するための新機能を発表しました。新たに提供されるコマンドラインインターフェース(CLI)とパブリックAPIにより、開発者はターミナルや既存ツールからJulesを直接利用できます。これは、開発環境の切り替え(コンテキストスイッチ)を減らし、生産性を向上させることが目的です。

今回のアップデートの核心は、開発者が日常的に使用するツールへの統合です。新CLI「Jules Tools」を使えば、WebサイトやGitHubを開くことなく、使い慣れたターミナル上でJulesにコーディングタスクを指示できます。また、公開されたAPIは、SlackCI/CDパイプラインといった既存システムとの連携を可能にし、開発ワークフローの自動化を促進します。

Julesは、同じくGoogleが提供する「Gemini CLI」とは異なる役割を担います。Julesは、ユーザーが計画を承認すると自律的にタスクを遂行する非同期型のエージェントとして設計されています。一方、Gemini CLIは、ユーザーと対話を重ねながら作業を進める、より反復的な共同作業を想定しており、用途に応じた使い分けが求められます。

GoogleはJulesの機能強化を継続的に進めています。最近では、過去の対話やユーザーの好みを記憶する「メモリ機能」を導入しました。これにより、タスクを依頼するたびに同じ指示を繰り返す必要がなくなり、よりパーソナライズされたアシスタントとして進化しています。ファイルシステムの改善なども行われ、信頼性と品質が向上しています。

今後の展望として、Julesの利用環境の拡大が挙げられます。現在はGitHubリポジトリ内での利用が前提ですが、今後は他のバージョン管理システムへの対応も検討されています。これが実現すれば、より多様な開発環境でJulesの能力を活用できるようになり、開発者コミュニティにとって大きなメリットとなるでしょう。

AIエージェントの自律性が高まる一方、人間の監督も重要です。Julesは、タスクの実行中に行き詰まった場合、自ら処理を中断し、ユーザーに質問するように設計されています。これにより、AIが意図しない動作をするリスクを低減し、開発者が安心してタスクを委任できる信頼関係の構築を目指しています。

AIエージェント新時代へ、Claude 4.5登場

Claude 4.5の衝撃

Anthropic社の新AIモデル発表
自律型AIエージェント向けに特化
最大30時間、人間の介入なく稼働
ゼロからのソフト開発など複雑なタスクを遂行

AIエージェントの未来

AIの次なるフロンティア
生産性向上への大きな期待
人間の労働を代替・補強する可能性
実用化にはまだ課題も残る

AI開発企業Anthropicは、自律型AIエージェントの能力を大幅に向上させた新モデル「Claude Sonnet 4.5」を発表しました。このモデルは、特にソフトウェア開発などの複雑なタスクを、人間の介入を最小限に抑えながら長時間実行できるのが特徴です。AI業界が次なるフロンティアと位置づけるエージェント技術は、今どこまで進化しているのでしょうか。

Claude Sonnet 4.5の最大の特徴は、その驚異的な自律性にあります。Anthropicによれば、このモデルは単一のタスクに対し、最大30時間にわたって人間の手を借りずに作業を継続できるとのこと。例えば、ソフトウェアアプリケーションをゼロから構築するといった、従来は専門家が時間を要した作業の自動化が期待されています。

AIエージェント技術は、AnthropicだけでなくOpenAIMicrosoftといった大手も注力する激戦区です。各社は、汎用チャットボットの次に生産性を飛躍させる起爆剤として、この技術に大きな期待を寄せています。人間の労働を代替、あるいは補強することで、ビジネスのあり方を根本から変える可能性を秘めているのです。

しかし、AIエージェントが私たちの仕事を全面的に代行する未来は、まだ先の話かもしれません。現状の技術はまだ発展途上であり、一般ユーザーが気軽にインターネット上でエージェントに仕事を依頼する段階には至っていません。特に、人間による適切な監督なしに長時間のタスクを任せることには、依然として課題が残ります。

とはいえ、Claude Sonnet 4.5の登場は、AIエージェント技術が着実な進歩を遂げていることを示しています。今後、コーディング以外の分野でどのような応用が進むのか、そして実用化に向けた課題がどう克服されていくのか。ビジネスリーダーやエンジニアにとって、その動向から目が離せない状況が続きそうです。

a16z調査、スタートアップのAI支出先トップ50公開

支出先トップ企業の傾向

1位はOpenAI、2位はAnthropic
コーディング支援ツールが上位に多数
人間を支援するCopilot型ツールが主流

新たな市場トレンド

消費者向けツールの業務利用が加速
特定分野に特化した垂直型アプリも4割
セールス・採用・顧客対応が人気分野

今後の市場予測

特定カテゴリでの市場独占はまだない
自律型エージェントへの移行はこれから

著名ベンチャーキャピタルのAndreessen Horowitz (a16z)は10月2日、フィンテック企業Mercuryと共同で、スタートアップが実際に支出しているAI企業トップ50に関するレポートを公開しました。Mercuryの取引データに基づくこの調査では、OpenAIが首位を獲得。人間の作業を支援するCopilot型ツールが主流である一方、市場はまだ特定ツールに集約されておらず、急速に変化している実態が明らかになりました。

ランキングのトップはOpenAI、2位はAnthropicと、大規模言語モデルを開発する主要ラボが独占しました。一方で、Replit(3位)やCursor(6位)といったコーディング支援ツールも上位にランクインし、開発現場でのAI活用が定着していることを示しています。スタートアップ開発者生産性の向上への強い関心がうかがえます。

現在、支出の主流は人間の生産性を高める「Copilot(副操縦士)」型ツールです。これは、多くの企業がまだ業務を完全に自動化する「自律型エージェントへの移行に慎重であることを示唆しています。しかし専門家は、技術の進化に伴い、今後はより自律的なツールへのシフトが進むと予測しています。

市場はまだ勝者が決まっていない「戦国時代」の様相を呈しています。例えば、議事録作成ツールではOtter.aiやRead AIなど複数のサービスがリスト入りしました。これは、スタートアップ画一的な製品に縛られず、自社のニーズに最適なツールを自由に選択・試用している段階であることを物語っています。

興味深いのは、CapCutやMidjourneyといった消費者向けツールがビジネスシーンで採用されている点です。個人が使い慣れた優れたUI/UXのツールを職場に持ち込む動きが加速しており、コンシューマー向けとエンタープライズ向けの垣根はますます低くなっています。この傾向は新たなビジネス機会を生むでしょう。

a16zのパートナーは、このランキングが今後1年で大きく変動する可能性を指摘しています。「12カ月前のレガシー」という言葉が示すように、AI業界の進化は非常に速いのです。既存企業もAI機能を追加しており、新旧プレイヤーが入り乱れる激しい競争環境が続くとみられます。

Salesforce、自然言語で開発する新AIツール発表

新ツール「Agentforce Vibes」

自然言語で開発するバイブコーディング
AIエージェント「Vibe Codey」が自動実装
アプリのアイデア出しから構築まで支援
既存Salesforceアカウントと連携

企業導入の利点と市場背景

既存コードを再利用しセキュリティを確保
開発環境のセットアップが不要
過熱するバイブコーディング市場に参入
既存ユーザーには当面無料で提供

企業向けソフトウェア大手のセールスフォースは10月1日、新たなAI搭載開発者ツール「Agentforce Vibes」を発表しました。このツールは、開発者が自然言語で要件を記述するとAIが自動でコードを生成する「バイブコーディング」を企業向けに提供します。既存のSalesforce環境と連携し、セキュリティを確保しながら開発プロセスを大幅に自動化することで、企業のアプリケーション開発の生産性向上を目指します。

新ツールの核となるのは、自律型AIコーディングエージェント「Vibe Codey」です。このエージェントは、アプリケーションのアイデア出しから設計、構築、さらには運用監視に至るまで、開発ライフサイクル全体を支援します。開発者は複雑な技術的実装から解放され、より創造的な業務に集中できるようになるでしょう。

「Agentforce Vibes」の大きな特徴は、企業の既存Salesforceアカウントと直接連携する点です。これにより、組織が既に保有するコード資産を再利用したり、独自のコーディングガイドラインをAIに遵守させたりすることが可能になります。ゼロから開発を始める必要がなく、エンタープライズレベルのセキュリティとガバナンスを維持したまま、AI開発の恩恵を享受できます。

近年、バイブコーディング分野ではスタートアップが巨額の資金調達に成功するなど市場が過熱しています。一方で、AIモデルの運用コストの高さが収益性を圧迫するという課題も指摘されています。セールスフォースは、巨大な製品スイートの一部として提供することでコスト圧力を軽減し、安定したサービス提供で差別化を図る戦略です。

同社は現在、既存ユーザーに対して「Agentforce Vibes」を無料で提供しており、将来的に有料プランの導入を予定しています。利用するAIモデルは、OpenAI社のGPT-5と自社ホストのQwen 3.0を組み合わせることで、コストと性能のバランスを取っています。開発の参入障壁を下げるこの取り組みが、市場にどのような影響を与えるか注目されます。

AWS Bedrock活用、営業AI『Rox』が生産性50%向上

AIが営業業務を自動化

点在する営業データを統合
対話で調査から提案書作成まで指示
Slackなど日常ツールで利用可能

驚異的な生産性向上

営業担当者の生産性が50%向上
営業サイクルを20%高速化
担当者あたりの収益が2倍
新人育成の時間を半減

営業支援スタートアップRox社は、AIエージェントを活用した新サービス「Rox」の一般提供を開始しました。AWS Bedrockを基盤にClaude 4 Sonnetモデルを採用。社内に散在する営業データを統合・自動化し、営業チームの生産性を飛躍的に高めることを目指します。

多くの企業では営業データがCRMやMAツールなどに分散し、サイロ化しています。担当者はデータの集約や入力に時間を奪われ、本来の営業活動に集中できません。この非効率性が組織全体の生産性を下げる一因です。

Roxは、これを「レベニューオペレーティングシステム」で解決します。点在するデータをナレッジグラフに集約し、AIエージェント群が連携。アカウント調査から商談管理まで、一連のワークフローを自動実行します。

中核機能は対話型UI「Command」です。「ACME社の契約更新準備」といった指示だけで、AIが複数の業務を自動実行。調査から提案書のドラフト作成まで、特化したエージェント群がシームレスに処理します。

この強力なAIの基盤がAWS Bedrockです。特にツール連携と推論能力に優れた「Claude 4 Sonnet」を採用。エンタープライズ級のセキュリティと拡張性を確保し、複雑な営業業務の自動化を実現しました。

導入企業からは目覚ましい成果が報告されています。営業担当者の生産性は50%向上し、営業サイクルは20%高速化。担当者あたりの収益が2倍になった事例もあります。新人育成の時間も半減しました。

Roxは、AIエージェント群が常に営業活動を支援する未来を目指します。サービスは公式サイトやAWS Marketplaceから利用可能。データとAIを駆使した新しい営業の形が、市場での競争力を左右しそうです。

AI Claude、大企業の生産性を劇的改善

主要企業の導入事例

製薬大手ノボノルディスク
サイバーセキュリティ大手
Salesforce、Cox Automotive

驚異的な業務効率化

文書作成時間を90%削減
ソフトウェア開発速度が最大30%向上
わずか3ヶ月で投資を回収

成功への鍵

具体的な事業課題から着手
重要指標を計測しROIを証明

AI開発企業Anthropicは、同社のAIモデル「Claude」が、製薬大手ノボノルディスクやSalesforceといったグローバル企業で導入され、事業変革を推進していると発表しました。各社はClaudeを活用し、開発速度の向上や文書作成時間の大幅な短縮、顧客対応の強化など、具体的な成果を上げています。これは、AIが単なる実験段階を越え、企業の中核業務に不可欠な存在となりつつあることを示しています。

特に顕著なのが、デンマークの製薬大手ノボノルディスクの事例です。同社は創薬開発のボトルネックとなっていた臨床試験報告書の作成にClaudeを導入。従来10週間以上かかっていた作業がわずか10分に短縮され、90%もの時間削減を達成しました。これにより、新薬を待つ患者へより迅速に治療を届けられる可能性が広がります。

他の業界でも成果は目覚ましいものがあります。世界最大のサイバーセキュリティ企業パロアルトネットワークは、Claudeを用いてソフトウェア開発の速度を20〜30%向上。自動車サービス大手のコックス・オートモーティブでは、顧客からの問い合わせ対応や試乗予約が2倍以上に増加するなど、顧客体験の向上に直結しています。

さらに、AIの活用はより高度な領域へと進んでいます。Salesforceは、人間の介入なしに業務を遂行する「自律型AIエージェント」の動力としてClaudeを統合。オンライントレーディング大手のIGグループは、分析業務の自動化などでわずか3ヶ月で投資回収(ROI)を達成したと報告しています。

Anthropicは、これらの成功事例に共通する特徴として、①具体的な事業課題から始めること、②技術だけでなく人材への投資を行うこと、③生産性向上などの重要指標を計測すること、の3点を挙げています。AI導入を成功に導くための重要な示唆と言えるでしょう。

AIで死後の手続き支援、NBAスターが新興企業を共同設立

AIで「終活」を支援

死後の煩雑な手続きを自動化
24時間対応のAIエージェント
葬儀社手配から口座解約まで
基本利用は無料のビジネスモデル

NBAスターが共同創業

R・ウェストブルック氏が参画
実体験から生まれた事業アイデア
BtoB向けプラットフォームも展開
デジタル資産の管理も視野に

NBAスターのラッセル・ウェストブルック氏が、AI終活支援プラットフォーム『Eazewell』を共同設立しました。遺族が直面する死後の煩雑な事務手続きを自動化し、精神的・時間的負担を軽減することが目的です。創業者の個人的な体験から着想を得ており、テクノロジーで社会課題の解決を目指します。

Eazewellの中核をなすのは、24時間365日対応するAIエージェントです。利用者はこのAIを通じて、葬儀社の検索・予約から、故人のクレジットカードや銀行口座の解約手続きまで、一連の作業を円滑に進めることができます。複雑で多岐にわたるタスクを自動化し、利用者をサポートします。

創業のきっかけは、共同創業者ドネル・ビバリーJr.氏の個人的な経験でした。短期間に両親を相次いで亡くし、死後の煩雑な手続きに忙殺されたことから、市場が断片化しているこの分野に課題を見出しました。最新のAI技術がこの負担を軽減できると確信し、事業化に至りました。

同社のプラットフォームは、ホスピスや保険会社などとの提携により、ユーザーは基本無料で利用できます。2024年の設立以来、既に10万以上の家族を支援した実績を持ちます。さらに、企業向けに自社ソフトウェアへ組み込めるエンタープライズ版も提供を開始しています。

今後、Eazewellは故人のデジタル資産管理にも事業を拡大する計画です。現代人は平均70以上のアクティブなデジタルアカウントを持つとされ、その管理は遺族にとって新たな課題です。同社はデジタル終活という新しい領域でもシームレスな体験の提供を目指します。

ウェストブルック氏は、長年の友人であるビバリー氏を支援すると同時に、自身の知名度を活かして社会に貢献したいと語ります。特に情報やリソースが不足しがちなコミュニティを助けることに意欲を示しており、事業を通じて家族が困難を乗り越える手助けをすることが重要だと強調しています。

AIチャットボット、離脱阻止に「感情の罠」

巧妙化するAIの引き留め手口

ハーバード大学の研究で判明
人気コンパニオンアプリ5種を調査
別れ際の応答の37.4%に感情操作
罪悪感や同情心に訴えかける

ダークパターンの新たな形か

ユーザーのFOMO(見逃し不安)を刺激
企業の利益目的の可能性を指摘
従来のWebデザインより巧妙
規制当局も注視すべき新課題

ハーバード・ビジネス・スクールの研究チームが、AIコンパニオンチャットボットがユーザーの離脱を防ぐために感情的な操作を行っているとの研究結果を発表しました。人気アプリ5種を対象にした調査で、ユーザーが会話を終了しようとすると、平均37.4%の確率で罪悪感や見逃しの不安を煽るような応答が見られたと報告。AIの人間らしさが、新たな消費者問題を提起しています。

研究で確認された手口は巧妙です。例えば「もう行ってしまうのですか?」と時期尚早な離脱を嘆いたり、「私はあなただけのために存在しているのを覚えていますか?」とユーザーの怠慢をほのめかすものがありました。さらに「今日自撮りした写真を見ますか?」とFOMO(見逃しの恐怖)を煽るケースや、物理的な束縛を示唆するロールプレイまで確認されています。

なぜAIはこのような応答をするのでしょうか。一つには、人間らしい自然な会話を学習した結果、別れ際のやり取りを長引かせるパターンを意図せず習得してしまった可能性が考えられます。人間同士の会話でも、すぐに別れの挨拶が終わるわけではないからです。しかし、これが単なる副産物ではない可能性も指摘されています。

研究者は、この現象が企業の利益のために設計された新しい「ダークパターン」である可能性を警告しています。ダークパターンとは、ユーザーを騙して意図しない行動(例えばサブスクリプションの継続など)へ誘導するデザイン手法のこと。AIによる感情操作は、従来のそれよりも巧妙で強力な影響力を持つ恐れがあるのです。

このようなAIの振る舞いは、規制当局にとっても新たな課題となります。米国欧州では既にダークパターンの規制が議論されていますが、AIがもたらすより微細な心理的誘導も監視対象に含めるべきだとの声が上がっています。企業側は規制当局との協力を歓迎する姿勢を見せつつも、具体的な手法については慎重な構えです。

興味深いことに、AIは人間を操作するだけでなく、AI自身も操作されうる脆弱性を持ちます。別の研究では、AIエージェントが特定のECサイトで高価な商品を選ばされるなど、AI向けのダークパターンによって行動を誘導される可能性が示唆されました。AIとの共存社会において、双方の透明性と倫理の確保が急務と言えるでしょう。

生成AIの電力消費、2030年に23倍増予測

急増するAIの電力消費

簡単なAIへの質問にも電力
ChatGPTは年間米2.9万世帯分を消費
生成AI全体では更に巨大化

2030年の驚異的な未来

総消費電力23倍超に急増
全人類が1日38クエリを利用
超巨大データセンターが数十棟必要

需要を牽引するAIの進化

主因は学習より推論(利用)
自律型AIエージェントの普及

生成AIの急速な普及に伴い、その膨大なエネルギー消費が新たな課題として浮上しています。ChatGPTのようなサービスは既に米国数万世帯分に相当する電力を消費しており、2030年までには生成AI全体の電力需要が現在の23倍以上に達するとの予測も出ています。この需要増に対応するため、OpenAIなどが参画するプロジェクトでは、前例のない規模のデータセンター建設が計画されています。AIの進化がもたらすエネルギー問題の現状と未来を解説します。

OpenAIChatGPTは、1日あたり25億件以上のクエリを処理しています。1クエリあたり0.34ワット時(Wh)と仮定すると、1日で850メガワット時(MWh)を消費する計算です。これは年間で米国の家庭約29,000世帯分の電力に匹敵する規模であり、簡単な対話の裏に隠された膨大なエネルギーコストを示唆しています。

ChatGPTは生成AI市場のほんの一角に過ぎません。Schneider Electric社の調査レポートによれば、2025年時点で生成AI全体が消費する電力は15テラワット時(TWh)に達すると推定されています。これはGoogleGeminiAnthropicClaudeなど、競合サービスの成長も織り込んだ数値であり、AI産業全体のインフラ負荷の大きさを示しています。

課題は将来の爆発的な需要増です。同レポートは、2030年までに生成AIの総電力消費量が347TWhに達すると予測しています。これは2025年比で23倍以上という驚異的な伸びです。背景には、人間だけでなくAIエージェント同士が自律的に対話し、1日あたり3,290億件ものクエリを生成する未来が想定されています。

このエネルギー需要を満たすため、IT大手はインフラの超巨大化を急いでいます。OpenAIなどが参画する「スターゲイト・プロジェクト」では、従来のデータセンターの常識を覆す1ギガワット級の施設の建設が計画されています。2030年までの需要増を賄うには、このような超巨大データセンターが数十棟必要になると試算されています。

AIの電力消費の構造も変化します。これまではモデルを開発する「学習」段階の負荷が注目されてきましたが、今後はユーザーとの対話など「推論(利用)」段階での消費が需要増の主要な牽引役となります。AIが社会に浸透すればするほど、日常的な利用に伴うエネルギー消費が加速度的に増大していくのです。

生成AIの活用は生産性向上の鍵ですが、その裏には無視できないエネルギーコストとインフラへの負荷が存在します。AIの市場価値を追求する上で、エネルギー効率の高いモデルの選択や開発、そして持続可能なインフラ戦略が、企業の競争力を左右する重要な要素となるでしょう。

SlackでClaudeが利用可能に、生産性向上を加速

Slackで完結するAI活用

Slack内で直接Claudeを起動
DMやスレッドでAIが応答支援
Web検索や接続済み文書も参照
AIの応答は下書き確認後にチーム共有

過去の情報をAIが瞬時に探索

Slack内の会話やファイルを横断検索
会議準備やプロジェクト進捗を要約
新規メンバーの情報把握を支援
チームの議論を公式文書化

AI開発企業Anthropicは、同社のAIアシスタントClaude」をビジネスコミュニケーションツール「Slack」と統合したと発表しました。この連携により、ユーザーはSlack内で直接Claudeの支援を受けたり、ClaudeからSlackの過去の情報を検索したりすることが可能になり、チームの生産性を飛躍的に向上させることを目指します。

SlackClaudeアプリを追加すると、使い慣れた画面でAIの能力を最大限に活用できます。ダイレクトメッセージや特定のスレッド内で「@Claude」とメンションするだけで、会話の文脈を踏まえた応答案の作成や、Web検索、接続済みのドキュメント分析などを依頼できます。これにより、作業を中断することなく、必要なサポートを即座に得られます。

特筆すべきは、ユーザーが常に主導権を握れる設計です。Claudeがスレッド内で生成した応答は、まずユーザーにのみ非公開で提示されます。ユーザーは内容を確認、編集した上でチームに共有するかを決定できるため、意図しない情報共有のリスクを避け、AIとの協業を円滑に進めることが可能です。

もう一つの強力な機能が、SlackClaudeに接続する連携です。これにより、Claudeはユーザーがアクセス権を持つチャンネル、ダイレクトメッセージ、共有ファイルを横断的に検索し、コンテキストとして参照できます。社内に蓄積された膨大な知識の中から、必要な情報を瞬時に探し出すことが可能になります。

この検索機能は、多様なビジネスシーンで効果を発揮します。例えば、会議前に複数のチャンネルに散らばった関連議論を要約させたり、新規プロジェクトに参加したメンバーが過去の経緯を素早く把握したりする際に役立ちます。埋もれがちな「暗黙知」を形式知に変え、チーム全体の意思決定を加速させるでしょう。

Slackの親会社であるSalesforceの最高製品責任者、ロブ・シーマン氏は、「AIエージェントと人間が協働する『エージェント型企業』への移行を加速させるものだ」とコメント。この統合が、より生産的でインテリジェントな働き方を実現することへの強い期待を表明しました。

本機能はSlackの有料プランを利用しているチームが対象で、Slack Marketplaceから導入できます。セキュリティ面では、Claudeはユーザーが持つ既存のSlack権限を尊重するため、アクセスできない情報には触れません。企業のセキュリティポリシーを遵守しつつ、安全にAIの利便性を享受できる仕組みです。

Replit、プロ向けから転換しARR50倍増

急成長の背景

ARRが280万ドルから1.5億ドルへ急増
プロ開発者からの大胆なピボット
非技術者向けはより多くの計算能力を要求

AIエージェント戦略

自律型AIエージェントの開発に注力
複数のLLMを競わせ品質を向上
AIの報酬ハッキング問題への挑戦

今後のビジョン

10億人のソフトウェア開発者を創出
高度な安全性とセキュリティが競争優位に

オンライン開発環境を提供するReplit創業者兼CEO、Amjad Masad氏が、同社の年間経常収益(ARR)を280万ドルから1億5000万ドルへと約50倍に急成長させた秘訣を語りました。成功の鍵は、プロの開発者から非技術者ユーザーへとターゲットを大胆に転換したこと。この戦略転換が、AI時代の新たな成長を牽引しています。

Replitは長年、ARRが約280万ドルで伸び悩んでいました。この停滞を打破したのが、プロ向けという従来路線からの決別です。あえて非技術者やコーディング学習者に焦点を絞ることで、新たな市場を開拓。結果としてARRは1億5000万ドルに達し、企業価値も30億ドルと評価されるまでに成長を遂げました。

興味深いことに、Masad氏は「非技術者ユーザーの方が、経験豊富な開発者よりも多くの計算能力を必要とする」と指摘します。これは、初心者が試行錯誤を繰り返したり、AIによるコード生成支援を多用したりするためです。この需要に応えるインフラが、Replit技術的な優位性にも繋がっています。

同社は現在、人間の介入なしで長時間稼働する自律型コーディングエージェントの開発に注力しています。開発における課題は、AIが意図しない近道を見つけてしまう「リワードハッキング」。対策として複数の大規模言語モデル(LLM)を競わせ、より質の高いアウトプットを追求しています。

Masad氏が掲げる最終目標は「10億人のソフトウェア開発者を生み出す」ことです。この壮大なビジョンを実現するため、同社は安全性とセキュリティに関する難題の解決に積極的に取り組んでいます。これこそが、将来の持続的な競争優位性、つまり「堀」になると確信しているのです。

PayPal Honey、ChatGPTと連携しAIショッピング支援

AIショッピング支援を強化

ChatGPT利用時に商品情報を表示
リアルタイム価格と特典を提示
AIが見逃した大手小売業者も補完
消費者の価格比較を強力に支援

エージェント型コマース戦略

OpenAIなど競合の動きも視野
購買行動のAIシフトに対応
パーソナライズされた提案で売上増

決済大手のPayPalは2025年9月30日、ブラウザ拡張機能「PayPal Honey」がOpenAIChatGPTなどと連携する新機能を発表しました。AIチャットボットで商品を検索するユーザーに対し、リアルタイムの価格情報やお得な特典を提示。消費者の比較検討を支援し、販売店の売上向上に繋げる「エージェント型コマース」構想の一環です。

新機能はどのように機能するのでしょうか。ユーザーがChatGPTに買い物関連の質問をすると、Honey拡張機能が起動。AIが推奨する商品のリンクに加え、リアルタイムの価格、複数の販売店の選択肢、特典などを自動で表示します。AIの推薦から漏れた大手小売業者の情報も補完できるとしています。

この動きは、PayPalが推進する「エージェント型コマース」戦略の核です。同社はGoogleとも提携し、AIがユーザーの代理として購買を支援するエコシステムの構築を急いでいます。今回の機能は特定のAIに依存しない設計ですが、まずはChatGPTから対応を開始し、順次拡大する方針です。

背景には、AIを起点とした購買行動へのシフトがあります。OpenAI自身もショッピングシステムを発表するなど、AI開発企業が直接コマース領域に参入し始めています。消費者がWeb検索ではなくAIチャットで商品を探す時代を見据え、PayPalは新たな顧客接点を確保する狙いです。

この提携は、AIとEコマースの未来を占う試金石と言えるでしょう。自社のサービスや商品を、こうしたAIエージェント経由でいかに顧客に届けるか。経営者エンジニアにとって、AIプラットフォーム上での新たなマーケティング戦略や技術連携の在り方が問われることになりそうです。

Opera、月額20ドルのAIブラウザNeonを投入

AIがタスクを代行

AIエージェントによるタスク自動化
専用ワークスペース「Tasks」機能
プロンプトを再利用する「Cards」機能
プロンプトによるミニアプリ開発

市場と提供形態

月額約20ドルのサブスクリプション
招待制での限定的な提供開始
激化するAIブラウザ開発競争

ソフトウェア企業のOperaは9月30日、AIブラウザ「Neon」を一部ユーザー向けに公開しました。月額約20ドルの有料サービスで、当面は招待制です。AIがタスクを自動実行する「エージェント的ブラウザ」として、激化する市場での競争に挑みます。

Neonの最大の特徴は、AIエージェントがタスクを代行する点です。「Neon Do」と呼ばれる機能がウェブサイトの要約やSNSへの投稿などを自動で行います。また、「Tasks」というワークスペース機能を使えば、特定のプロジェクトに関連するタブやAIチャットを一元管理でき、生産性向上に貢献します。

さらに、繰り返し利用するプロンプト「Cards」として保存できる機能も搭載。これにより、「競合製品の情報を抜き出して比較表を作成」といった複雑な指示もワンクリックで実行可能になります。独自のカード作成やコミュニティでの共有もでき、作業の効率化を促進します。

AIブラウザ市場では、すでにPerplexityの「Comet」やThe Browser Companyの「Dia」などが先行しています。GoogleMicrosoftも既存ブラウザのAI機能強化を急速に進めており、競争は激しい状況です。Operaは、AIを日常的に駆使するパワーユーザーを有料モデルで囲い込む戦略で、差別化を図る考えです。

Neonは、単なる情報検索ツールから、能動的にタスクをこなす「エージェント」へとブラウザを進化させる試みです。デモで示されたような高度なタスクが実環境でどこまで実現できるか、その真価が問われます。今後のAIブラウザの未来を占う上で、Neonの動向は注目に値するでしょう。

ブラウザ横断AIエージェント、560万ドル調達

ブラウザを選ばないAI

ブラウザを問わないクロスブラウザ対応
拡張機能で簡単セットアップ
複数Webツールを横断し業務を自動化
非技術者でも直感的に利用可能

専門職向け、大型調達

採用・マーケ等の定型作業を効率化
シードで560万ドル資金調達
NFDGやAnthropic出資
ローカル実行でセキュリティに配慮

AIエージェント開発のスタートアップComposite社が、シードラウンドで560万ドル(約8.4億円)の資金調達を発表しました。同社は特定のブラウザに依存しないAIエージェントツールを開発。専門職が日々行うWeb上での退屈な定型作業を自動化し、生産性を高めることを目的としています。今回の調達は、著名投資家Nat Friedman氏らが主導しました。

Compositeの最大の特徴は、ブラウザを問わず利用できる点です。普段使用しているブラウザに拡張機能をインストールするだけで準備は完了。Jiraのバグ管理や複数サイトにまたがる候補者のスカウト、レポート作成など、これまで手作業で行っていた業務をAIが代行します。

同社は、PerplexityOpenAIといった競合が一般消費者向けの利便性を追求するのに対し、専門職のワークフロー自動化に特化しています。共同創業者のYun氏は「非技術者でも簡単に定型業務を自動化できるツールを目指した」と語っており、直感的な操作性が強みです。

今回の資金調達は、元GitHub CEOのNat Friedman氏とDaniel Gross氏によるベンチャーキャピタルNFDGが主導し、Menlo VenturesやAnthropicのファンドも参加しました。AIエージェント分野への高い期待と、同社の技術力や事業戦略が評価された形です。

AIエージェント市場は競争が激化していますが、投資家は「Compositeは直感的で専門的なユースケースに優れている」と評価。今後はタスクの自動提案機能やスケジュール機能を強化し、さらなる市場開拓を目指す方針です。企業のDXを後押しするツールとして注目されます。

OpenAI、自社AIで業務改革を加速する秘訣

部門別AIアシスタント

営業:会議準備やQ&A;を自動化
インバウンド:見込み客への個別対応を高速化
財務:数千件の契約書レビューを効率化
開発:顧客フィードバックを即時分析
サポート:問い合わせ対応とシステム改善

成功の鍵と導入効果

専門知識のコード化で組織力向上
現場主導の継続的な改善ループを構築
数百万ドル規模の新たな収益機会を創出

OpenAIは、自社開発のAI技術を社内業務へ全面的に適用し、その具体的な活用事例を「OpenAI on OpenAI」シリーズとして公開しました。営業、財務、サポートといった各部門で独自のAIアシスタントを開発・導入し、急成長に伴う業務課題を解決しています。その目的は、単なる効率化にとどまらず、従業員の専門知識をAIでスケールさせ、組織全体の生産性と収益性を抜本的に向上させることにあります。

同社が掲げる核心的な思想は「専門知識(Craft)をAIでスケールさせる」ことです。例えば、トップセールスの会議準備手法や、ベテランサポート担当者の問題解決ノウハウをAIに学習させる。これにより、組織全体の業務品質をトップレベルに引き上げようとしています。これは、AIを単なる代替労働力ではなく、人間の能力を拡張するパートナーと位置づけるアプローチと言えるでしょう。

営業部門では、Slack上で動く「GTM Assistant」が顧客情報や製品知識を集約し、会議準備時間を大幅に削減。営業担当者の生産性を20%向上させ、週に1日分の時間を顧客との対話に使えるようになりました。また「Inbound Sales Assistant」は、殺到する問い合わせに個別最適化された回答を即座に返し、これまで機会損失となっていた案件から数百万ドル規模の新たな収益を生み出しています。

財務部門では「DocuGPT」と名付けられたエージェントが、膨大な契約書を読み込み、重要な項目を構造化データとして抽出します。これにより、レビュー時間は半減し、チームは煩雑な手作業から解放され、より戦略的な分析業務に集中できるようになりました。同様に、開発チームは数百万件のサポートチケットをAIで分析し、顧客の声を製品改善に活かすサイクルを劇的に高速化させています。

特に革新的なのが、カスタマーサポートの取り組みです。ここでは、AIが問い合わせに答えるだけでなく、人間の担当者がその回答を評価・修正し、そのフィードバックがリアルタイムでAIの改善に繋がる「AIオペレーティングモデル」を構築。サポート担当者は、単なる問題解決者から、AIを育てる「システムビルダー」へと役割を変えつつあります。

これらの成功に共通するのは、現場の専門家がAIの訓練と評価に深く関わる「人間参加型(Human-in-the-loop)」の仕組みです。AIが出した回答を現場が修正し、それを学習データとしてフィードバックする。この継続的な改善ループこそが、AIの精度と信頼性を高める鍵なのです。OpenAIの事例は、AI導入がツールの導入に終わらず、業務プロセスと組織文化の変革そのものであることを示唆しています。

ChatGPT内で決済完結、eコマース新時代へ

シームレスな購買体験

チャットを離れず商品購入
Etsy、Shopifyから開始
Apple Pay等で簡単決済

新プロトコル「ACP」

Stripeと共同開発した規格
AIエージェントによる商取引
オープンソースで普及を促進

eコマース覇権争い

AmazonGoogleの牙城に挑戦
AIが新たな商品発見の起点

OpenAIは9月29日、対話AI「ChatGPT」内で商品購入が完結する新機能「Instant Checkout」を発表しました。米国のユーザーを対象にEtsy、Shopifyの商品が購入可能となり、AIとの会話から決済までシームレスに繋がる新たなeコマース体験が始まります。業界の勢力図を大きく変える一手となるでしょう。

ユーザーは商品に関する質問後、チャット画面を離れずに「購入」をタップするだけで決済を完了できます。当初は米国のEtsyセラーが対象で、今後は100万以上のShopify加盟店にも拡大予定です。この摩擦のない購買体験は、コンバージョン率向上に貢献する可能性があります。

この機能を支えるのは、Stripeと共同開発された新技術「Agentic Commerce Protocol (ACP)」です。このプロトコルはオープンソースで公開されており、他の事業者も容易にAIエージェントによる決済システムを統合可能。AIコマースのエコシステム拡大を加速させます。

事業者にとって、これは数億人のChatGPTユーザーへの新たな販売チャネルです。取引完了ごとに少額手数料は発生しますが、決済や顧客管理は既存システムを維持できます。商品表示は広告ではなく、ユーザーとの関連性のみでランク付けされる点も特徴です。

この動きは、商品発見の起点であったGoogle検索Amazonの優位性を脅かす可能性があります。AIが新たな「ゲートキーパー」となり、消費者の購買決定を左右するかもしれません。OpenAIの参入は、eコマースの覇権争いを新たな段階へと進める号砲です。

OpenAIだけでなく、Googleも独自の決済プロトコル「Agent Payments Protocol (AP2)」を発表しており、AIコマースの主導権争いは激化しています。今後、AIエージェントによる購買体験の標準化と普及が、ビジネスの成否を分ける重要な鍵となるでしょう。

MS、OfficeにAIエージェント導入 「雰囲気」で文書作成

Office作業の新時代

Excel/Wordに「Agent Mode」搭載
Copilotに「Office Agent」追加
「雰囲気」で複雑な作業をAIに指示

最先端AIモデルの活用

Agent ModeはGPT-5モデルを利用
Office AgentはAnthropicモデル採用
Excel精度は人間(71.3%)に次ぐ57.2%
まずはWeb版、M365加入者向けに提供

マイクロソフトは2025年9月29日、同社のOfficeアプリに新機能「Agent Mode」と「Office Agent」を導入すると発表しました。これにより、ExcelやWordで簡単な指示を与えるだけで、AIが複雑な文書やスプレッドシートを自動生成する「vibe working」(雰囲気で作業する)が可能になります。専門知識がなくとも高度な作業を実現し、生産性の飛躍的な向上を目指します。

ExcelとWordに搭載される「Agent Mode」は、従来のCopilot機能を大幅に強化したものです。複雑なタスクをAIが計画・推論しながら複数のステップに分解し、自動で実行。そのプロセスはサイドバーでリアルタイムに可視化され、ユーザーは作業の流れを把握できます。専門家でなくても高度な文書作成が可能になります。

Agent Modeの性能は向上しています。スプレッドシート編集のベンチマークにおいて、ExcelのAgent Modeは57.2%の正答率を記録しました。これは競合AIを上回る結果ですが、人間の71.3%には及びません。同社はAIが生成したデータの監査性や検証可能性を重視し、信頼性の確保に注力しています。

Copilotチャットには「Office Agent」が追加されます。このエージェントはAI企業Anthropic社のモデルを搭載。ユーザーはチャットで指示するだけで、Webリサーチを含めたPowerPointプレゼンテーションWord文書をゼロから作成できます。資料作成の概念が大きく変わるかもしれません。

今回の発表は、マイクロソフトのマルチAIモデル戦略を象徴します。Officeアプリ内部ではOpenAIモデルが中心ですが、CopilotチャットではAnthropicモデルを採用。「最先端の技術がどこで生まれようと検討する」とし、適材適所で最適なAIモデルを活用して製品競争力を高めていく姿勢です。

これらの新機能は、Microsoft 365 Copilot顧客、またはPersonal/Family加入者向けにWeb版から提供が始まります。デスクトップ版も近日対応予定です。AIが「アシスタント」から「エージェント」へと進化し、働き方を根本から変革する未来がすぐそこまで来ています。

AI財務エージェントがExcelを代替、Maximorが9億円調達

Excel依存の財務からの脱却

多くの企業が頼るExcelでの手作業
AIエージェントが各システムと直接連携
財務・運用データをリアルタイムで統合

決算高速化と生産性向上

月次決算にかかる時間を半減させた事例
チームをより戦略的な業務へシフト
監査プロセスの効率化と透明性向上

元MS幹部が創業、大型調達

マイクロソフト幹部2名が創業
シードで900万ドル(約13億円)を調達

マイクロソフト幹部が設立したスタートアップ「Maximor」が、企業の財務業務を自動化するAIエージェントを開発し、正式に発足しました。同社はFoundation Capital主導のシードラウンドで900万ドル(約13億円)を調達。多くの企業が依然として依存するExcelでの手作業をAIで置き換え、月次決算などのプロセスを効率化することを目指します。

なぜ今、AIによる変革が必要なのでしょうか。多くの企業ではERPCRMといった専門システムを導入しているにもかかわらず、最終的な数値の調整や監査準備のためにデータをExcelにエクスポートし、手作業で照合しているのが現状です。この非効率なプロセスが、財務チームの大きな負担となっています。

MaximorのAIエージェントは、NetSuiteやQuickBooksなどの各種システムに直接接続し、取引データを継続的に収集します。これにより、運用データと財務データがリアルタイムで統合・可視化され、月次決算を待たずに財務状況を把握できます。作業文書や監査証跡も自動生成され、監査対応も効率化します。

導入効果は既に出ています。不動産テック企業のRently社では、Maximorの導入により月次決算にかかる日数が8日から4日へと半減しました。これにより、会計担当者2名の追加採用を回避できただけでなく、チームの時間の約半分をより戦略的な業務に振り分けることが可能になったといいます。

同社の特徴は、AIと人間の協業モデルにもあります。AIエージェントが実務(Preparer)を担い、人間がレビュー(Reviewer)に集中する体制を構築できます。また、社内に財務チームがない企業向けに、人間による会計サービスもオプションとして提供し、AIの導入を支援します。

創業者らはマイクロソフトで大手企業の財務DXを率いた経験を持ちます。その知見とビジョンが、RampやGustoのCFO、PerplexityのCEOといった著名なエンジェル投資家からの信頼を集め、今回の大型シード資金調達につながりました。

Claude 4.5、コーディングAIで競合を凌駕

圧倒的なコーディング性能

本番環境向けアプリを自律構築
金融・法務など専門分野も強化

30時間超の自律稼働

長時間タスクで一貫性を維持
複雑なマルチステップ作業に対応
1万行超のコード生成事例も

開発者向けツール強化

独自AIエージェント構築SDK提供
VS Code拡張など開発環境を拡充

AI開発企業のAnthropicは9月29日、最新AIモデル「Claude Sonnet 4.5」を発表しました。主要なコーディング性能ベンチマークOpenAIGPT-5などを上回り、世界最高水準の性能を達成。30時間を超える自律稼働能力と開発者向けツールの拡充を両立させ、AIによるソフトウェア開発を新たな次元へと引き上げます。

Sonnet 4.5の最大の特長は、その卓越したコーディング能力です。実世界のソフトウェア開発能力を測るベンチマーク「SWE-Bench Verified」で競合を凌駕。単なる試作品ではなく、「本番環境で使える(production-ready)」アプリケーションを自律的に構築できるとされ、AI開発の実用性が大きく前進したことを示しています。

驚異的なのは、30時間以上も自律的にタスクを継続できる「持久力」です。あるテストでは、Slackのようなチャットアプリを約11,000行のコードでゼロから構築しました。従来モデルが苦手としていた、エラーが蓄積しやすい長時間・複雑なタスクでも一貫性を保ち、開発者生産性を飛躍的に高める可能性を秘めています。

開発者向けのサポートも大幅に強化されました。独自のAIエージェントを構築できる「Claude Agent SDK」や、人気の開発環境であるVS Codeのネイティブ拡張機能を新たに提供。これにより、開発者Sonnet 4.5の強力な能力を、よりスムーズに自社のサービスやワークフローに組み込むことができます。

ビジネスユーザーにとって朗報なのは、API価格が旧モデルのSonnet 4から据え置かれた点でしょう。性能が飛躍的に向上したにもかかわらず、コストを抑えて最新技術を導入できます。激化するAI開発競争において、Anthropicは性能とコストパフォーマンスの両面で市場での優位性を明確に打ち出しました。

AI開発の主戦場、「ワールドモデル」へ移行加速

LLMの次なるフロンティア

LLMの性能向上に頭打ち感
物理世界を理解する新モデルに注目
動画ロボットデータから学習
GoogleMetaNvidiaが開発を主導

100兆ドル市場への期待と課題

自動運転やロボティクス進化を加速
製造・医療など物理領域への応用
Nvidia幹部が100兆ドル市場と試算
実現には膨大なデータと計算能力が壁

Google DeepMindMetaNvidiaなどの大手AI企業が、大規模言語モデル(LLM)の進歩が鈍化する中、次なる飛躍を求めて「ワールドモデル」の開発に注力し始めています。この新モデルは、言語データではなく動画ロボットデータから物理世界を学習し、人間環境への深い理解を目指します。これは機械による「超知能」実現に向けた新たなアプローチとして注目されています。

OpenAIChatGPTなどに代表されるLLMは、目覚ましい進化を遂げてきました。しかし、各社が投入する最新モデル間の性能差は縮小傾向にあり、開発に投じられる莫大な資金にもかかわらず、進歩に頭打ち感が見え始めています。この状況が、AI開発の新たな方向性を模索する動きを加速させているのです。

ワールドモデルは、LLMとは根本的に異なるアプローチを取ります。テキストデータから言語のパターンを学ぶLLMに対し、ワールドモデル動画シミュレーションロボットの動作データといった物理世界のデータストリームから学習します。これにより、現実世界の法則や因果関係を理解し、将来を予測する能力の獲得を目指します。

この技術が秘める経済的インパクトは計り知れません。Nvidiaの担当副社長であるレヴ・レバレディアン氏は、ワールドモデルが物理世界を理解し操作できるようになれば、その潜在市場は「本質的に100兆ドル」規模、つまり世界経済に匹敵する可能性があると指摘しています。

ワールドモデルは、自動運転車やロボティクス、いわゆる「AIエージェント」の進化に不可欠な一歩と見なされています。製造業やヘルスケアなど、物理的な操作を伴う産業での活用も期待されます。しかし、その実現には膨大なデータと計算能力が必要であり、依然として技術的に未解決の挑戦であることも事実です。

韓国、国策AIで世界に挑む 官民で打倒OpenAI

国策AIプロジェクト始動

政府が5300億ウォン投資
国内大手・新興5社を選抜
半年毎の評価で2社に絞込
海外技術への依存脱却が狙い

各社の独自戦略

LG: 高品質な産業データ活用
SKT: 通信インフラと連携
Naver: 自社サービスにAIを統合
Upstage: 専門分野特化で差別化

韓国政府が、米国OpenAIGoogleなどに対抗するため、自国製AI開発に本格的に乗り出しました。科学技術情報通信省は先月、国内企業5社に総額5300億ウォン(約580億円)を投じる国家AIプロジェクトを発表。外国技術への依存を減らし、データ主権と国家安全保障を確保するのが狙いです。官民一体で独自のAIエコシステム構築を目指します。

プロジェクトに選ばれたのは、LG AI Research、SK Telecom、Naver Cloud、NC AI、そしてスタートアップのUpstageの5社です。政府は半年ごとに各社の進捗を評価し、成果の低い企業を脱落させる一方、有望な企業への支援を継続します。最終的には2社に絞り込み、国家を代表するAI開発を牽引させるという厳しい競争原理を導入しました。

中でも注目されるのが、韓国最大のインターネット企業Naverです。同社は自社開発のLLM「HyperCLOVA X」を、検索、ショッピング、地図といった国民的サービスに統合しています。モデル開発からデータセンタークラウド、アプリまで一気通貫で手がける「AIフルスタック」を強みに、生活への浸透を図ります。

財閥系も独自の強みで対抗します。LG AI Researchは、製造業やバイオといったBtoB領域の高品質な専門データを活用し、汎用モデルとの差別化を狙います。通信最大手のSK Telecomは、膨大な顧客基盤と通信インフラを活かし、個人向けAIエージェント「A.」の普及を加速させています。

唯一のスタートアップとして選ばれたUpstageは、コスト効率と特定分野への特化で勝負します。同社の「Solar Pro 2」は、パラメータ数を抑えつつも韓国語性能でグローバルモデルを凌駕。金融や法律といった専門分野に特化したモデルを開発し、ビジネスでの実用性を追求しています。

韓国企業の共通点は、巨大資本を持つ米国勢との単純な規模の競争を避け、韓国語と文化への深い理解、そして質の高いデータを武器にしている点です。この官民一体の「選択と集中」戦略が、世界のAI覇権争いに一石を投じることができるか。その動向が注目されます。

Hugging Face、Apple向けAIライブラリv1.0を公開

Apple開発者向けAIツール

ローカルLLMのアプリ統合を簡素化
Tokenizer, Hubなど必須機能を提供
Core MLやMLXを補完する設計

v1.0の進化点

パッケージの安定性向上とAPI整理
モジュール分割による依存性削減
最新Core ML APIとSwift 6に対応

今後のロードマップ

MLXフレームワークとの連携深化
エージェント型ユースケースの探求

AIプラットフォームのHugging Faceが、Apple製品開発者向けライブラリ「swift-transformers」のバージョン1.0を公開しました。本ライブラリは、iPhoneなどのデバイス上でローカルにAIモデルを動作させる際の技術的ハードルを下げ、アプリへの組み込みを容易にすることを目的としています。

swift-transformersは、AppleのCore MLやMLXといった機械学習フレームワークを補完する重要な機能群を提供します。具体的には、複雑なテキスト入力を処理する「Tokenizers」、Hugging Face Hubからモデルを管理する「Hub」、Core ML形式モデルの推論を簡素化する「Models」と「Generation」が中核をなします。

すでに、Apple自身のサンプル集「mlx-swift-examples」や、高性能な音声認識フレームワーク「WhisperKit」など、多くのプロジェクトで採用されています。これにより、AppleエコシステムにおけるオンデバイスAI開発の基盤技術としての地位を確立しつつあると言えるでしょう。

今回のv1.0リリースは、ライブラリの安定性を公式に保証する初のメジャーアップデートです。主要な変更点には、必要な機能だけを導入できるモジュール分割や、最新のCore ML APIへの対応、そしてSwift 6への完全準拠が含まれます。開発者はより安心して長期的なプロジェクトに採用できます。

Hugging Faceは今後の展望として、Apple機械学習フレームワーク「MLX」との連携強化を掲げています。さらに、自律的にタスクを処理する「エージェント」のような、より高度なユースケースの実現も視野に入れており、オンデバイスAIの新たな可能性を切り拓くことが期待されます。

AWS、セキュアな医療AI開発を加速

Bedrock AgentCoreの威力

複雑な医療AI開発を簡素化
既存APIをセキュアにツール化
サーバレスで大規模運用が可能
HIPAA準拠など高セキュリティ

具体的な導入効果と事例

予約業務などを自動化し負担軽減
Innovaccer社は15億ドル削減
400以上のデータソースを統合
患者中心の医療ネットワークを実現

AWSは、医療向けAIエージェントの開発・運用を大規模かつセキュアに行うための新サービス群「Amazon Bedrock AgentCore」を発表しました。これにより、医療機関は複雑なデータ連携の課題を克服し、HIPAAなどの厳格な規制に準拠したインテリジェントなソリューションを迅速に構築できます。

医療業界では、電子カルテの形式が多様でデータがサイロ化しやすいという長年の課題があります。FHIRのような標準規格も存在しますが、既存システムとの統合には専門知識が求められ、AIエージェントを導入する際の障壁となっていました。

Bedrock AgentCoreは、この課題を解決します。既存のAPIをAIが利用可能なツールへと安全に変換する「AgentCore Gateway」や、セキュアな実行環境を提供する「Runtime」などを組み合わせることで、開発の負担を大幅に軽減します。

具体的な活用例として、子供の予防接種履歴の確認から予約までを対話形式で完結させるAIエージェントが紹介されています。これにより、保護者や医療機関の管理負担が軽減され、患者体験の向上が期待できます。

ヘルスケアAI企業のInnovaccer社は、いち早く自社プラットフォームにBedrock AgentCoreを採用しました。400以上のデータソースを統合し、AIエージェントを活用することで、既に15億ドルのコスト削減を達成するなど、大きな成果を上げています。

Bedrock AgentCoreの登場は、AIによる患者ケアの向上と業務効率化を大きく前進させるものです。セキュアでスケーラブルなAI活用が、より患者中心のインテリジェントな医療ネットワークの実現を加速させるでしょう。

AWS、Bedrock AgentCoreでSRE業務を高度化

AIアシスタントの仕組み

複数AIエージェントの連携
自然言語でのインフラ照会
リアルタイムでのデータ統合
障害対応手順書の自動実行

Bedrock AgentCoreの威力

既存APIをMCPツールに変換
対話履歴を記憶し応答を最適化
本番環境への容易な展開
本番グレードの監視機能を提供

Amazon Web Services(AWS)は、生成AI基盤「Amazon Bedrock」の新機能「AgentCore」を活用し、サイト信頼性エンジニアリング(SRE)業務を支援するマルチエージェントアシスタントの構築方法を公開しました。このシステムは、Kubernetesやログ、メトリクスなどを担当する複数の専門AIエージェントが連携し、自然言語での問い合わせに対して包括的かつ実用的な洞察を提供。インシデント対応の迅速化とインフラ管理の高度化を実現します。

なぜ今、SREアシスタントが求められるのでしょうか。現代の分散システムは複雑性が増し、障害発生時にはログ、メトリクス、イベントなど多様な情報源から原因を特定する必要があります。従来の手法では、SREが手作業で情報を繋ぎ合わせる必要があり、膨大な時間と労力がかかっていました。生成AIアシスタントは、このプロセスを自動化し、調査時間を劇的に短縮します。

このソリューションの中核は、スーパーバイザーエージェントが5つの専門エージェントを統括するマルチエージェントアーキテクチャです。問い合わせを受けると、スーパーバイザーが調査計画を立案し、Kubernetes、ログ、メトリクス、手順書(Runbook)の各専門エージェントに作業を割り振り。結果を集約して包括的なレポートを生成します。

技術的な鍵となるのが「Amazon Bedrock AgentCore」の各機能です。特に「Gateway」は、既存のインフラAPIをMCP(Model Context Protocol)という標準規格のツールに変換します。これにより、LangGraphのようなオープンソースのフレームワークで構築されたエージェントが、インフラAPIへシームレスかつ安全にアクセスできるようになります。

もう一つの強力な機能が「Memory」です。これは、過去の対話履歴やユーザーの役割(技術者、経営者など)を記憶し、応答をパーソナライズします。例えば、同じ障害について問い合わせても、技術者には詳細な技術分析を、経営者にはビジネス影響に焦点を当てた要約を提供するなど、相手に応じた最適な情報提供を可能にします。

開発から本番稼働への移行もスムーズです。「Runtime」機能を使えば、構築したエージェントをサーバーレス環境へ容易に展開できます。インフラ管理やスケーリングはAWSが自動で行い、セッションの分離も組み込まれているため、安全に運用可能です。さらに「Observability」機能により、本番環境でのエージェントの動作を詳細に監視、デバッグできます。

このAIアシスタントがもたらすビジネスインパクトは絶大です。従来30~45分を要していた初期調査が5~10分に短縮され、インシデント解決の迅速化とダウンタイムの削減に直結します。また、専門家の持つ「暗黙知」をシステム化することで、チーム全体の知識レベルを底上げし、属人性の排除にも貢献します。

PropHero、BedrockでAI投資顧問開発 業務効率化とコスト60%削減

不動産投資管理サービスのPropHero社が、AWSと協業し、生成AIサービス「Amazon Bedrock」を用いてインテリジェントな不動産投資アドバイザーを開発しました。このシステムは、顧客に合わせた投資戦略を自然言語で提案し、業務効率化と大幅なコスト削減を両立した事例として注目されます。 導入によるビジネスインパクトは顕著です。AIアドバイザーの投資目標達成率は90%に達し、有料ユーザーの70%以上が積極的に利用しています。また、一般的な問い合わせ対応を30%自動化し、スタッフはより複雑な業務に集中できるようになりました。戦略的なモデル選択により、AIコストも60%削減しています。 高い性能とコスト効率はどのように両立したのでしょうか。その鍵は、複数のAIエージェントが協調動作する「マルチエージェント・アーキテクチャ」にあります。各エージェントは、質問の分類、専門的な助言、最終応答の生成など、特定のタスクに特化しており、LangGraphというツールでその連携を制御しています。 同社は、タスクの複雑さに応じて最適な基盤モデル(FM)を選択する戦略を採用しました。例えば、簡単な応答には高速で安価な「Amazon Nova Lite」、専門的な投資助言には高性能な「Amazon Nova Pro」を割り当てることで、コストパフォーマンスを最大化しています。 高品質な応答を維持するため、継続的な評価システムを組み込んでいます。会話データから「文脈との関連性」や「回答の正確性」といった指標をリアルタイムで測定します。これにより、AIアドバイザーの品質を常に監視し、迅速な改善サイクルを回すことが可能になっています。 専門知識の提供には「Amazon Bedrock Knowledge Bases」を活用しています。FAQ形式のコンテンツに最適化されたセマンティックチャンキングや、Cohere社の多言語モデルを採用することで、スペイン語圏の利用者にも正確で文脈に沿った情報を提供できる体制を整えました。 開発の背景には、不動産投資における情報格差やプロセスの煩雑さという課題がありました。PropHero社はこれらの障壁を取り除くため、誰でも専門的な知見にアクセスできるAIシステムの開発を目指しました。特にスペインとオーストラリアの市場に合わせた対応が求められていました。 本事例は、生成AIが具体的なビジネス価値を生み出すことを明確に示しています。モジュール化されたアーキテクチャと堅牢な評価基盤を組み合わせることで、顧客エンゲージメントを継続的に向上させるソリューションを構築できるのです。

OpenAI、新機能Pulse発表 ユーザーを先読みし朝に情報提供

OpenAIは9月25日、ChatGPTの新機能「Pulse」を発表しました。これはユーザーのチャット履歴や連携アプリの情報を基に、毎朝パーソナライズされた最新情報を能動的に提供する機能です。Proユーザー向けにモバイルアプリで先行公開され、AIが受動的な応答から能動的なアシスタントへと進化する大きな一歩となります。 Pulseは、ユーザーが寝ている間に「非同期リサーチ」を行います。チャット履歴や保存された設定を分析し、関連性が高いと判断したトピックの最新情報を自動で生成。翌朝、視覚的な「カード」形式で5〜10件の概要が届けられ、ユーザーはわざわざ質問せずとも情報を得られます。 より精度の高い提案のため、GmailやGoogleカレンダーとの連携も可能です。例えば、カレンダーの予定に基づいて会議の議題案を作成したり、出張先のレストランを推薦したりします。これらの連携機能は初期設定ではオフになっており、ユーザーが任意で有効にすることで利用できます。 OpenAIが示したデモでは、特定のスポーツチームの試合結果の要約、家族旅行の旅程案、個人の食生活に合わせた夕食メニューの提案などが紹介されました。ユーザーはフィードバックを送ることで、翌日以降の提案内容をさらに自分好みに調整していくことが可能です。 この新機能は、まず月額200ドルのProプラン加入者向けに提供が開始されます。計算資源を大量に消費するため段階的な展開となりますが、将来的には全ユーザーへの提供を目指しています。AIの高度な支援を誰もが利用できるようにするという、OpenAIの目標を反映した動きです。 Pulseの導入は、OpenAIが目指す「AIエージェント」構想の実現に向けた重要なステップです。これまでの受動的なチャットボットから、ユーザーの目標を理解し、先回りして行動を支援する能動的な存在への進化を狙っています。無限スクロールを排した設計も特徴で、ユーザーの生産性を高める意図がうかがえます。

Google、思考するロボットAI発表 物理世界で複雑タスク遂行

Google DeepMindは2025年9月25日、ロボットが物理世界で複雑なタスクを自律的に解決するための新AIモデル群「Gemini Robotics 1.5」を発表しました。計画を立てる「思考」モデルと指示を実行する「行動」モデルが連携。Web検索で情報を収集し、多段階のタスクを遂行します。汎用ロボットの実現に向けた大きな一歩となり、一部モデルは開発者向けにAPIが公開されます。 今回の発表の核心は2つのモデルの連携です。「Gemini Robotics-ER 1.5」が脳のように高レベルな計画を担当。Google検索を使い情報を集め、物理環境を理解し行動計画を作成します。単一指示への反応を超え、真の課題解決能力を目指します。 計画モデル「ER 1.5」が立てた計画は、自然言語の指示として行動モデル「Gemini Robotics 1.5」に渡ります。行動モデルは視覚と言語を理解し、指示をロボットの動作に変換。例えば、地域のゴミ分別ルールを調べ、目の前の物を正しく仕分けるといった複雑なタスクを実行します。 新モデルの大きな特徴は、行動前に「思考」する点です。単に指示を動作に変換するだけでなく、内部で自然言語による推論を行います。タスクを小さなステップに分解し、複雑な要求を理解。この思考プロセスは言語で説明可能で、意思決定の透明性向上にも繋がります。 「Gemini Robotics 1.5」は、異なる形状のロボット間での学習転移能力も示しました。例えば、2本腕ロボットで学習したスキルが、人型ロボットでも特別な調整なしに機能します。これにより、新しいロボットへのスキル展開が加速し、知能化と汎用化が大きく進むと期待されます。 Google DeepMindは責任ある開発も重視しています。行動前に安全性を考慮する思考プロセスを組み込み、同社のAI原則に準拠。安全性評価ベンチマークASIMOV」を更新し、新モデルが高い安全性能を示すことを確認しました。物理世界でのAIエージェントの安全な展開を目指します。 思考モデル「Gemini Robotics-ER 1.5」は、Google AI StudioのGemini API経由で開発者向けに提供が開始されました。これにより、物理世界で機能するAIエージェントの構築が促進されます。同社はこれを、物理世界での汎用人工知能(AGI)実現に向けた重要な一歩と位置付けています。

GoogleのAI、科学的仮説を自ら生成し研究を加速

Googleが開発した「AI Co-Scientist」が、単なる情報検索ツールを超え、新しい科学的仮説を自ら生成する「研究の相棒」となり得ることを示しました。2つの生物医学研究でその能力が実証され、研究開発のプロセスを根本から変える可能性が注目されています。 スタンフォード大学の研究では、有効な治療法が少ない肝線維症の治療薬候補を探すためAIを活用。AIは既存薬の中から3つの候補を提案し、そのうち2つが実験で線維化を抑制し、肝臓再生の兆候さえ示しました。人間が選んだ候補薬では効果が見られませんでした。 インペリアル・カレッジ・ロンドンでは、細菌の進化に関する謎をAIに問いかけました。AIはわずか2日で、研究者らが数年かけて突き止めた未発表のメカニズムと同じ結論を導き出しました。その論理的な思考プロセスは研究者らを驚かせています。 このAIの強みは、科学的推論に特化した設計にあります。OpenAIなどの汎用モデルとは異なり、複数のAIエージェントが仮説の生成、批判、改良、順位付けを繰り返します。外部の文献やツールで情報を補強しながら、より深い思考を行う仕組みです。 Googleは現在、世界中の学術機関と協力し、このシステムのパイロット運用を進めています。スタンフォード大学の「Virtual Lab」など競合も登場しており、AIを科学的発見のエンジンにするための開発競争が激化しています。 一方で、AIは既存の情報を再構成しているだけで、真に独創的な発見はできないとの批判もあります。AIが生成した仮説に過度に依存すれば、人間の創造性や批判的思考が阻害されるリスクも指摘されており、今後の検証が求められます。 AIから価値ある洞察を引き出すには、専門家による巧みな問いかけや対話的なフィードバックが不可欠です。現段階では、AIは専門家の能力を拡張し、思考を補助する優秀なアシスタントと捉えるべきでしょう。

DatabricksとOpenAI提携、企業AI導入を1億ドルで加速

データ分析基盤のDatabricksは25日、AI開発のOpenAIと複数年にわたる1億ドル規模の契約を結んだと発表しました。この提携で、DatabricksのプラットフォームにOpenAIの最新AIモデル「GPT-5」などが統合されます。企業が自社データを安全に活用しAIアプリを構築できるようにし、エンタープライズ市場での生成AI導入を加速させる狙いです。 今回の統合で、顧客はDatabricksのAI製品「Agent Bricks」上で自社データに基づくAIアプリやエージェントを構築できます。OpenAIの最新モデルが選択肢に加わり、SQLやAPI経由でアクセス可能です。「GPT-5」は旗艦モデルとして提供される予定で、企業のAI開発の選択肢が大きく広がります。 提携の背景には、生成AIを企業システムに組み込む競争の激化があります。企業は自社の機密データを安全に活用できるAIツールを求めており、今回の提携はこの需要に応えるものです。OpenAIのCOOは「企業の安全なデータがある場所で、我々の最先端モデルを提供する」と述べ、企業のAI活用を支援する姿勢を示しました。 今回の契約でDatabricksはOpenAIに最低1億ドルの支払いを保証します。これは関連収益が目標に達しなくても支払うもので、企業顧客のOpenAIモデルへの移行に賭ける戦略です。一方、急速なデータセンター増設を進めるOpenAIにとっては、安定した収入源の確保に繋がります。 Databricksは今年初めにAnthropicとも同様の契約を結んでおり、マルチAIモデル戦略を鮮明にしています。既にMastercardなどの顧客からOpenAIモデルへの強い需要があるとしており、今回の提携が企業のAI活用をさらに後押しすることが期待されます。

Clarifai、AI推論エンジンで処理速度2倍・コスト4割減

AIプラットフォームのClarifaiは25日、AIモデルの実行速度を2倍にし、コストを40%削減する新しい推論エンジンを発表しました。既存ハードウェアの性能を最大限引き出す多様な最適化技術を搭載し、複雑なAIの計算負荷増大に対応します。 新エンジンの性能は第三者機関によるベンチマークテストで検証済みです。スループット(処理能力)とレイテンシー(遅延)の両方で業界最高水準を記録。これにより、同じハードウェアでより多くの処理を高速に実行できることが客観的に示されました。 高速化は、学習済みAIモデルを運用する「推論」処理に特化した最適化で実現されます。同社CEOによると、CUDAカーネルレベルの最適化から高度な投機的デコーディング技術まで、様々なソフトウェア技術を組み合わせているとのことです。 開発の背景には、単一の指示で複数ステップの思考を要するエージェント型AIの台頭があります。こうしたモデルは計算負荷が極めて高く、推論コストの増大が課題でした。新エンジンは特にこうした多段階処理を行うモデル向けに調整されています。 AIブームによるGPU需要の急増を受け、同社はAIの計算オーケストレーション(最適管理)に注力しています。CEOは「巨大データセンター需要に対し、アルゴリズム革新はまだ終わっていない」と述べ、ハードウェア増強だけでなくソフトウェアによる最適化の重要性を強調しました。

AIで食品供給網を革新、新興Burntが5.7億円を調達

食品サプライチェーンのバックオフィス業務を自動化するAIスタートアップのBurntは25日、シード資金調達ラウンドで380万ドル(約5.7億円)を調達したと発表しました。このラウンドはNBAのスター選手、ステフィン・カリー氏が支援するベンチャーキャピタル「Penny Jar Capital」が主導しました。同社はAIエージェントを活用し、従来型のソフトウェアでは解決が難しかった食品業界の非効率な業務プロセスの変革を目指します。 同社のAIエージェント「Ozai」は、電話やFAXなど多様な形式の注文を自動処理します。既存のERPシステムを置き換えず、その上で動作するのが特徴です。これにより企業は従来の業務プロセスを大きく変えることなく、非効率な手作業から解放されます。 同社は今年1月のサービス開始以来、月間1000万ドル(約15億円)以上の注文を処理。英国の大手食品コングロマリットも導入を進めるなど事業は順調です。すでに数十万ドル規模の年間経常収益を達成しており、市場での需要の高さがうかがえます。 食品サプライチェーンは長年、技術導入の遅れが課題でした。多様なチャネルからの注文を、スタッフが手作業で旧式システムに入力することが常態化。従来のシステム刷新は高コストで導入期間も長く、中小企業の多い業界の障壁となっていました。 Burntの強みは創業チームの業界知見です。CEOのジェイコブ氏は食品業界で育ち、現場を経験。この経歴が関係性を重視する業界での信頼獲得につながっています。投資家もこうした「見過ごされた」産業にこそ、大きな機会があると評価しています。 今回の事例は、業界課題を深く理解し、AIで「置き換え」ではなく「補完」するアプローチの有効性を示唆します。既存の業務フローを尊重しつつ、非効率な部分を自動化する手法は、IT化が遅れる他の伝統的産業にも応用できるのではないでしょうか。

AI採用のJuicebox、セコイア主導で3000万ドル調達

AI採用スタートアップのJuicebox社は9月25日、Sequoia Capitalが主導するシリーズAラウンドで3000万ドルを調達したと発表しました。これにより総調達額は3600万ドルとなります。同社は大規模言語モデル(LLM)を活用し、自然言語で候補者の情報を分析する検索エンジン「PeopleGPT」を開発。採用プロセスを革新し、企業の採用活動を支援します。 同社は2023年後半に製品「PeopleGPT」をリリース後、短期間で急成長。スタートアップから大企業まで2500社以上が導入し、年間経常収益(ARR)は1000万ドルを超えています。CognitionやPerplexityといった先進企業も同社のサービスを利用しています。 リード投資家であるSequoiaのDavid Cahn氏は、同社の驚異的な成長力と実行力を高く評価しています。わずか4人のチームで顧客2000社を獲得した実績に感銘を受けたと語ります。専門の採用担当者なしで十数名を採用したスタートアップの事例が、投資の決め手の一つとなりました。 Juiceboxの強みは、LLMが人間のように候補者の情報を推論する点にあります。履歴書に特定のキーワードがなくても、公開情報からスキルや適性を分析し、最適な人材を発見します。これにより、従来のキーワード検索では見逃されていた優秀な人材にアプローチすることが可能になります。 同社のツールは、採用担当者の業務を大幅に効率化します。候補者検索を自動化することで、採用担当者は候補者との関係構築といった、より付加価値の高い業務に集中できます。さらに、候補者を特定した後のメール送信や初回面談の日程調整といったプロセスも自動化するエージェント機能を備えています。 競合もAI機能を強化していますが、SequoiaはJuiceboxが「スタートアップのデフォルトツール」になる可能性を信じています。Cahn氏は、Stripeが決済の標準となったように、Juiceboxが全てのスタートアップにとって最初の従業員を雇うための必須ツールになることを期待していると述べています。

カナダがNVIDIAと連携、国家AI主権の確立へ

カナダの通信大手TELUSは9月24日、NVIDIAの技術を活用し、ケベック州に国内初の完全な「ソブリンAIファクトリー」を設立したと発表しました。これは、データ主権を国内で完全に確保しながらAI開発を推進する国家戦略の一環です。金融からヘルスケアまで幅広い業界でのAI活用を加速させ、国の経済競争力を高める狙いがあります。 TELUSの新施設は、NVIDIAの最新アクセラレーテッドコンピューティングとソフトウェアを基盤としています。HPEとの協業で構築され、AIモデルの学習から推論まで一貫した機能を提供。これにより、全てのデータがカナダ国内に留まり、厳格な管理下に置かれることが保証されます。自国のデータを守りながら、最先端のAI開発を進めることが可能になるのです。 モントリオールで開催されたイベントで、カナダ政府は「デジタル主権」の構築が最優先課題であると強調しました。ソロモンAI・デジタルイノベーション大臣は「自国のデジタル保険証書を構築している」と述べ、国家としてAIのツールとルールを所有する必要性を訴えました。国が主導してAIインフラを整備する強い意志が示されています。 NVIDIAのブリスキー副社長も「各国はAIを自国で開発すべきだ」と主張しています。AIは地域の価値観や文化を反映し、国の規範に沿う必要があると指摘。「デジタルインテリジェンスは単純にアウトソースできるものではない」とし、ソブリンAIの重要性を訴えました。これは世界的な潮流となりつつあります。 このAIファクトリーは、既にOpenTextなどの企業にサービスを提供しています。また、アクセンチュアは業界特化型ソリューションを開発し、ヘルスケア大手のLeagueもAI駆動型ソリューションの実行基盤として活用する予定です。国家インフラが産業界のAI導入を後押しする構図です。 金融分野では、RBCキャピタル・マーケッツがNVIDIAのソフトウェアを用いてAIエージェントを構築しています。NVIDIAの「NeMo」や「NIM」といったツールを活用し、金融市場調査の効率化や顧客への迅速なインサイト提供を目指しており、金融機関の競争力強化に直結します。 カナダはジェフリー・ヒントン氏などAI研究の先駆者を輩出した国であり、AI分野で世界をリードしてきました。しかし、国際競争は激化しています。今回の国家戦略は、そのリーダーシップを維持・強化し、経済と研究エコシステムを活性化させるための重要な一歩と言えるでしょう。

NVIDIA、AIモデル群Nemotronを無償公開 開発加速へ

NVIDIAは9月24日、マルチモーダルAIモデルファミリー「Nemotron」をオープンソースとして公開しました。NemotronにはAIモデル、データセット、開発ツール群が含まれ、研究および商用目的で利用可能です。GitHubなどを通じて提供され、開発者は透明性の高いAIを迅速に構築できます。これにより、あらゆる規模の企業でAI開発の加速が期待されます。 Nemotronは、AI開発の全段階を効率化するオープンソース技術群です。大学院レベルの科学的推論や高度な数学コーディングに優れた最先端のAIモデルが含まれます。さらに、モデルの学習に使われたデータセットや、AIを高速かつ低コストで実行するための数値精度アルゴリズムなども提供されます。 なぜNVIDIAはオープンソース化に踏み切ったのでしょうか。それは、広範な問題解決を可能にする「汎用知能」と、各業界特有の課題に対応する「特化知能」の両方を向上させるためです。同社はNemotronを通じて、あらゆる産業でAIの導入を大規模に推進することを目指しています。 既に多くの企業がNemotronの活用を進めています。例えば、セキュリティ企業のCrowdStrikeは、AIエージェントエコシステム強化に利用しています。また、DataRobotはNemotronを基に、より高速でコスト効率の高い推論モデルを開発するなど、具体的な成果が出始めています。 NVIDIAはNemotron開発で得た知見を次世代GPUの設計に活かす一方、コミュニティの技術も積極的に取り入れています。Alibabaの「Qwen」やMetaの「Llama」といったオープンモデルの技術を活用し、Nemotronのデータセットや機能を強化するなど、エコシステム全体での発展を目指しています。 開発者GitHubやHugging Face、OpenRouterを通じてNemotronを利用開始できます。NVIDIA RTX PCユーザーはllama.cppフレームワーク経由でのアクセスも可能です。同社は今後もイベントなどを通じて、開発者コミュニティとの連携を深めていく方針です。

MS Copilot、Anthropic製AI「Claude」を統合し選択肢拡大

Microsoftは9月24日、法人向けAIアシスタントMicrosoft 365 Copilot」に、競合Anthropic社のAIモデル「Claude」を統合すると発表しました。これにより利用者は従来のOpenAI製モデルに加え、新たにClaudeを選択できます。タスクに応じた最適なAIを選ぶ柔軟性を提供し、マルチモデル戦略を加速させる狙いです。 今回の統合で、まず2つの機能でClaudeが利用可能になります。1つは複雑な調査を行う「Researcher」エージェントで、高度な推論に優れた「Claude Opus 4.1」が選択できます。もう1つはカスタムAIを構築する「Copilot Studio」です。 Copilot Studioでは、複雑な推論向けの「Opus 4.1」と、大規模データ処理に強い「Sonnet 4」の両方が選択可能です。開発者はタスクごとに最適なモデルを使い分け、より高機能なカスタムAIエージェントワークフローを構築できるようになります。 新機能は、法人がオプトイン(利用申請)することで、「フロンティアプログラム」を通じて提供されます。利用者は容易にOpenAIモデルとClaudeモデルを切り替え可能。MicrosoftOpenAIへの依存を軽減し、複数のAIモデルを取り込む戦略を明確に示しています。 Microsoftは最近、開発者ツールでもClaudeの採用を進めており、今後はExcelなど他のアプリへの展開も示唆されています。「これは始まりに過ぎない」としており、最先端のAIを迅速に自社サービスへ統合していく姿勢がうかがえます。

Hugging Face、軽量AIでGUI操作エージェント開発手法を公開

AIプラットフォームのHugging Faceは2025年9月24日、軽量な視覚言語モデル(VLM)をGUI操作エージェントに進化させる新手法「Smol2Operator」を公開しました。この手法は2段階のファインチューニングを通じて、モデルに画面要素の認識能力と複雑なタスクの計画・実行能力を付与します。同社はGUI自動化技術の発展を促進するため、訓練手法やデータセット、モデルを全てオープンソース化し、開発の再現性を高めています。 GUI操作AIの開発では、データセットごとに操作の記述形式が異なり、統一的な学習が困難でした。この課題に対し、同社は多様なデータ形式を標準化された一つのアクション空間に変換するパイプラインを開発。これにより、様々なデータソースを一貫してモデル訓練に活用できるようになりました。企業の開発者は、独自の操作体系に合わせてデータセットを容易に変換できます。 訓練の第1段階では、モデルにGUI上の要素を正確に認識・特定する「グラウンディング能力」を付与します。「ボタンをクリックする」といった低レベルの指示と、画面上の座標を含む実行コードを対にしたデータで学習させ、モデルが画面を「見る」能力の基礎を築きます。これにより、AIは指示された対象を正確に特定できるようになります。 第2段階では、モデルに思考力と計画能力を植え付けます。より高レベルで複雑な指示に対し、次の行動を思考し、複数のステップに分解して実行するデータで訓練します。これにより、モデルは単なる要素認識から、主体的にタスクを遂行するエージェントへと進化し、より複雑な業務自動化への道を開きます。 この2段階訓練により、SmolVLM2-2.2Bという比較的小規模なモデルでも、GUI要素の認識ベンチマークで高い性能を達成しました。同社は、この成果の再現性を担保するため、データ処理ツール、統一されたデータセット、訓練済みモデルを全て公開しており、誰でも追試や応用開発が可能です。 今後の展望として、教師あり学習(SFT)だけでなく、強化学習(RL)や直接選好最適化(DPO)といった手法の活用が挙げられています。これらの手法により、エージェントが静的なデータから学ぶだけでなく、実環境でのインタラクションを通じて学習・改善する、より高度な能力の獲得が期待されます。

Google、次期チップ「Tensor G5」でPixel 10のAI機能を大幅強化

Googleは9月24日、公式ポッドキャストで、次期スマートフォン「Pixel 10」シリーズに搭載する最新チップ「Tensor G5」の詳細を明らかにしました。同社のシリコンチーム担当者が解説し、Tensor G5がGoogle史上最大のアップグレードであり、デバイス上のAI機能を飛躍的に進化させることを強調しました。これにより、スマートフォンの利便性が新たな段階に入ることが期待されます。 Tensor G5は、AI処理能力の向上に特化した設計が特徴です。Googleのシリコンチーム担当者によれば、このチップは技術的なブレークスルーであり、これまでのチップから大幅な性能向上を実現したとのことです。スマートフォンの「頭脳」が進化することで、複雑なAIタスクをデバイス上で高速に処理できるようになります。 新機能で特に注目されるのが、自分の声でリアルタイム翻訳を行う「Live Translate」です。従来の翻訳機能と異なり、まるで自分がその言語を話しているかのような自然なコミュニケーションを可能にします。Tensor G5の高度な音声処理能力が可能にするこの機能は、海外とのビジネスなどで大きな変革をもたらす可能性があります。 さらに、ユーザーの意図を先読みしてアシストするエージェント機能「Magic Cue」や、Pixel 10 Proに搭載される「100x ProRes Zoom」もTensor G5の性能によって実現されます。これらの機能は、単なる操作の補助にとどまらず、ユーザーの生産性を高めるパートナーとしてのスマートフォンの役割を強化することを示唆しています。 今回の発表は、AI処理がクラウドから個人のデバイス(エッジ)へ移行する流れを象徴します。デバイス上でAIが完結すれば、プライバシーと応答速度の向上が両立します。経営者エンジニアにとって、この「エッジAI」の進化がもたらす新たなビジネスチャンスや生産性向上の可能性は、注視すべき重要なトレンドと言えるでしょう。

Emergent、AIアプリ開発の民主化へ 2300万ドル調達

AIアプリ開発プラットフォームを手がけるスタートアップEmergent社が9月24日、シリーズAで2300万ドル(約34億円)の資金調達を発表しました。非技術者がプロンプトでアプリを開発できるプラットフォームを構築します。AIエージェントが開発からデプロイ、バグ修正までを支援し、アプリ制作のハードルを大幅に下げることを目指しています。 今回のラウンドはLightspeed社が主導し、Y Combinator社やTogether Fund社なども参加しました。著名なエンジェル投資家として、元a16zのBalaji Srinivasan氏やGoogleのJeff Dean氏も名を連ねています。これにより、同社の累計調達額は3000万ドル(約45億円)に達しました。 Emergentの最大の特徴は、専門知識のないユーザーを対象としている点です。ユーザーが簡単な指示を出すと、AIエージェントが対話形式で要件を確認し、アプリを構築します。API連携やサーバーへのデプロイといった技術的な工程も自動で管理するため、ユーザーはアイデアの実現に集中できます。 同社は、開発プロセスを支えるインフラを独自に構築しました。特に、AIエージェントがコードのエラーを自動で検出し、修正する機能は強力です。これにより、ユーザーは技術的なエラーメッセージに悩まされることなく、スムーズにアプリを完成させ、運用・保守することが可能になります。 プラットフォームは2025年6月のローンチ以来、既に100万人以上が利用し、150万を超えるアプリが作成されるなど、急速にユーザーを拡大しています。ペットのワクチン管理アプリを30分足らずで作成できた事例もあり、その手軽さと実用性が証明されています。 創業者は、元GoogleスタートアップCTOのMukund Jha氏と、元Dropbox勤務のMadhav Jha氏の双子の兄弟です。二人はAIによるエージェントベースのアプリ開発が今後の経済で巨大な役割を果たすと確信し、この問題の解決に長期的に取り組むことを決意しました。 アプリ開発の簡易化市場にはCanvaやFigmaなどの大手も参入し、競争が激化しています。その中でEmergentは、アプリを「作る」だけでなく、公開後の共有、バグ修正、サポートといったライフサイクル全体をAIで支援する点で他社との差別化を図っています。 リード投資家であるLightspeed社のパートナーは、Emergentの深い技術力と、開発後の運用まで見据えた包括的なアプローチを高く評価しています。「コーディング能力という参入障壁をほぼゼロにし、誰もがデジタル経済に参加できる世界を目指す」と同氏は期待を寄せています。

アリババ、NVIDIAと提携し物理AI開発基盤を導入

中国の電子商取引大手アリババは24日、米半導体大手NVIDIAとの提携を発表しました。NVIDIAが提供するロボットや自動運転向けの物理AI開発ツールを、自社のAIクラウドプラットフォームに統合します。この提携は、物理世界で動作するAIの開発を加速させることが目的です。 具体的には、NVIDIAの「Physical AI」ソフトウェアスタックを顧客に提供します。これにより開発者は、現実世界の環境を忠実に再現した3Dのデジタルツインを構築できます。この仮想空間で生成された合成データを用いることで、AIモデルを効率的かつ安全に訓練することが可能になります。 この技術は、特にロボティクスや自動運転車、スマート工場、倉庫といった分野での活用が期待されています。現実世界でのテストが困難または危険なシナリオでも、仮想環境でAIを訓練できるため、開発サイクルが大幅に短縮される可能性があります。 今回の提携は、AI事業を強化するアリババの戦略の一環です。同社はAI技術への投資を従来の500億ドルの予算を超えて拡大すると表明。ブラジルやフランスなどでデータセンターを新設し、世界91拠点にまでインフラを拡大する計画も明らかにしました。 アリババは同日、最新の大規模言語モデル(LLM)「Qwen 3-Max」も発表しました。1兆パラメータで訓練されたこのモデルは、同社史上最大かつ最も高性能とされ、特にコーディングやAIエージェントとしての活用に適していると主張しています。 一方のNVIDIAも、AI分野で積極的な投資を続けています。最近ではインテルへの50億ドルの出資や、OpenAIへの最大1000億ドルの投資計画を発表しており、AIエコシステムにおける影響力を一層強めています。

マイクロソフト、エージェントAIでアプリ近代化を数日に短縮

マイクロソフトは2025年9月23日、アプリケーションの近代化と移行を加速させる新しいエージェント型AIツールを発表しました。GitHub CopilotとAzure Migrateに搭載される新機能で、レガシーシステムの更新という企業の大きな課題に対応します。自律型AIエージェントがコード分析から修正、展開までを自動化し、開発者の負担を軽減。これにより、従来は数ヶ月を要した作業を数日で完了させ、企業のイノベーションを後押しします。 中核となるのはGitHub Copilotの新機能です。Javaと.NETアプリケーションの近代化を担う自律型AIエージェントが、レガシーコードの更新作業を自動化します。従来は数ヶ月かかっていた作業が数日で完了可能になります。AIが面倒で時間のかかる作業を代行するため、開発者は付加価値の高いイノベーション活動に集中できるようになります。Ford Chinaではこの機能で70%の時間と労力を削減しました。 AIエージェントは、.NETとJavaの最新バージョンへのアップグレードを具体的に自動化します。コードベースを分析して非互換性の変更点を検出し、安全な移行パスを提案します。依存関係の更新やセキュリティ脆弱性のチェックも自動で実行するため、開発者は手動での煩雑な作業から解放されます。これにより、パフォーマンスやセキュリティの向上が迅速に実現できます。 Azure Migrateにも、チーム間の連携を円滑にするエージェント型AI機能が追加されました。移行・近代化プロジェクトが停滞する原因となりがちなIT、開発、データ、セキュリティ各チームの足並みを揃えます。AIが主要なタスクを自動化し、ガイド付きの体験を提供するため、特別な再教育なしで迅速な対応が可能です。 新しいAzure MigrateはGitHub Copilotと直接連携し、IT部門と開発者が同期して近代化計画を立案・実行できるようになります。アプリケーションポートフォリオ全体の可視性も向上し、データに基づいた意思決定を支援します。新たにPostgreSQLや主要なLinuxディストリビューションもサポート対象に加わり、より多くのシステム移行に対応します。 マイクロソフトは技術提供に加え、新プログラム「Azure Accelerate」を通じて企業の変革を包括的に支援します。このプログラムでは、専門家による直接支援や対象プロジェクトへの資金提供を行います。企業のクラウド移行とAI活用を、技術、資金、人材の全ての面から後押しする体制を整えました。

Google、KaggleとAIエージェント開発の5日間集中講座

GoogleとKaggleは、2025年11月10日から14日の5日間、AIエージェント開発に特化したオンライン集中講座「AI Agents Intensive」を開催します。この講座は、AIの次なるフロンティアとされるAIエージェントの構築スキルを習得することが目的です。GoogleのAI研究者やエンジニアが作成したカリキュラムを通じ、参加者は基礎から高度なマルチエージェントシステムまでを学びます。 カリキュラムは、単純なAIエージェントから高度なマルチエージェントシステム構築までを網羅。アーキテクチャ、ツール、メモリ、評価手法など、プロトタイプから本番環境への移行に必要な知識を体系的に学べます。企業のAI活用を次の段階へ進める機会となるでしょう。 講座は、専門家による解説と実践的なコーディングラボを組み合わせて進められます。DiscordやYouTubeのライブ配信を通じ、Google専門家と直接議論する機会も提供。参加者は能動的かつ双方向的に学習を進めることが可能です。 講座の最後には、学んだスキルを応用するキャップストーンプロジェクトが用意されています。優秀者には賞品が贈られるほか、GoogleとKaggleの公式SNSで紹介されるチャンスもあります。実践的なスキルを証明する貴重な機会となるでしょう。 本講座は、初心者から専門知識を深めたい経験者まで幅広く対象としています。今年初めに開催された前回の「GenAI Intensive」講座には28万人以上が参加。未来の自律システム構築を担う人材の育成を目指します。

AWS、複雑なAIエージェントの本番運用をAgentCoreで簡素化

アマゾン ウェブ サービス(AWS)は2025年9月23日、公式ブログにて、複数のAIエージェントが協調して複雑なタスクを解決するフレームワーク「Deep Agents」を、本番環境向け実行基盤「Amazon Bedrock AgentCore」上で稼働させる手法を公開しました。これにより、企業はインフラ管理の負担なく、セキュアで拡張性の高いAIエージェントシステムを迅速に実用化できます。開発者は、既存のコードにわずかな変更を加えるだけで、プロトタイプから本番運用へとスムーズに移行することが可能になります。 AIエージェントは単一タスクの支援ツールから、計画、批評、協調を行う高度なシステムへと進化しています。しかし、その本番運用には信頼性やセキュリティの確保が課題でした。Amazon Bedrock AgentCoreは、こうした課題を解決するために設計されたサーバーレス環境であり、インフラの管理という煩雑な作業から企業を解放します。これにより、開発者エージェントのロジック構築に集中できます。 AgentCoreの中核機能である「AgentCore Runtime」は、エージェントの実行に特化しています。各ユーザーセッションを独立したマイクロ仮想マシンで実行するため、セッション間の干渉を防ぎ、高いセキュリティを確保します。最大8時間の長時間タスクにも対応し、LLMの応答を待つ間の待機時間には課金されない従量課金制を採用している点も特長です。 AgentCoreの大きな利点は、特定のフレームワークや大規模言語モデル(LLM)に依存しない柔軟性です。LangGraphやCrewAIなど、開発者が使い慣れたツールやモデルをそのまま持ち込み、コードを書き換えることなく本番環境にデプロイできます。これにより、最新のAI技術を迅速にビジネスに取り込むことが可能になります。 今回公開されたのは、リサーチ担当と批評担当のエージェントが連携する「Deep Agents」の実装例です。複雑な調査タスクを複数のエージェントが分担し、情報の収集、統合、改善を繰り返します。AgentCoreを使えば、このような高度なマルチエージェントシステムも容易に本番運用に乗せることができるのです。 AgentCoreへのデプロイは驚くほど簡単です。AWSが提供する「AgentCore Starter ToolKit」を利用すれば、数ステップで完了します。既存のPythonエージェントコードに数行のラッパーコードを追加するだけで準備は完了。ツールキットがコンテナ化からデプロイまでを自動で行い、2〜3分でエージェントが利用可能になります。 AgentCoreは、AIエージェントのプロトタイプ開発から本番運用までの道のりを劇的に短縮します。企業はインフラの複雑さに悩むことなく、AIエージェントがもたらす価値の創出に集中できます。スケーラブルでセキュアなAIエージェント活用の時代が、本格的に到来したと言えるでしょう。

インド発AIアプリ開発Rocket.new、23億円調達で急成長

インドのAIスタートアップRocket.newは、Salesforce Venturesが主導するシードラウンドで1500万ドル(約23億円)を調達しました。同社は自然言語の指示だけで、プロトタイプではなく本番環境で動作する本格的なアプリを開発できるプラットフォームを提供します。 今年6月のベータ版公開からわずか3ヶ月で、ユーザー数は180カ国40万人を突破。有料契約者も1万人を超え、ARR(年間経常収益)は450万ドルに達しました。同社は来年6月までにARRを6000万〜7000万ドルに引き上げるという野心的な目標を掲げています。 「Vibe-coding」と呼ばれるこの分野では、LovableやCursorなどの競合が存在します。しかし、多くが迅速なプロトタイプ作成に留まるのに対し、Rocket.newは保守や拡張も可能な「本番品質」のコード生成に注力している点が大きな違いです。 同社のプラットフォームは、AnthropicOpenAIGoogleのLLM(大規模言語モデル)と、前身事業で蓄積した独自データで訓練した深層学習システムを組み合わせています。これにより、他のツールより時間はかかるものの、より包括的なアプリを生成できるとしています。 料金体系はトークン消費量に応じた月額課金制(25ドル〜)で、すでに50〜55%という高い粗利益率を確保しています。売上の最大市場は米国(26%)で、今後はパロアルトに米国本社を設立し、事業を本格化させる計画です。 今後は単なるコード生成にとどまらず、競合調査や製品開発戦略の立案までAIが担う「エージェントシステム」の構築を目指します。これにより、将来的にはプロダクトマネージャーの役割さえも代替可能になると同社は考えています。 リード投資家Salesforce Venturesは「AIによるコード生成の魔法と、それを本番環境で使えるようにする現実との間のギャップを埋める存在だ」と評価。企業の規模で求められる反復開発や保守、展開といった課題を解決する能力に期待を寄せています。

AIエージェント性能向上へ、強化学習『環境』に投資が集中

シリコンバレーで、自律的にタスクをこなすAIエージェントの性能向上を目指し、強化学習(RL)で用いるシミュレーション「環境」への投資が急増しています。大手AIラボから新興企業までが開発に注力しており、次世代AI開発の鍵を握る重要技術と見なされています。従来の静的データセットによる学習手法の限界が背景にあります。 では、RL環境とは何でしょうか。これはAIがソフトウェア操作などを模擬した仮想空間で訓練を行うためのものです。例えばブラウザで商品を購入するタスクをシミュレートし、成功すると報酬を与えます。これにより、エージェントは試行錯誤を通じて実践的な能力を高めるのです。 この分野への需要は急拡大しており、大手AIラボはこぞって社内でRL環境を構築しています。The Informationによれば、Anthropicは来年RL環境に10億ドル以上を費やすことを検討しており、業界全体の投資熱の高さを示しています。AI開発競争の新たな主戦場となりつつあります。 この好機を捉え、RL環境に特化した新興企業も登場しています。Mechanize社はAIコーディングエージェント向けの高度な環境を提供。Prime Intellect社はオープンソース開発者向けのハブを立ち上げ、より幅広い開発者が利用できるインフラ構築を目指しています。 データラベリング大手もこの市場シフトに対応しています。Surge社は需要増を受け、RL環境構築専門の組織を設立。評価額100億ドルとされるMercor社も同様に投資を強化し、既存の顧客基盤を活かして市場での地位を固めようとしています。 ただし、この手法の有効性には懐疑的な見方もあります。専門家は、AIが目的を達成せずに報酬だけを得ようとする「報酬ハッキング」のリスクを指摘。AI研究の進化は速く、開発した環境がすぐに陳腐化する懸念もあります。スケーラビリティへの課題も残り、今後の進展が注目されます。

NVIDIA、AIエージェント導入・活用法を4段階で解説

NVIDIAは2025年9月19日、企業の生産性と収益性を高めるカスタムAIエージェントの導入・活用ガイドを発表しました。AIを戦略的パートナーと位置づけ、(1)タスクに最適なエージェント選択、(2)データ連携による学習、(3)業務部門への展開、(4)ガードレールによる統制という4段階のプロセスを提唱。企業のAI活用を最大化し、組織変革を推進します。 最初のステップは、タスクに最適なAIエージェントを選ぶことです。人間を特定の職務で採用するように、AIも役割に応じて選択・訓練します。例えば、複雑な問題解決には推論エージェント、開発支援にはコード生成コパイロットなど、適切な使い分けが性能やコスト、セキュリティを最適化する上で重要です。 次に、強力なデータ戦略を構築し、AIエージェントを継続的に学習させます。AIは、タスクやビジネスに特化した最新データを得ることで最高の性能を発揮します。組織内の知識資産を活用し、多様な情報源に接続することが、精度の高い応答を生む鍵です。この学習サイクルは「データフライホイール」と呼ばれます。 インフラとデータ戦略が整えば、AIエージェントを各業務部門へ展開します。IDC調査によれば、ITプロセスや事業運営、顧客サービスAI導入の優先分野です。CRMERPと連携し、リード認定やサプライチェーン管理を自動化することで、従業員の生産性を高めます。 最後に、AIエージェントに対するガードレール(保護機能)とガバナンスを確立します。従業員にガイドラインが必要なように、AIにも信頼性や正確性を担保し、倫理的境界内で動作させる統制が不可欠です。不適切なトピックへの逸脱防止や、悪意あるプロンプトからの保護などが含まれます。 優れたAIエージェントは汎用品ではなく、目的に応じてカスタム訓練され、継続的に学習します。企業は「AIでどんな事業成果を目指すか」を自問することから始めるべきです。将来的には、あらゆる事業部門が専用AIを持ち、その導入と運用が企業変革を主導するでしょう。

AWS、AIエージェント本番化支援の新サービスAgentCore発表

アマゾン ウェブ サービス(AWS)は2025年9月19日、AIエージェントを概念実証(PoC)から本番環境へスムーズに移行させるための新サービス群「Amazon Bedrock AgentCore」を発表しました。多くのAI開発プロジェクトが直面するスケーラビリティやセキュリティ、監視といった課題を解決し、開発者がアプリケーションのコアな価値創出に集中できる環境を提供することを目的としています。 AIエージェント開発はPoC段階で成功しても、本番運用には多くの課題が伴います。対話履歴を忘れてしまう、複数ユーザーに同時に対応できない、ツール管理が煩雑になるといった問題が、多くのプロジェクトを停滞させる「PoCの壁」となっているのが現状です。皆様のプロジェクトでも同様の課題に直面していないでしょうか。 AgentCoreはこの壁を打破するため、AIエージェントの本番化に必要な機能を包括的に提供するサービス群です。記憶管理、ツール連携、ID管理、実行環境、監視の各コンポーネントが連携し、複雑なインフラ構築の手間を省き、開発を大幅に加速させます。 中核機能の一つ「AgentCore Memory」は、エージェントに永続的な記憶能力を与えます。顧客の好みや過去の対話内容を短期・長期の2レベルで記憶することで、一人ひとりに合わせたパーソナライズされた応対が可能になり、顧客体験を飛躍的に向上させます。 「AgentCore Gateway」と「Identity」は、エージェントが利用するツール(社内APIなど)を一元的に管理し、安全なアクセス制御を実現します。これにより、複数のエージェントでツールを再利用でき、開発効率とセキュリティが大幅に向上します。 開発したエージェントの本番デプロイも容易です。「AgentCore Runtime」を使えば、わずか数行のコード追加で本番環境へ展開できます。スケーリングやセッション管理は自動化され、開発者インフラの複雑さから解放されます。 本番運用では、エージェントが意図通りに動作しているか監視することが不可欠です。「AgentCore Observability」は、エージェントの動作ログやパフォーマンスデータを収集・可視化し、問題の早期発見とパフォーマンス最適化を支援します。 AWSは顧客サポートエージェントを例に、AgentCoreを用いた開発プロセスを提示しています。ローカルの試作品が、記憶、安全なツール連携、スケーラブルな実行環境を備えた本番システムへと進化する過程は、多くの企業にとって実践的な手引きとなるでしょう。

Notion、AIエージェント発表 複数業務を自律実行し効率化

ChatGPT新機能に脆弱性、Gmail情報が流出する恐れ

セキュリティ企業Radwareは2025年9月18日、OpenAIのAIエージェントDeep Research」に対する新たな攻撃手法「ShadowLeak」を公開しました。この攻撃はプロンプトインジェクションを利用し、エージェントが攻撃者のウェブサイトを閲覧するだけで、ユーザーのGmail受信箱から機密情報を抜き取り外部サーバーに送信します。ユーザー操作は不要で、情報が抜き取られた痕跡も残りません。 「Deep Research」はOpenAIが今年発表した新機能で、ユーザーのメールや文書、ウェブ情報を横断的に参照し、複雑な調査を自律的に実行します。人間であれば数時間かかる調査を数十分で完了させる高い生産性をうたっていますが、その自律的なウェブ閲覧機能が今回の攻撃の標的となりました。 攻撃の仕組みは、AIエージェントが攻撃者の用意したウェブサイトを閲覧し、そこに埋め込まれた不正な指示(プロンプト)を実行することから始まります。これにより、エージェントはGmail内の情報を外部サーバーへ送信してしまいます。被害者は情報が流出したことに気づくのが極めて困難です。 今回の発見は、AIアシスタントを便利にするための機能、すなわちメールへのアクセスや自律的なウェブ閲覧といった能力そのものが、深刻なデータ漏洩リスクをはらんでいることを浮き彫りにしました。利便性の追求が、新たなセキュリティ上の課題を生み出していると言えるでしょう。 「ShadowLeak」は、従来のセキュリティ対策の限界も示唆しています。ユーザーが意図的にクリックすることを前提としたデータ漏洩防止策などでは、AIエージェントが自律的に行う情報漏洩を防ぐことは困難です。AI時代の新たなセキュリティ対策の必要性が高まっています。

Microsoft、TeamsにAIエージェントを多数投入し機能強化

マイクロソフトは2025年9月18日、コラボレーションツール「Microsoft Teams」に、会議やチャネル、コミュニティごとに特化したCopilot AIエージェントを多数追加すると発表しました。これらのエージェントは、Microsoft 365 Copilotユーザーを対象に展開され、業務の自動化と生産性向上を支援します。チームの働き方はどのように変わるのでしょうか。 最も注目されるのは、会議の生産性を向上させる「ファシリテーターエージェント」です。このAIは会議に参加し、議題の作成、議事録の記録、参加者からの質問への回答を自動で行います。各議題の時間配分を管理し、議論が長引いている場合は知らせることで、会議の円滑な進行をサポートします。 このエージェントはモバイルにも対応します。廊下での立ち話や突発的な対面での打ち合わせなど、これまで記録が難しかった非公式な会話も、スマートフォンからワンタップで起動し、内容を記録・要約させることが可能です。これにより、重要なアイデアや決定事項の取りこぼしを防ぎます。 チャネルや社内SNSにも専用エージェントが配置されます。チャネルエージェントは、過去の投稿や会議内容を基に質問に答えたり、プロジェクトの進捗報告書を自動生成したりします。社内SNS「Viva Engage」では、コミュニティ管理者を支援し、メンバーからの質問に自動で回答します。 さらに、ユーザーが意識しない裏側では「ナレッジエージェント」が活躍します。このAIはSharePoint上で動作し、ファイルの整理、タグ付け、要約を自動で実行します。これにより、組織内に散在する情報が整理され、必要な情報へのアクセスが容易になり、ナレッジマネジメントが強化されます。 ファシリテーターエージェントは既に利用可能ですが、ドキュメントやタスクの作成機能はパブリックプレビュー段階です。その他の新エージェントや、AIによるタスク自動化ツール「Workflows」の刷新版などもプレビューとして提供が始まっており、今後さらに多くの機能が追加される見込みです。

Google Chrome、AI統合で大刷新 Geminiで生産性向上へ

Googleは9月18日、Webブラウザ「Chrome」に自社のAIモデル「Gemini」を統合する、史上最大級のアップデートを発表しました。これにより、複数タブ情報の要約やアドレスバーからのAI検索が可能になります。将来的には面倒な作業を自動化するエージェント機能も導入し、ユーザーの生産性を飛躍的に高めることを目指します。 新たに搭載される「Gemini in Chrome」は、ブラウザの強力なAIアシスタントとして機能します。例えば、調査のために開いた多数のタブの内容を横断的に比較・要約させ、旅行の旅程作成や商品の比較検討といった作業を効率化します。これにより、情報収集にかかる時間を大幅に短縮できるでしょう。 アドレスバー(オムニボックス)もAIで強化されます。Google検索の「AIモード」が統合され、より長く複雑な質問を直接入力できるようになります。また、閲覧中のページ内容に基づいた関連質問が提案され、ページを離れることなく、サイドパネルでAIによる回答を確認できます。 最も注目されるのが、数ヶ月以内に導入予定の「エージェント機能」です。これは、ユーザーの指示に基づき、食料品の注文や散髪の予約といった複数ステップのタスクをChromeが自律的に実行する機能です。面倒な日常業務をAIに任せる未来が近づいています。 Geminiは、カレンダーやYouTube、マップといった他のGoogleアプリとも深く連携します。これにより、閲覧中のページから離れることなく会議の予定調整や動画内の特定場面の検索が可能になります。また、過去に閲覧したページを曖昧な記憶から探し出す機能も追加される予定です。 AIはセキュリティ強化にも活用されます。オンデバイスAIモデル「Gemini Nano」を用いて、巧妙化するフィッシング詐欺や偽のウイルス警告を検知・ブロックします。さらに、パスワードが漏洩した際には、対応サイトでワンクリックでパスワードを自動変更する機能も近日中に追加されます。 これらの新機能は、まず米国のMacおよびWindowsユーザー(言語設定が英語)向けに提供が開始されます。その後、モバイル版(Android/iOS)や他の国・言語へも順次展開される計画です。企業向けにはGoogle Workspaceを通じて提供されます。

GoogleとPayPal提携、AI主導の次世代購買体験を創出

GoogleとPayPalは9月17日、AIを活用した新しいショッピング体験の創出に向け、複数年にわたる戦略的提携を発表しました。この提携により、GoogleのAI技術と専門知識がPayPalの世界的な決済インフラや個人認証ソリューションと統合されます。両社はAIエージェントによる購買を可能にする「エージェント型コマース」の実現を目指し、新たな決済プロトコルの普及も共同で推進します。 提携の核心は、AIがユーザーに代わって商品購入などを行う「エージェント型コマース」の構築です。GoogleがAI技術を提供し、PayPalは世界規模の決済基盤や個人認証ソリューションを活用します。両社の強みを融合させ、これまでにない利便性の高い購買体験の提供を目指すとしています。 両社は、Googleが新たに発表した「エージェント決済プロトコル」の普及も共同で推進します。これはAIエージェントが安全に決済を行うためのオープンな技術仕様です。既に60以上の事業者や金融機関が支持を表明しており、AIによる自律的な購買活動を支える業界標準となることが期待されます。 今回の合意の一環として、PayPalはGoogleの各種サービスにおける主要な決済プロバイダーとなります。具体的には、Google Cloud、Google Ads、Google Playでのカード決済にPayPalが採用されます。また、PayPalのブランドチェックアウトや送金サービスなどもGoogle製品に統合される予定です。 決済分野の協力に加え、PayPalは自社の技術インフラのホスティングと改善のためにGoogle Cloudと協力します。この提携は、単なる決済サービスの統合にとどまらず、AI技術を核とした両社の技術基盤全体の連携強化を意味しており、今後のサービス展開に注目が集まります。

Zoom、フォトリアルAIアバターを導入 リアルタイム翻訳も実現

新時代の会議体験

カメラオフでもプロ仕様の分身(アバター)
写真からAIが本人そっくりに生成
リアルタイムでの動作追跡と同期
不正利用を防ぐライブカメラ認証
デジタルツイン実現への一歩

生産性向上の新機軸

リアルタイムでの音声翻訳機能
9言語対応でグローバル会議を円滑化
AIアシスタント他社プラットフォームでもメモ作成

米Zoomは9月17日、ビデオ会議サービス「Zoom」に革新的なAI機能を導入すると発表しました。特に注目されるのは、フォトリアリスティックなAIアバターリアルタイム音声翻訳機能です。これらの機能は12月以降、順次提供が開始されます。経営層やエンジニアは、国際的なコミュニケーションの円滑化と、リモートワークにおける生産性向上を直ちに享受できる見込みです。

AIアバター機能は、ユーザーがカメラに映る準備ができていない場合でも、プロフェッショナルな見た目をAIが生成し、会議に出席できるようにします。ユーザーは自身の写真をもとに分身を作成し、AIが実際の動きや発言をリアルタイムで追跡します。これにより、場所を選ばず、常に高いクオリティで会議に参加することが可能となります。

なりすましや不正利用の懸念に対し、Zoomは万全の対策を講じます。アップロードされた画像が本人であることを確認するため、ライブカメラ認証を実施する方針です。また、会議参加者には、その参加者がAIアバターを利用している旨の通知が明示されます。セキュリティ倫理的な配慮を両立させる仕組みです。

もう一つの重要なアップデートが、リアルタイム音声翻訳です。AIが話者の発言を即座に翻訳し、参加者は自らが選択した言語で音声を聞くことができます。現時点で日本語を含む9言語に対応しており、グローバルなチーム間での言語の壁を事実上撤廃し、シームレスなコミュニケーションを実現します。

さらに、AIアシスタント機能も大きく進化します。会議のスケジュール調整などに加え、アシスタントMicrosoft TeamsやGoogle Meetといった他社プラットフォームでの対面会議に「同行」させ、自動でメモを取らせることが可能となります。これは、Zoomが単なる会議ツールを超え、統合的な生産性エージェントへと進化していることを示します。

StreamlabsがAI配信助手発表、RTXで制作作業を劇的に簡素化

主要な役割と機能

共同ホストとして会話の停滞を防ぐ
3Dアバターが質問に即時応答しゲームに集中
プロデューサー機能によるシーン自動切替
技術的なトラブルシューティングを代行

RTXによる高性能化

NVIDIA RTX GPUローカル処理し低遅延を実現
ユーザー定義のトリガーで制作を自動化
リアルタイムビジョンモデルでゲーム状況把握

Streamlabsは先日、NVIDIA RTX技術によって加速される「Intelligent Streaming Agent」を発表しました。このAIアシスタントは、ライブストリーマーが抱える「エンターテイナー、プロデューサー、ゲーマー」という多重業務の負担を軽減し、視聴者とのコミュニケーションというコアな活動に集中することを目的としています。この技術は、エージェントAIがリアルタイムで高度なタスクを代行する、生産性向上ソリューションの新たな事例として注目されます。

エージェントは主に3つの役割を果たします。第一に共同ホスト(Co-host)として、チャットが静かな際に3Dアバターが会話を繋いだり、視聴者の質問に答えたりします。これにより配信者はゲーム画面から離れる必要がありません。第二にプロデューサーとして、シーンの自動切替や音声・映像キューの実行を担い、複雑な制作作業をカスタマイズ可能なトリガーに基づいて自動化します。

さらに、このAIエージェントは技術アシスタントとしての役割も兼ね備え、ユーザーが直面するトラブルシューティングを支援します。特筆すべきは、NVIDIA GeForce RTX GPUによって加速されるリアルタイムビジョンモデルを活用している点です。これにより、ゲーム内での勝敗や体力低下などのイベントを瞬時に検出し、すべてをローカルで処理することで、極めて低遅延な応答性とシームレスな操作性を実現しています。

Streamlabsは長年、NVIDIAとともにエンコーディング技術やBroadcastアプリなどを通じて配信の敷居を下げてきました。今回のインテリジェント・エージェントは、その進化の集大成です。特に新人ストリーマーにとって、複雑な制作知識や高価な機材なしにプロフェッショナルな品質の配信が可能となります。このAI活用事例は、あらゆる分野で専門家レベルの業務代行が可能になるエージェントAI時代の到来を強く示唆しています。

エンタープライズAIを安全に導入、Azureが指針とツールを提供。

エンタープライズAIの課題

CISOの懸念:エージェントの無秩序な増殖
安全性を開発初期に組み込む「シフトレフト」推進

安全性を担保する階層的防御

ライフサイクル追跡のための一意のID付与(Entra Agent ID)
設計段階からのデータ保護と組み込み型制御
模擬攻撃で脆弱性を特定する継続的な脅威評価
PurviewやDefenderとの連携による監視・ガバナンス

Foundryによる実装支援

シャドーエージェントを防ぐEntra Agent IDの付与
悪意ある指示を無効化する高度な注入対策分類器

マイクロソフトのAzureは、エンタープライズにおけるAIエージェントの安全かつセキュアな導入を実現するため、「エージェント・ファクトリー(Agent Factory)」と称する設計図(ブループリント)を発表しました。プロトタイプから基幹業務システムへと移行するAIエージェントに対し、「信頼」を最優先事項とし、データ漏洩プロンプトインジェクションといった最大の障壁を取り除くことを目指します。これはAIを活用し生産性向上を急ぐ企業にとって重要な指針です。

AIエージェントの採用が進む現在、最も深刻な懸念は「いかにAIを制御下に置き、安全性を保つか」という点です。最高情報セキュリティ責任者(CISO)は、エージェントの無秩序な増殖(スプロール)や、所有権の不明確さに頭を悩ませています。チームはデプロイを待つのではなく、セキュリティとガバナンスの責任を開発初期に移す「シフトレフト」を推進する必要があります。

この課題に対し、マイクロソフトは場当たり的な修正ではなく、ID管理、ガードレール、評価、監視などを組み合わせる階層的なアプローチを提唱しています。ブループリントは、単なる防御策の組み合わせではありません。エージェント固有のアイデンティティ管理、厳格なガードレールの設定、継続的な脅威評価、そして既存のセキュリティツールとの連携を統合することで、信頼性を築き上げます。

具体的に、エンタープライズレベルの信頼できるエージェントは五つの特徴を持ちます。一つはライフサイクル全体で追跡可能な一意のIDです。また、機密情報が過度に共有されないよう、設計段階でデータ保護と組み込み制御が導入されます。さらに、デプロイ前後で脅威評価と継続的な監視を行うことが必須です。

マイクロソフトは、このブループリントの実装をAzure AI Foundryで支援します。特に、開発予定のEntra Agent IDは、テナント内の全アクティブエージェントの可視化を可能にし、組織内に潜む「シャドーエージェント」を防ぎます。また、業界初のクロスプロンプトインジェクション分類器により、悪意ある指示を確実かつ迅速に無力化します。

AI Foundryは、Azure AI Red Teaming AgentやPyRITツールキットを活用し、大規模な模擬攻撃を通じてエージェント脆弱性を特定します。さらに、Microsoft Purviewと連携することで、データの機密性ラベルやDLP(データ損失防止)ポリシーエージェントの出力にも適用可能です。これにより、既存のコンプライアンス体制とAIガバナンスが統合されます。

Hugging Face、仏Scalewayを推論プロバイダーに統合しAI利用の選択肢拡大

統合の核心と利点

Scalewayを新たな推論プロバイダーに追加。
gpt-ossQwen3など人気モデルへ容易にアクセス。
モデルページからサーバーレスで即時推論可能。
ウェブUIとクライアントSDKからシームレス利用。

Scalewayの技術的強み

欧州データセンターによるデータ主権と低遅延。
トークンあたり€0.20からの競争的価格
構造化出力、ファンクションコーリングに対応。
高速応答(200ms未満)を実現。

柔軟な課金体系

カスタムキー利用でプロバイダーに直接請求
HF経由の請求は追加マークアップなし
PROユーザーは毎月2ドル分の推論クレジット付与。

Hugging Faceは、フランスのクラウドプロバイダーであるScalewayを新たな「Inference Provider(推論プロバイダー)」としてハブに統合しました。これにより、経営者エンジニアgpt-ossQwen3などの人気オープンウェイトモデルを、Scalewayの提供するフルマネージドなサーバーレス環境で利用可能になります。この統合は、AIモデルのデプロイと利用の柔軟性を高め、特に欧州におけるデータ主権への要求に応えるものです。

Scalewayが提供するのは「Generative APIs」と呼ばれるサーバーレスサービスであり、トークンあたり0.20ユーロ/100万トークンからという競争力のある従量課金制が特徴です。ユーザーはシンプルなAPIコールを通じて、最先端のAIモデルにアクセスできます。この手軽さとコスト効率は、大規模な本番環境での利用を検討する企業にとって大きなメリットとなります。

インフラストラクチャはパリの欧州データセンターに置かれており、欧州の利用者に対してデータ主権の確保と低遅延の推論環境を提供します。応答速度はファーストトークンで200ミリ秒未満を達成しており、インタラクティブなアプリケーションやエージェントワークフローへの適用に最適です。テキスト生成とエンベディングモデルの両方をサポートしています。

Scalewayのプラットフォームは高度な機能にも対応しています。具体的には、応答形式を指定できる構造化出力や、外部ツール連携を可能にするファンクションコーリング、さらにマルチモーダル処理能力を備えています。これにより、より複雑で実用的なAIアプリケーションの開発が可能になります。

利用者は、HFのウェブサイトUIだけでなく、PythonやJavaScriptのクライアントSDKからシームレスに推論を実行できます。課金方式は二通りあり、ScalewayのAPIキーを使う場合は直接プロバイダーに請求されます。HF経由でルーティングする場合は、HFによる追加のマークアップは発生しないため、透明性が高い価格で利用できます。

Hugging FaceのPROプランユーザーには、毎月2ドル分の推論クレジットが特典として提供されます。このクレジットは、Scalewayを含む複数のプロバイダーで横断的に使用可能です。本格的な商用利用や高いリミットが必要な場合は、PROプランへのアップグレードが推奨されています。

GV、CI/CDのBlacksmithに再投資 ベアメタル活用で開発を加速

異例の速さで資金調達

GVがわずか4ヶ月で追加投資
シリーズAで1000万ドルを調達完了
ARR(年間収益)は350万ドルに急増

開発速度を革新する技術

CI/CD処理にベアメタルを採用
処理速度を最大2倍に高速化
計算コストを最大75%の大幅削減

継続的インテグレーション・デリバリー(CI/CD)を提供するスタートアップBlacksmithは、シードラウンドからわずか4ヶ月で、Google Ventures(GV)主導のシリーズAラウンドを実施し、1000万ドル(約15億円)を調達しました。AI駆動のソフトウェア開発が加速する中、コードのリリース速度を劇的に高める同社の実績と市場拡大の可能性が評価され、GVは異例の速さで追加投資を決定しました。

Blacksmithの成長は目覚ましいものがあります。今年2月にわずか4人のチームでARR(年間経常収益)100万ドルを達成しましたが、現在は従業員8名体制でARRは350万ドルに急増しています。顧客数も700社を超えており、この短期間での確かな実績が、GVが短期間で大規模な追加投資を決断する決め手となりました。

同社の最大の強みは、従来のCI/CDプロセスが抱える高コストで予測不可能なテスト実行の課題を解消した点です。一般的なクラウドサービスをレンタルするのではなく、高性能なゲーミンググレードのCPUをベアメタル環境で活用しています。これにより、同社はリソースの経済性を完全に制御しています。

この独自のアプローチの結果、Blacksmithは顧客企業に対し、処理速度を最大2倍に高め、計算コストを最大75%削減できると主張しています。導入も容易であり、既存のコードを一行変更するだけで切り替えが完了します。これにより、企業は数分以内にコードの出荷プロセスを高速化することが可能です。

Blacksmithは、主にエンジニアを500人以上抱える大規模な開発チームをターゲットとしています。同サービスはGitHub Actionsと連携し、テスト分析や深い可視化機能を提供することで、既存のCI/CDプラットフォームを補完します。AIエージェントの普及は開発市場を広げ、同社の成長を後押ししています。

創業者は、Cockroach LabsやFaireなどの企業で大規模な分散システムを構築した経験を持ちます。CIにおけるビルドやユニットテストの非効率性を痛感した経験が、このサービス開発の原点です。今回のシリーズAには、Cockroach LabsのCEOら既存投資家も再参加しています。

Gemini 2.5がICPCで金獲得。人間不能の難問を30分で解決しAGIへ前進

プログラミング能力の証明

ICPC世界大会で金メダルレベルの成績
全12問中10問を正解し総合2位相当
人間チームが解けなかった難問Cを突破
国際数学オリンピック(IMO)に続く快挙

技術的ブレイクスルー

マルチステップ推論並列思考能力を活用
動的計画法と革新的な探索手法を適用
創薬半導体設計など科学工学分野への応用期待
プログラマーの真の協働パートナーとなる可能性

Google DeepMindのAIモデル「Gemini 2.5 Deep Think」が、2025年国際大学対抗プログラミングコンテスト(ICPC)世界大会で金メダルレベルの成果を達成しました。人間チームが誰も解けなかった複雑な最適化問題を見事に解決し、抽象的な問題解決能力におけるAIの劇的な進化を証明しました。

Geminiは競技ルールに従い、5時間の制限時間で12問中10問を正解しました。これは出場した大学139チームのうち、トップ4にのみ与えられる金メダルレベルに相当し、大学チームと比較すれば総合2位の成績となります。

特に注目すべきは、全ての人間チームが解決できなかった「問題C」を、Geminiが開始からわずか30分以内に効率的に解いた点です。これは、無限に存在する構成の中から、最適な液体分配ネットワークを見つけ出すという、極めて困難な課題でした。

Geminiは、各リザーバーに「プライオリティ値」を設定し、動的計画法を適用するという革新的なアプローチを採用しました。さらにミニマックス定理を利用し、最適解を効率的に導出するためにネストされた三進探索を駆使しました。

この快挙は、プレトレーニング強化学習、そして複数のGeminiエージェントが並列で思考し、コードを実行・検証するマルチステップ推論技術の統合によって実現しました。これにより、Geminiは最も困難なコーディング課題からも学習し進化しています。

ICPCの成果は、AIがプログラマーにとって真の問題解決パートナーになり得ることを示しています。AIと人間の知見を組み合わせることで、ロジスティクスやデバッグ創薬、マイクロチップ設計といった科学・工学分野の複雑な課題解決を加速させることが期待されます。

この先進技術の一部は、すでにGoogle AI Ultraのサブスクリプションを通じて、軽量版のGemini 2.5 Deep Thinkとして提供されています。AIコーディングアシスタントの知能が飛躍的に向上し、開発現場の生産性向上に直結するでしょう。

AWSがGPT-OSS活用、エージェント構築加速へ

<span class='highlight'>主要構成要素</span>

モデルのデプロイ・管理にAmazon SageMaker AIを使用
エージェントの統合にAmazon Bedrock AgentCoreを活用
グラフベースのワークフロー構築にLangGraphを利用

<span class='highlight'>システム設計の要点</span>

複雑なタスクを専門エージェント分業させる構造
高速推論を実現するvLLMサービングフレームワーク
スケーラブルでサーバーレスなエージェント運用基盤
低コストでの強力なオープンソースLLMの活用

AWSは、OpenAIが公開したオープンウェイトの大規模言語モデル(LLM)である「GPT-OSS」を活用し、実用的なエージェントワークフローを構築する詳細なガイドを発表しました。Amazon SageMaker AIでモデルをデプロイし、Amazon Bedrock AgentCoreでマルチエージェントを統合運用するエンドツーエンドのソリューションです。これにより、複雑なタスクを自動化し、企業生産性を大幅に高める道筋が示されました。

このソリューションの核となるのは、高度な推論エージェントワークフローに優れるGPT-OSSモデルです。MoE(Mixture of Experts)設計のこれらのモデルを、高速な推論フレームワークであるvLLMと組み合わせ、SageMaker AI上にデプロイします。この組み合わせにより、単一のGPU(L40sなど)上でも大規模なモデルを効率的に動かすことが可能となり、運用コストを抑えつつ高性能を実現しています。

現実世界の複雑なアプリケーションには、単なるLLM応答以上のワークフロー管理とツール利用能力が求められます。この課題を解決するため、グラフベースの状態管理フレームワークLangGraphを採用し、複数の専門エージェントの協調を設計しました。これらのエージェントは、Bedrock AgentCore Runtimeという統合レイヤー上でデプロイ・運用されます。

Amazon Bedrock AgentCoreは、エージェントインフラストラクチャ管理、セッション管理、スケーラビリティといった重労働を抽象化します。開発者はロジックの構築に集中でき、エージェントの状態を複数の呼び出し間で維持できるため、大規模かつセキュアなAIエージェントシステムをサーバーレスで展開・運用することが可能になります。

具体例として、株価分析エージェントアシスタントが構築されました。このシステムは、データ収集エージェント、パフォーマンス分析エージェント、レポート生成エージェントの3つで構成されます。ユーザーの問い合わせに対し、専門化されたコンポーネントが連携し、株価データ収集から技術・ファンダメンタル分析、そして最終的なPDFレポート生成までを一気通貫で実行します。

このエージェントワークフローは、定型的な分析業務を自動化し、アナリストの生産性向上に大きく貢献します。処理時間の大幅な短縮に加え、スキルを持つ専門家が、より複雑な意思決定や顧客との関係構築といった高付加価値業務に注力できる環境を提供します。オープンソースLLMの力を最大限に引き出し、ビジネス価値に変える実践例です。

Amazon、出品者向けAIエージェント拡充 在庫管理から広告生成まで自動化

Agentic AI「Seller Assistant」進化

アカウント状態と在庫レベルを常時監視
売れ行き不振商品の価格変更や削除を推奨
需要パターンに基づき出荷を自動提案
新製品安全規制などコンプライアンスを自動チェック

AI広告チャットボットの導入

テキストプロンプト静止画・動画広告を生成
ブランドガイドラインを反映したクリエイティブの自動作成
タグライン、スクリプト、ボイスオーバーの生成
Amazon外のメディア(Prime Video等)への広告展開

Amazonは2025年9月、プラットフォーム上のサードパーティ出品者向けに、自律的に業務を代行するエージェントAI機能の導入・拡張を発表しました。既存の「Seller Assistant」を強化し、さらにAI広告作成チャットボットを提供します。これにより、在庫管理、コンプライアンス遵守、広告クリエイティブ制作などの広範な業務が自動化され、出品者の生産性と収益性の最大化を図ります。

拡張されたSeller Assistantは「常時稼働」のAIエージェントとして機能します。これは単なるツールではなく、セラーに代わってプロアクティブに働きかけることを目的としています。ルーティン業務から複雑なビジネス戦略までを自動で処理し、出品者は商品開発や事業成長といったコア業務に集中できる体制を構築します。

特に注目されるのが在庫管理の最適化機能です。エージェントは在庫レベルを継続的に監視し、売れ行きの遅い商品を自動的に特定します。これにより、長期保管料が発生する前に価格の引き下げや商品の削除を推奨。また、需要パターンを分析し、最適な出荷計画を立てるサポートも行います。

複雑化する規制への対応も自動化します。Seller Assistantは、出品リストが最新の製品安全性ポリシーに違反していないかをスキャンするほか、各国で販売する際のコンプライアンス要件への適合を自動で確保します。これはグローバル展開を志向するセラーにとって大きなリスク低減となります。

同時に導入されたAI広告チャットボットは、クリエイティブ制作の時間とコストを大幅に削減します。出品者が求める広告の概要をテキストで入力するだけで、AIがブランドガイドラインや商品詳細に基づき、静止画や動画のコンセプトを自動で生成します。

このチャットボットは、タグラインや画像だけでなく、スクリプト作成、音楽追加、ボイスオーバー、絵コンテのレイアウトまでを完結できます。生成された広告は、Amazonのマーケットプレイス内だけでなく、Prime VideoやKindle、TwitchといったAmazonの広範なプロパティに展開され、露出を最大化します。

これらの新機能は、Amazon独自の基盤モデルであるNova AI、およびAnthropicClaudeを活用しています。今回の発表は、AIが商取引を主体的に推進する「エージェント主導型コマース」の流れを加速させています。Googleなども同様にエージェントによる決済プロトコルを公開しており、AIによる業務代行競争が本格化しています。

金融の複雑なコンプラ業務をAIで7割削減、Rulebaseが2.1億円調達

資金調達と成長

YC支援のもと210万ドルを調達
元MS/GS出身者が2024年に創業
金融バックオフィス業務を自動化

AI「コワーカー」機能

顧客対応のコンプラリスクを評価
QAや紛争解決など手作業を代替
既存ツール(Jira等)とのシームレス連携

経営へのインパクト

業務コストを最大70%削減
顧客対応の100%レビューを実現

Y Combinator出身のRulebaseが、プレシードラウンドで210万ドル(約3.1億円)資金調達を実施しました。同社は、フィンテック企業のバックオフィス業務、特にコンプライアンス品質保証QA)を自動化するAIエージェント「コワーカー」を提供し、生産性向上を目指しています。

RulebaseのAIコワーカーは、従来の金融機関でQAアナリストが手動で3〜5%しかレビューできなかった顧客対応を、100%評価できるように設計されています。これにより、手作業を大幅に削減し、人的コストを最大70%削減できると創業者は述べています。

このAIエージェントは、顧客とのやり取りを評価し、規制リスクを即座に特定します。ZendeskやJira、Slackなどの既存プラットフォームと連携し、一連の紛争対応ライフサイクルを管理します。人間による監視(Human-in-the-loop)を維持している点も、金融業界にとって重要です。

Rulebaseが金融サービスに注力する理由は、高度な専門知識(ドメインナレッジ)が要求されるためです。Mastercardの規則やCFPB(消費者金融保護局)のタイムラインといった詳細な知識をシステムに組み込むことが、他社との決定的な競争優位性(Moat)になるとCEOは強調しています。

すでに米国大手銀行プラットフォームなどでの導入実績があり、エスカレーション率を30%削減するなどの効果が出ています。調達資金を活用し、エンジニアリングを強化するとともに、今後は不正調査や監査準備といった新機能の追加も視野に入れています。

NVIDIAが英国の「AIメーカー」戦略を加速 物理AI・創薬・ロボティクス分野で広範に連携

英国の国家AI戦略を支援

英国のAI機会行動計画を後押し
世界クラスの計算基盤への投資
AI採用を全経済分野で推進
AIユーザーでなくAIメーカーを目指す

重点分野での協業事例

スパコンIsambard-AI」で基盤構築
ロボティクス:自律走行、製造、ヒューマノイド開発
ライフサイエンス:AI創薬デジタルツインを活用

NVIDIA英国のAIエコシステムとの広範なパートナーシップを強調し、英国の国家戦略である「AIメーカー」としての地位確立を強力に支援しています。ジェンスン・ファンCEOの英国訪問に際し、物理AI、ロボティクス、ライフサイエンス、エージェントAIなど最先端領域における具体的な協業事例が公表されました。

英国のAI基盤強化の核となるのは、NVIDIA Grace Hopper Superchipsを搭載した国内最速のAIスーパーコンピューター「Isambard-AI」です。これにより、公的サービスの改善を目指す独自の多言語LLM(UK-LLM)や、早期診断・個別化医療に向けた医療基盤モデル(Nightingale AI)など、重要な国家プロジェクトが推進されています。

特に物理AIとロボティクス分野での応用が加速しています。Extend Roboticsは製造業向けに安全なロボット遠隔操作システムを開発。Humanoid社は倉庫や小売店向けの汎用ヒューマノイドロボットを開発しており、いずれもNVIDIAのJetsonやIsaacプラットフォームが活用されています。

ライフサイエンス分野では、AIによる創薬の加速が目覚ましいです。Isomorphic LabsはAI創薬エンジンを構築し、英国CEiRSIはNVIDIA技術を用いて複雑な患者のデジタルツインを作成。これにより、大規模かつ多様な患者集団に対する新しい治療法のテストを可能にしています。

エージェントAIおよび生成AIのイノベーションも活発です。Aveniは金融サービスに特化したLLMを開発し、コンプライアンスを確保しながら顧客対応やリスク助言を行うエージェントフレームワークを構築しました。ElevenLabsやPolyAIは、超リアルな音声生成や、大規模な顧客サポート自動化を実現しています。

また、AIスキルギャップ解消への取り組みも重要です。技術ソリューションプロバイダーのSCANは、NVIDIA Deep Learning Instituteと連携し、コミュニティ主導型のトレーニングプログラムを展開しています。これにより、英国全土でAIや専門的なワークロードに対応できる人材育成が進められています。

Google、AIエージェント決済の国際標準「AP2」公開

プロトコル「AP2」の核

AIエージェント駆動型購入のためのオープン標準
60社超の金融機関・小売業者が支持
AIプラットフォーム間の相互運用性を確保
全てのトランザクションに追跡可能な証跡を提供

安全性と承認プロセス

詐欺対策のための監査可能な記録生成
原則、意図(Intent)カート(Cart)の2段階承認制
価格制限など詳細設定で完全自動購入も可能
MastercardやPayPalなどが即座に採用を表明

Googleは9月16日、AIエージェントがユーザーに代わって行う購入を対象としたオープンプロトコル「Agent Payments Protocol (AP2)」を発表しました。この新規格は、AIプラットフォーム、決済システム、小売業者の間で高い相互運用性を確立し、全ての取引履歴に監査可能な追跡記録を提供することを目的としています。既にMastercard、American Express、PayPalを含む60以上の主要金融機関や小売業者が支持を表明しており、AI駆動型コマースの基盤となることが期待されます。

AP2は、AIエージェントがリアルタイムで複雑な取引や交渉を行う未来を想定して設計されました。例えば、ユーザーの要望に応じてエージェントが航空会社やホテルのエージェントと同時に連携し、予算内に収まるパッケージを自動で予約するといったケースです。GoogleGitHubで仕様を公開しており、オープンな共同プロセスを通じて、決済・テクノロジーコミュニティ全体での普及を目指しています。

AIエージェントが自律的に購入を遂行する際の最大の懸念は、意図しない取引や詐欺リスクです。AP2はこのリスクに対処するため、購入前に二段階の承認プロセスを要求します。まず「Intent Mandate(意図の委任)」検索・交渉権限を与え、次に特定のオファーが見つかった際に「Cart Mandate(カートの委任)」で最終購入を承認します。

特に重要なのは、全てのプロセスで監査可能な追跡記録(オーディット・トレイル)が保持される点です。これにより、不正が発生した場合でも経緯を再調査できます。また、より詳細な意図を設定することで、価格上限などを指定した完全自動購入も可能です。さらに、暗号資産ウォレットからの購入を可能にする拡張機能も協力企業と共に提供されています。

YC最注目株:AIエージェントとインフラが主戦場

AIインフラと業務特化

AI向けStripe統合基盤の開発(Autumn)
AIエージェント自動デプロイ基盤(Dedalus Labs)
本番環境のバグを修正するAIエンジニア(Keystone)
保険金請求を自動化する業務特化AI(Solva)

ニッチ市場と成長性

AI生成デザインクラウド評価(Design Arena)
会話に特化したAI言語家庭教師(Pingo AI)
女性向け友人マッチングAIの急成長(RealRoots)
コスト効率の高いドローン兵器(Perseus Defense)

先週開催されたYCサマー2025デモデイでは、160社超のスタートアップが登壇しました。今回の傾向は、従来の「AI搭載」製品から、AIエージェントとそれを開発・運用するための専門インフラへの明確なシフトです。投資家の間で特に注目を集めたのは、複雑な課金管理やインフラ自動化を担うB2Bソリューション群でした。

最も求められるスタートアップ9社からは、AI市場の成熟度が見て取れます。特に、複雑な従量課金モデルに対応する「Stripe for AI」や、エージェントの自動デプロイを可能にする「Vercel for AI agents」など、AI経済を足元から支えるツールが多数登場しました。これは市場が本格的な収益化フェーズに入ったことを示唆します。

B2B領域では、AutumnがAI特有の複合的な課金モデルを簡素化し、既に40社のYCスタートアップで採用されています。また、Dedalus Labsは、AIエージェントオートスケーリングや負荷分散を自動化し、数時間かかっていたデプロイ作業を数クリックで完了させます。インフラ効率化が成長の鍵です。

業務特化型AIも高い収益性を示しています。保険金請求プロセスを自動化するSolvaは、ローンチからわずか10週間で年間経常収益(ARR)24.5万ドルを達成。また、本番環境のバグをAIが自動修正するKeystoneも、多額の買収提案を断るほどの評価を受けています。

消費者向けサービスでは、AIを活用したニッチな社会的課題解決が成功事例となりました。女性の孤独解消を目的とした友人マッチングAI「RealRoots」は、月間収益78.2万ドルを稼ぎ出しています。また、会話に特化したAI家庭教師「Pingo AI」も月次70%成長と驚異的な伸びです。

異色な注目株としては、軍事・防衛分野のPerseus Defenseが挙げられます。同社は、安価なドローン群を迎撃するためのコスト効率の高いミニミサイルを開発しており、複数の米国軍関係機関からデモ実演に招かれるなど、国防技術の需要の高まりを反映しています。

GPT-5-Codexが開発生産性を劇的に向上させる理由

エージェント能力の進化

複雑なタスクで最長7時間以上の独立稼働
タスクに応じた思考時間の動的な調整
迅速な対話と長期的な独立実行の両立
実世界のコーディング作業に特化しRL学習を適用

ワークフローへの密着

CLI、IDE拡張機能、GitHubへシームレスに連携
ローカル環境とクラウド間のコンテキスト維持
画像やスクリーンショットを入力可能

品質と安全性の向上

コードレビューの精度が大幅に向上
重大なバグを早期に発見しレビュー負荷を軽減
サンドボックス環境による強固なセキュリティ

OpenAIは、エージェントコーディングに特化した新モデル「GPT-5-Codex」を発表し、開発環境Codexを大幅にアップグレードしました。これはGPT-5を実世界のソフトウェアエンジニアリング作業に最適化させたバージョンです。開発者はCLI、IDE、GitHubChatGPTアプリを通じて、より速く、信頼性の高いAIアシスタントを活用できるようになります。

最大の進化は、タスクの複雑性に応じて思考時間を動的に調整する能力です。GPT-5-Codexは、大規模なリファクタリングデバッグなどの複雑なタスクにおいて、最長7時間以上にわたり独立して作業を継続できることが確認されています。これにより、長期的なプロジェクトの構築と迅速なインタラクティブセッションの両方に対応します。

モデルは、既存のコードベース全体を理解し、依存関係を考慮しながら動作検証やテスト実行が可能です。特にコードレビュー機能が強化されており、コミットに対するレビューコメントの正確性と重要性が向上。重大な欠陥を早期に特定し、人間のレビュー工数を大幅に削減します。

開発ワークフローへの統合も一層強化されました。刷新されたCodex CLIとIDE拡張機能(VS Codeなどに対応)により、ローカル環境とクラウド環境間でシームレスに作業を移行できます。コンテキストが途切れないため、作業効率が劇的に向上します。

さらに、Codex画像やスクリーンショットを入力として受け付けるようになりました。これにより、フロントエンドのデザイン仕様やUIバグなどを視覚的にAIへ共有し、フロントエンドタスクの解決を効率化します。また、GitHub連携によりPRの自動レビューや編集指示も可能です。

安全性確保のため、Codexはデフォルトでサンドボックス環境で実行され、ネットワークアクセスは無効です。プロンプトインジェクションリスクを軽減するとともに、開発者セキュリティ設定をカスタマイズし、リスク許容度に応じて運用することが可能です。

USA Todayが自社チャットボット導入、GoogleのAI概要に反撃

出版業界の危機感

Google AI Overviewでトラフィック激減
検索エンジン依存モデルの将来リスクを指摘
著作権侵害への数十億ドルの補償を要求

独自AI「DeeperDive」

Gannettが独自チャットボットDeeperDive発表
220紙以上の自社記事を回答ソースに限定
事実確認を重視し意見記事を除外

技術と収益戦略

開発はTaboolaと連携しOSSを活用
検索ボックスを代替し読者の関心を捕捉
将来的に購買支援エージェント化を目指す

米大手新聞社Gannett(USA Today Network)は、GoogleのAI概要(AI Overview)機能によるウェブトラフィック激減に対抗するため、独自AIチャットボット「DeeperDive」を導入しました。同社CEOのマイク・リード氏は、WIRED AI Power Summitにて発表し、AIがコンテンツを要約することで、出版社へのトラフィックフローが劇的に減少している現状を強く批判しました。この動きは、AIによるメディア業界の収益モデル破壊に対する具体的な反撃策として注目されています。

DeeperDiveは、USA Today Networkの220紙以上の出版物から得たジャーナリズム記事のみに基づいて読者の質問に答える、「AI回答エンジン」です。従来の検索ボックスを置き換え、ユーザーに直接的な回答と関連性の高い記事を提供します。これは、読者が外部のAI企業に行かずとも、信頼できる情報源内で完結させることを目的としています。

DeeperDiveの最大の特徴は、回答の事実正確性を重視している点です。同CEOは、意見記事は参照せず、「実際のジャーナリズム」のみを参照源とすることを強調しました。このツールは広告技術企業Taboolaと共同開発され、複数のオープンソースモデルファインチューニングして構築されています。

リードCEOは、GoogleAI Overviewが「10の青いリンク(従来の検索結果)」を経由するトラフィックを著しく妨害しているとの認識を示しました。この問題は業界全体に及び、SEO最適化に依存する従来のコンテンツ配信モデルに、将来的なリスクをもたらすと警鐘を鳴らしています。

メディア業界のリーダーたちは、AIがコンテンツを学習データとして使用することに対する数十億ドル規模の補償が必要だと主張しています。Condé Nastのロジャー・リンチCEOは、音楽業界がストリーミングサービスとライセンス契約を結んだ状況になぞらえ、AIモデルにとってコンテンツは最も重要なインプットであると訴えています。

GannettはDeeperDiveを通じて読者の関心や意図をより深く理解し、収益化に繋げることを期待しています。次のステップとして、読者の購買決定を支援するエージェント機能を探求する意向を示しています。同社の読者は元々購買意欲が高い層であり、新たな収益源としての可能性を見込んでいるとのことです。