オープンソースモデル(LLM技術)に関するニュース一覧

Cursorが新エージェント型開発環境を発表、Claude CodeやCodexに対抗

Cursor 3の全容

自然言語でタスク指示が可能
複数エージェントの同時実行に対応
クラウド生成コードをローカルで確認

AI大手との競争激化

月200ドルで1000ドル超の利用価値提供
Cursor従量課金へ転換済み
独自モデルComposer 2を投入

Cursorは2026年4月、AIコーディングエージェントを中心とした新製品「Cursor 3」を発表しました。コード名Glassで開発された本製品は、AnthropicClaude CodeOpenAICodexに対抗するエージェント型開発体験を提供します。

Cursor 3は既存のデスクトップアプリ内に新しいインターフェースとして統合されます。中央のテキストボックスに自然言語でタスクを入力すると、AIエージェントがコードを自動生成します。サイドバーで複数のエージェントを同時に管理できる設計です。

競合製品との最大の差別化は、IDEエージェント型製品の統合にあります。クラウド上でエージェントが生成したコードをローカル環境で即座に確認・編集できるため、開発者は従来のワークフローを維持しつつエージェントを活用できます。

一方で経営面の課題は深刻です。複数の開発者Claude CodeCodexへ移行したと証言しており、主な理由は月額200ドルの定額プランで1000ドル超相当の利用が可能な補助金付き価格設定です。Cursorは2025年6月に従量課金へ移行し、一部の開発者の不満を招きました。

Cursorは対抗策として独自AIモデル「Composer 2」の提供を開始しました。中国のMoonshot AIのオープンソースモデルをベースに追加学習を施したもので、性能・価格・速度の面で競争力があると主張しています。現在約500億ドル評価額資金調達を進めており、AI大手との消耗戦に備えています。

TII、6億パラメータで画像認識の統合モデル「Falcon Perception」公開

単一モデルで高精度認識

画像とテキストを1つのTransformerで統合処理
SAM 3を上回るMacro-F1 68.0達成
属性・OCR・空間理解で大幅な性能差
0.6Bパラメータの軽量設計

OCRモデルも同時発表

Falcon OCRは0.3Bパラメータ
olmOCRベンチで80.3点の高精度
オープンソースOCR最高スループット

診断ベンチマークPBench

能力別にL0〜L4の5段階で評価
空間理解でSAM 3に+21.9点差

UAE・技術革新研究所(TII)Falconチームは2026年4月1日、画像認識・セグメンテーション・OCRを単一のTransformerで処理するオープンソースモデルFalcon Perception」を公開しました。パラメータ数はわずか6億で、従来のパイプライン型システムに代わる統合的なアプローチを提案しています。

Falcon Perceptionの最大の特徴は、画像パッチとテキストトークンを最初の層から同一のパラメータ空間で処理する「早期融合」アーキテクチャです。画像トークンには双方向注意、テキストトークンには因果的注意を適用するハイブリッドマスクにより、1つのモデルで視覚エンコーダとテキストデコーダの両方の役割を果たします。

オープン語彙セグメンテーションベンチマークSA-Coでは、Macro-F1で68.0を達成し、Meta社のSAM 3の62.3を上回りました。特に属性認識で+8.2、食品・飲料カテゴリで+12.2と大きな差をつけています。一方、存在判定の精度(MCC 0.64対0.82)ではSAM 3に及ばず、今後の改善課題として示されています。

同時に発表されたFalcon OCRは0.3Bパラメータの文書認識モデルです。olmOCRベンチマークで80.3点、OmniDocBenchで88.6点を記録し、DeepSeek OCR v2やGPT 5.2を上回る性能を示しました。オープンソースOCRモデルとして最高のスループットを実現し、vLLM統合によりA100上で毎秒2.9画像を処理できます。

チームは性能評価のため、能力別に分類した診断ベンチマークPBench」も公開しました。単純な物体認識(L0)から関係推論(L4)まで5段階に分かれ、Falcon Perceptionは空間理解でSAM 3に+21.9点、OCR識別で+13.4点と、プロンプトが複雑になるほど差が拡大する結果となっています。

学習には5400万枚の画像と1億9500万の正例表現、4億8800万のハードネガティブを使用しました。3段階の学習レシピにより、シーン理解からタスク特化、高密度シーン対応へと段階的に能力を獲得させています。モデルとコードはHugging Faceで公開されており、Apple Silicon向けのMLX統合やDockerサーバーも提供されています。

Hugging Face、OpenClawのオープンモデル移行手順を公開

2つの移行経路

HF推論API経由が最速
ローカル実行で完全無料化
GLM-5を推奨モデルに指定
HF PRO会員は月2ドル無料枠

ローカル環境構築

llama.cppでローカル推論
Qwen3.5-35Bが32GB RAMで動作
OpenAI互換APIとして接続
プライバシーと完全制御を実現

Hugging Faceは、OpenClawやPiなどのAIエージェントをクローズドモデルからオープンモデルへ移行するための具体的な手順を公開しました。ホスト型とローカル型の2つの方法が提示されています。

ホスト型の方法では、Hugging Face Inference Providersを利用します。APIトークンを取得し、OpenClawの設定コマンドで認証を行うだけで、数千のオープンソースモデルから選択して即座にエージェントを復旧できます。

推奨モデルとしてGLM-5が挙げられており、Terminal Benchで高いスコアを記録しています。設定ファイルのrepo_idを変更するだけでモデルの切り替えが可能で、HF PRO会員には月額2ドルの無料クレジットが付与されます。

ローカル型の方法では、オープンソースの推論ライブラリllama.cppを使用します。macOS・Linux・Windowsいずれにも対応しており、パッケージマネージャから簡単にインストールできます。

ローカル実行ではQwen3.5-35B-A3Bが推奨されており、32GBのRAMで動作します。APIコストゼロ、レート制限なし、完全なプライバシー保護が実現でき、クローズドモデルに依存せずエージェントを運用できる点が強調されています。

Cursor新モデル、中国Kimi基盤と判明し波紋

発覚の経緯

Composer 2のモデルIDにKimi痕跡
外部ユーザーがコード解析で指摘
Cursor副社長がOSS基盤使用を認める
計算量の約4分の1がベースモデル由来

企業間の関係

Fireworks AI経由の商用契約と説明
Moonshot AIはAlibaba出資の中国企業
Cursor共同創業者記載漏れを謝罪
米中AI競争の文脈で透明性が問題に

AIコーディング企業Cursorが今週発表した新モデル「Composer 2」が、中国Moonshot AIのオープンソースモデルKimi 2.5をベースに構築されていたことが判明しました。Xユーザーのコード解析がきっかけで発覚し、業界に波紋を広げています。

Cursor開発者教育担当副社長Lee Robinson氏は事実を認め、最終モデルの計算量のうちベースモデル由来は約4分の1で、残りは自社トレーニングによるものだと説明しました。各種ベンチマークでの性能はKimiとは大きく異なると強調しています。

Moonshot AIはアリババや紅杉中国(旧セコイア・チャイナ)が出資する中国企業です。CursorFireworks AIを通じた正規の商用パートナーシップのもとでKimiを利用しており、ライセンス条件に準拠していると主張しています。

Cursorは昨秋に23億ドル資金調達を実施し、評価額は293億ドルに達しています。年間売上高も20億ドルを超えたと報じられる有力スタートアップだけに、発表時に中国モデルの使用を明記しなかったことへの批判が集まりました。

共同創業者Aman Sanger氏は「ブログでKimiベースに言及しなかったのはミスだった。次のモデルでは改善する」と謝罪しました。米中AI覇権競争が激化する中、オープンソースモデルの商用利用における透明性のあり方が改めて問われています。

Mistral、推論・視覚・コード統合の小型モデルSmall 4公開

Small 4の特徴

Apache 2.0で公開
総パラメータ1190億、活性60億
128エキスパートのMoE構成

推論コスト削減

出力が他モデルより大幅に短い
推論努力を動的に調整可能
H100×4台で運用可能

ベンチマーク性能

MMLU ProでMistral Large 3に迫る性能
GPT-OSS 120BをLCRで上回る

Mistralは2026年3月、推論・マルチモーダル・エージェントコーディングの3機能を統合した小型オープンソースモデルSmall 4」を公開しました。Apache 2.0ライセンスで提供され、企業が複数モデルを使い分ける必要性を解消することを目指しています。

Small 4はMixture-of-Experts(MoE)アーキテクチャを採用し、総パラメータ数1190億のうち、トークンあたりの活性パラメータはわずか60億に抑えられています。128のエキスパートから各トークンで4つが選択される設計により、効率的なスケーリングと専門化を実現しています。

新たに導入された「reasoning_effort」パラメータにより、ユーザーは推論の深さを動的に調整できます。軽量な高速応答からMagistralのようなステップバイステップの詳細推論まで、用途に応じた切り替えが可能です。256Kのコンテキストウィンドウも長文分析に対応します。

ベンチマークでは、MMLU ProMistral Medium 3.1やMistral Large 3に迫る性能を示しました。一方、LiveCodeBenchではQwen 3.5 122BやClaude Haikuに及ばない結果も出ています。ただしSmall 4はインストラクトモードで最短の出力長(2.1K文字)を記録し、推論コスト面での優位性を主張しています。

小型言語モデル市場のNeurometric社CEOロブ・メイ氏は、Small 4のアーキテクチャの柔軟性を評価しつつも、小型モデル市場の断片化リスクを指摘しました。企業がAIモデルを選定する際には「信頼性と構造化出力」「レイテンシと知能の比率」「ファインチューニング可能性とプライバシー」の3つの柱を優先すべきだと述べています。

a16z、AI市場は独占でなく寡占に向かうと分析

AI市場の競争構造

a16zがAI市場構造を分析
独占か寡占かの論点を整理
複数プレイヤーの共存を予測

寡占化の背景と展望

基盤モデルの開発競争が継続
参入障壁は高いが独占困難
オープンソースが競争を促進
レイヤー別に競争環境が異なる

Andreessen Horowitza16zは、AI市場が独占(モノポリー)ではなく寡占(オリゴポリー)に向かうとの見解を発表しました。大手VCとしてAI業界を俯瞰した分析です。

AI業界ではOpenAIGoogleAnthropicなど複数の有力企業が基盤モデル開発で競争しています。一社が市場を完全に支配する独占状態にはなりにくいとa16zは指摘しています。

その背景にはオープンソースモデルの台頭があります。MetaLlamaシリーズなどが無償公開され、新規参入者にも高性能モデルの活用機会が広がっており、独占を阻む要因となっています。

一方で計算資源や大規模データセットの確保には莫大な投資が必要であり、参入障壁は依然として高い状態です。結果として少数の大手企業による寡占構造が形成されつつあります。

a16zはAIのバリューチェーンをレイヤー別に分析し、インフラ層・モデル層・アプリケーション層でそれぞれ異なる競争環境が生まれると見ています。投資家経営者にとって市場構造の理解が戦略策定の鍵となります。

Cursor独自モデルComposer 2発表、大幅値下げで競争力強化

性能と価格の両立

前世代比86%のコスト削減
CursorBench 61.3で大幅向上
Opus 4.6超えGPT-5.4には及ばず
20万トークンの長文脈対応

戦略的な意味合い

Cursor専用の垂直統合モデル
中国発Kimi K2.5を独自微調整
高速版をデフォルト化で体験訴求
自社モデルでプラットフォーム価値主張

AIコーディングプラットフォームを手掛けるCursor(Anysphere社、評価額293億ドル)は2026年3月、独自の微調整モデルComposer 2を発表しました。中国オープンソースモデルKimi K2.5をベースに、Cursorエージェント環境向けに最適化されています。

価格面では前世代Composer 1.5から劇的に引き下げられました。入力トークン100万あたり0.50ドル、出力は2.50ドルと、Composer 1.5比で約86%の削減です。高速版Composer 2 Fastも同57%安となり、こちらがデフォルト設定に採用されています。

ベンチマーク性能も大幅に向上しています。CursorBenchで61.3、SWE-bench Multilingualで73.7を記録し、Composer 1.5の44.2・65.9から飛躍しました。Terminal-Bench 2.0では61.7とClaude Opus 4.6の58.0を上回りましたが、GPT-5.4の75.1には届いていません。

技術的な特徴は長期的エージェント作業への対応です。継続事前学習強化学習により、数百ステップにわたるコーディングタスクを処理できるとされます。ファイル編集やターミナル操作などCursor固有のツール群との統合が深められています。

戦略面では、OpenAIAnthropicが自社コーディング製品を強化するなか、Cursorは独自モデルによる差別化を図っています。ただしComposer 2はCursor環境専用であり、外部APIとしての提供はありません。中間プラットフォームとしての存在意義が問われる局面での重要な一手です。

Eragon、企業向けAI OSで1200万ドル調達

プロンプト型業務基盤

全業務ソフトをLLMで代替
自然言語で分析・ダッシュボード生成
オープンソースモデルを顧客データで訓練

セキュリティと差別化

顧客データは自社環境内に保持
モデル重みを企業が所有
大企業・スタートアップで導入開始
Nvidia黄氏も同様のビジョン提示

Eragon創業者ジョシュ・シロタ氏は、2025年8月に同社を設立し、企業向けエージェントAI OSの構築を目指して1200万ドルの資金調達を完了しました。ポストマネー評価額は1億ドルに達しています。

同社の基本理念は「ソフトウェアは死んだ」というものです。ボタンやダイアログボックスといった従来のUIを廃し、SalesforceSnowflake・Jiraなどの業務ソフトをプロンプトひとつで操作できる世界を目指しています。

技術面ではQwenやKimiなどのオープンソースモデルを顧客データでポストトレーニングし、企業のメールやリソースと連携します。新規顧客のオンボーディングも自然言語の指示だけで自動的に完了する仕組みです。

セキュリティ上の大きな特徴は、企業データが自社サーバー内に留まり、モデルの重みも企業自身が所有する点です。シロタ氏は、長年の企業データで訓練されたモデルが将来貴重な資産になると見込んでいます。

NvidiaのジェンスンCEOもGTCで「すべてのSaaS企業がAgentic-as-a-Serviceになる」と発言し、同様のビジョンを示しました。一方でフロンティアラボからモデルラッパーまで競争は激化しており、Eragonの差別化が問われます。

Z.ai、エージェント特化の非公開モデルGLM-5 Turboを投入

モデルの特徴と価格

エージェント向け高速推論に最適化
入力$0.96・出力$3.20の低価格設定
約20万トークンの長文脈対応
ツール呼出エラー率0.67%と低水準

戦略的意味合い

オープンソース路線からの転換信号
中国AI各社が商用優先へ傾斜
米国大手と同様のハイブリッド戦略
企業向けコーディングサービスにも搭載

中国AIスタートアップZ.aiは、オープンソースのGLM-5をベースにしたプロプライエタリ版「GLM-5 Turbo」を発表しました。エージェント駆動型ワークフロー向けに最適化された同モデルは、OpenRouterのAPIを通じて即日利用可能です。

価格は入力100万トークンあたり0.96ドル、出力100万トークンあたり3.20ドルに設定されています。前身モデルより合計コストで約0.04ドル安く、Claude Haiku 4.5やGemini 3 Flashなど競合モデルと比較しても競争力のある水準です。

技術面では、複雑な指示の分解・ツール呼び出しスケジュール実行・長時間タスクの安定性が改善されています。OpenRouterのデータによると、ツール呼出エラー率はわずか0.67%で、GLM-5の各プロバイダー(2.33〜6.41%)を大きく下回ります。

注目すべきはライセンス戦略の変化です。Z.aiはGLM-5 Turbo自体の公開は明言せず、得られた知見を次期オープンソースモデルに反映するとしています。これはAlibaba Qwen部門の幹部離脱や組織再編と合わせ、中国AI業界全体の商用化シフトを示唆しています。

この動きは、OpenAIAnthropicGoogleが採用する「オープンで普及、プロプライエタリで収益化」という米国型ハイブリッド戦略と酷似しています。エージェントプラットフォームを検討する開発者にとって、GLM-5 Turboは製品であると同時に、中国AI市場の構造変化を読み解く重要なシグナルです。

ファン氏、AIの「5層構造」は人類史上最大のインフラ整備

AIの5層スタック

エネルギーAI基盤の第一原理
チップ:計算効率を左右する要
インフラAI工場として機能
モデル:多領域の知能生成エンジン
アプリ:経済価値を生む最上層

経済・雇用への波及

数兆ドル規模の投資需要
熟練職の大量雇用創出
生産性向上による需要拡大
DeepSeek-R1が全層需要を加速

NVIDIAのジェンセン・ファンCEOは2026年1月のダボス会議で、AIを「5層のケーキ」として定義しました。エネルギーチップインフラ・モデル・アプリケーションの5層が相互に依存し、これが人類史上最大のインフラ整備になると宣言しました。

従来のソフトウェアは人間が記述したアルゴリズムを実行するだけでしたが、AIは非構造化情報を理解しリアルタイムで知能を生成します。この根本的な変化がコンピューティングスタック全体の再設計を必要とした、とファン氏は説明しました。

現在は数千億ドルの投資が行われていますが、必要なインフラの大半はまだ存在しません。世界各地でチップ工場・コンピュータ組立工場・AIファクトリーが空前の規模で建設されており、電気工事士や配管工など高技能・高待遇の職が大量に必要とされています。

AIは知識労働の生産性も向上させます。放射線科医の例では、AIがスキャン読み取りを支援しても診断医の需要は増加しています。生産性が容量を生み、容量が成長を生むというサイクルが実証されています。

オープンソースモデルは世界中の研究者・企業・国家がAIに参加する基盤となっています。DeepSeek-R1のような強力な推論モデルの無償公開はアプリ層の採用を加速し、インフラチップエネルギー全層への需要を押し上げた好例です。

ファン氏はAIをもはや一企業・一国の問題ではなく、すべての企業が活用しすべての国が構築する現代世界の基礎インフラと位置づけました。今後の構築速度・参加の広さ・責任ある展開がこの時代の形を決めると締めくくりました。

Alibaba Qwen技術リーダー林氏が突然退任、チーム再編へ

主要メンバーの相次ぐ離脱

林駿洋氏Qwen技術リーダーを退任
研究員Hui氏やインターンも同時離脱
Qwen3.5小型モデル発表の翌日の退任
同僚が「本人の意思ではない」と示唆

Alibabaの組織再編と戦略転換

Google DeepMind出身の周昊氏が後任に
CEOが基盤モデルタスクフォース設立を発表
垂直統合型R&D;から水平分業型へ転換
オープンソース戦略の継続を表明

オープンソースAIへの影響

Qwenモデルの累計6億DL超の実績
9万社超の企業導入への信頼性懸念
将来モデルの有料API限定化の可能性
中国発オープンソースAIの転換点

AlibabaのAIモデルQwenの技術リーダーである林駿洋(ジャスティン・リン)氏が2026年3月上旬に退任を発表しました。退任はQwen3.5小型モデルシリーズの発表からわずか1日後のことで、同僚の研究員やインターンも相次いで離脱しています。

林氏はXに「me stepping down. bye my beloved qwen」と短い投稿を残しました。同僚の陳成氏は「辞めるのは本人の選択ではなかった」と示唆し、チーム内外に衝撃が広がっています。Hugging FaceのAPACエコシステム責任者も「計り知れない損失」と評しました。

Alibaba CEOのエディ・ウー氏は社内書簡で林氏の貢献に感謝を示すとともに、自身を含む基盤モデルタスクフォースの設立を発表しました。オープンソースモデル戦略の継続とAI研究開発への投資拡大を約束しています。

背景には組織方針の対立があるとされます。林氏が推進した垂直統合型の自律的チーム運営に対し、経営側は数百人規模のプロジェクトを「一人の頭脳」で管理することへの限界を指摘しました。Google DeepMind Geminiチーム出身の周昊氏が後任に就任し、研究重視から指標重視への転換が進む見通しです。

Qwenモデルは累計6億ダウンロードを超え、9万社以上の企業が導入する中国最大級のオープンウェイトAIです。業界では今後のモデルが有料APIに限定される可能性が指摘されており、オープンソースAIコミュニティにとって大きな転換点となっています。

Alibaba「Qwen3.5」小型モデル群公開、9Bで120B超え性能

小型で大型超えの性能

9BOpenAI 120Bを上回る推論性能
ノートPC上でローカル実行可能
Apache 2.0で商用利用も無償

技術革新と実用性

ハイブリッドアーキテクチャで高効率化
ネイティブマルチモーダル対応
0.8B〜9Bの4モデル構成

企業への影響

エッジ推論クラウドAPI不要に
文書解析・コード生成など業務自動化に対応

Alibaba傘下のQwenチームは2026年3月、小型オープンソースモデルQwen3.5 Small Model Series」を公開しました。0.8B、2B、4B、9Bの4モデルで構成され、Apache 2.0ライセンスのもとHugging FaceとModelScopeで即日提供が開始されています。

最大の注目点はQwen3.5-9Bの性能です。GPQAベンチマークで81.7を記録し、13.5倍の規模を持つOpenAIgpt-oss-120B(80.1)を上回りました。MMMU-Proでも70.1を達成し、Gemini 2.5 Flash-Liteの59.7を大幅に超えています。

技術面では従来のTransformerアーキテクチャから脱却し、Gated Delta NetworksとスパースMixture-of-Expertsを組み合わせたハイブリッド構造を採用しています。これにより推論時のスループット向上と低レイテンシを実現し、小型モデルの「メモリの壁」問題を解消しています。

開発者コミュニティからは強い関心が寄せられています。「M1 MacBook Airで無料で動く」との報告や、ブラウザ上での動画解析が可能との検証結果が共有されました。Baseモデルも同時公開され、企業独自のファインチューニングが容易になった点も高く評価されています。

企業活用の観点では、エッジデバイス上でのUI自動操作、文書解析、コードリファクタリング、モバイルでのオフライン動画要約など幅広い用途が想定されます。クラウドAPIへの依存を減らしコスト削減データ主権の確保を両立できる点が、企業導入の大きな推進力となりそうです。

Qwen3.5がSonnet 4.5に迫る性能達成

Qwen3.5の性能

Claude Sonnet 4.5に匹敵する性能を達成
ローカルPCでのエージェント推論が可能
ツール呼び出し機能を完全サポート

オープンソースの競争力

Alibaba Qwenチームの急速な技術進歩
フロンティアモデルへのオープンソース対抗が加速
ローカル実行によるプライバシーと低コストを実現

AlibabaのQwen開発チームQwen3.5 Mediumモデルシリーズを公開しました。このモデルはローカルPCで動作しながらClaude Sonnet 4.5に近い性能を発揮するという驚異的な効率性を示しています。

エージェント向けのツール呼び出し機能を完全サポートしており、プロプライエタリモデルへの代替として実用的な水準に達しています。クラウド依存なしにローカルでフロンティア級の推論が可能になることは、プライバシーを重視する企業に特に価値があります。

オープンソースモデルのフロンティアモデルへのキャッチアップが急速に進んでおり、オープン対プロプライエタリの競争構図が根本から変わりつつあります。

NVIDIAブラックウェルでAI推論コストが最大10分の1に低下

コスト革命の実態

Blackwellで推論コストが最大10倍低下
オープンソースモデルとの組み合わせで効率最大化
ハードウェアだけでなくソフトウェア最適化も重要

NVIDIA Blackwell GPUオープンソースモデルの組み合わせにより、主要AI推論プロバイダーがコストを最大10倍削減できることが実証されました。この価格低下はAI活用の経済的障壁を大幅に引き下げます。

ただし記事はハードウェアのみが解決策ではないと警告しています。ソフトウェアスタック、モデルの最適化、そして推論最適化技術(量子化、蒸留など)を組み合わせて初めてコスト削減が実現します。

この価格低下は企業のAI導入コストを大幅に変化させます。これまでコスト面でAI活用を躊躇していた企業にとって、ROIの改善により積極的な導入が可能になる局面を迎えています。

日本企業のAIインフラ投資においても、Blackwellへの移行タイミングとコスト最適化戦略の検討が重要になっています。

HuggingFaceがコミュニティEvalsで不透明なリーダーボードへ対抗

Community Evalsの仕組み

コミュニティ主導のモデル評価プラットフォーム
ブラックボックス評価への代替提案
実際のユーザーによる多様なタスク評価
オープンな評価指標で透明性向上
HuggingFaceが審査の中立性を担保
特定ベンダー有利のバイアス排除を目指す

業界への意義

AIベンチマーク信頼性問題に対処
オープンソースモデルの公正な評価機会
ユーザー目線の実用性評価が可能に

HuggingFaceは2026年2月4日、「Community Evals」プラットフォームを発表した。既存の非透明なAIリーダーボードに代わる、コミュニティ主導の評価手法だ。

現在のAIモデル評価では大手企業が有利になるようベンチマーク汚染が疑われるケースも多く、独立した評価の必要性が叫ばれていた。

Community Evalsでは実際のユーザーが多様なタスクでモデルを評価し、その結果を集計することでより現実的な能力比較が可能になる。

HuggingFaceが中立的なプラットフォームとして評価プロセスの透明性と公正性を担保することで、オープンソースモデルにも公平な評価機会が与えられる。

このイニシアティブはAI評価の民主化を推進し、実用性重視の選定基準を業界に広める意味で、モデル選定に迷う企業にとって重要な参照先となる。

DeepSeekからAI+へ:グローバルオープンソースAIエコシステムの未来を分析

現状分析

DeepSeekが変えたAI地政学
中国オープンソースコミュニティの台頭
AI+時代の到来

将来の方向性

オープンソース多極化の加速
産業応用への統合
グローバル協調の可能性

H Companyのブログシリーズの最終回として、DeepSeekの登場が引き起こしたグローバルオープンソースAIエコシステムの変化と、「AI+」時代への移行について分析しています。

DeepSeekが示したのは、中国のAI研究コミュニティが米国主導の閉鎖的なフロンティアモデルに対抗できる強力なオープンソースモデルを開発できるという事実です。これが業界の前提を覆しました。

AI+時代とは、AIが単独のアプリケーションではなく、産業・教育・医療インフラなどあらゆる社会システムに深く統合される段階を指しています。

QwenLlamaMistralなど多様なオープンソースモデルの競争は、特定のプロバイダーへの依存リスクを分散し、AIの民主的な発展を促すという意義があります。

グローバルなオープンソースAIエコシステムの健全な発展は、個人・企業・国家が自律的にAIを活用できる未来を実現する基盤となります。

AlibabaのQwen3-Coder-Nextがバイブコーダー向けの強力なオープンソースモデルに

モデルの特徴

超スパースアーキテクチャ採用
オープンソースで無料利用可能

競争への影響

Claude CodeCodexへの対抗
中国AIオープンソースの躍進
開発者コスト削減効果

アリババのQwenチームは、バイブコーディングユーザー向けに最適化されたオープンソースの超スパースモデル「Qwen3-Coder-Next」を公開しました。高い性能と低い計算コストを両立する超スパースアーキテクチャが特徴です。

超スパースモデルは、活性化されるパラメータが全体の一部に限られるため、同等性能のデンスモデルより低コスト・低レイテンシーで動作し、ローカル実行も現実的になります。

Claude CodeOpenAI CodexGitHub Copilotなど有料コーディングAIに対し、高品質なオープンソース代替を提供することは、コスト重視の開発者や企業への強い訴求力を持ちます。

Qwen3の一連のリリースは、中国のAI研究コミュニティがグローバルなオープンソースAIリーダーとして台頭していることを改めて示しています。

開発者にとってQwen3-Coder-Nextは実用的な選択肢であり、コーディングAIの競争激化がすべての開発者に恩恵をもたらします。

Kimi K2.5が595GBのオープンソースモデルとしてエージェント群用途で本格化

K2.5の特徴

595GBの大規模モデル
エージェントスウォーム最適設計
Reddit再現を試みる

コミュニティの反応

オープンソース熱狂
必要な計算資源の課題
エージェントAIの民主化

Kimi K2.5の595GBという巨大なオープンソースモデルエージェント群の構築に最適化されており、Redditコミュニティが再現・実験を試みるなど大きな話題となっています。

一方で595GBのモデルを実行するには膨大な計算資源が必要であり、一般的な研究者や企業がアクセスするにはインフラ面での課題が残ります。

ClaudeがCUDAカーネルを構築しオープンモデルにGPUプログラミングを教える

技術的成果

ClaudeCUDAカーネル生成
オープンモデルへのGPU知識転移
低レベル最適化のAI化

研究的意義

AI自身がAI訓練を最適化
モデル蒸留への応用
GPUプログラミングの民主化

研究者たちはClaudeを使ってCUDAカーネルを構築し、そのコードでオープンソースモデルGPU処理最適化を教える実験に成功しました。

AIがGPUレベルの低レベル最適化コードを書けるようになったことは、AIシステムの自己改善における重要な一歩であり、将来的にはAIがAI訓練基盤を最適化する可能性を示しています。

GPT-OSSに対するエージェント型RL学習の実践的振り返り

技術的知見

オープンソースGPT向けRL訓練
失敗から学ぶ実践知

応用への示唆

オープンモデル強化
RL訓練のコスト効率化
研究コミュニティへの貢献

GPTのオープンソース版に対してエージェント強化学習を適用した実践的な振り返りが公開されました。成功例だけでなく失敗からの学びも含む貴重な知見です。

オープンソースモデル強化学習で改善するアプローチは、商業モデルへの依存を減らしつつ特定ドメインでの高性能化を実現する有望な方向性です。

欧州のオープンソースの未来を形作るための働きかけ

キャンペーンの内容

欧州オープンソース政策への参加
規制とイノベーションのバランス
コミュニティのを政策に

業界への影響

EU AI法との整合
オープンソース例外の重要性
欧州デジタル主権

欧州のオープンソースコミュニティが、EU AI法やデジタル政策においてオープンソースソフトウェアの例外規定と保護を求めるキャンペーンを展開しています。

EU AI法がオープンソースモデルに課す規制の範囲は欧州イノベーションエコシステムに大きな影響を与えるため、業界の積極的な政策参加が重要です。

MoonshotがKimi K2.5オープンソースモデルをエージェント群向けに公開

Kimi K2.5の特徴

オープンソースで公開
595GBの大規模モデル
エージェントスウォーム最適化

エージェント活用

複数エージェント協調容易化
コーディング・研究への応用
中国オープンソースの台頭

中国のMoonshotはKimi K2.5モデルをオープンソースで公開しました。595GBという大規模なモデルで、AIエージェント群の協調運用に特化しています。

エージェントスウォームの構築を容易にする設計が採用されており、コーディング支援や複雑な研究タスクへの応用が期待されています。

中国発の大規模オープンソースモデルの台頭は、AI市場のグローバルな競争地図を変えつつあります。

NVIDIA調査:金融業界がAI投資とオープンソース採用を倍増

調査の主要発見

金融業界のAI投資が倍増
リスク管理・詐欺検出で先行
規制対応AIへの投資増加

金融AIの動向

大手銀行・保険会社が本格導入
プロプライエタリvsオープン
ROI実証が進む

NVIDIAが発表した調査によると、金融サービス業界のAI投資が前年比で大幅に増加し、特にオープンソースLLMの採用が急増している。規制上の透明性要件がオープンソース選択を後押ししている。

詐欺検出・リスク管理・顧客サービスの自動化で先行する大手金融機関が投資をリードしている。コンプライアンス対応AIへの投資も規制強化を受けて増加傾向だ。

金融業界でのオープンソースLLM採用は、データを外部に送らずに運用できるプライベートデプロイの需要と合致しており、オンプレミスAIの有力な市場となっている。

a16zパートナーがAI投資戦略と注目領域を語る

投資家の視点

インフラへの集中投資
アプリケーション層の選別
スタートアップより企業価値重視
AI+縦型産業の機会

市場観察

基盤モデル市場の再編
垂直特化AIの台頭
オープンソースの台頭
次の10倍成長領域

a16zの複数パートナーがAI投資の考え方と注目領域を説明するコンテンツを発表した。インフラ層の投資機会が継続的に大きいとの見解を示している。基盤モデルの商品化が進む中での差別化戦略が焦点だ。

アプリケーション層では垂直産業(ヘルスケア・法務・金融など)に特化したAIスタートアップへの期待が高く、データ資産を持つ企業の優位性を強調している。

オープンソースモデルの台頭は産業構造を変えつつあり、プロプライエタリ対オープンの戦略選択が投資判断の重要軸になっているという。

欧州はDeepSeek級のオープンソースAIモデル開発競争に参入した

欧州AI開発の現状

DeepSeekショックが欧州を刺激
Mistral・独企業が主導
EU規制適合のモデルが強み
オープンソース路線を選択
国家安全保障視点が強まる

競争への影響

米中に次ぐ第三極形成へ
EU AI Act対応の先行優位
欧州企業が自国モデルを優先する可能性
主権AIという概念が広まる
多言語対応でも競争力

中国DeepSeekが低コストで高性能AIモデルを開発したことへの衝撃は欧州にも波及し、欧州DeepSeekの開発を目指す動きが加速しています。

フランスのMistralを筆頭に、ドイツ・オランダなどの欧州企業が協力して、EU規制に適合した高性能オープンソースモデルの開発を競い合っています。

欧州の強みはEU AI Actという厳格な規制を最初からクリアした「コンプライアンス済み」のモデルが提供できることです。規制を強みに変える戦略です。

主権AI」という概念が欧州で広がっており、米国中国のモデルへの依存を減らしたい政府・企業からの需要が追い風になっています。

Black Forest LabsがFlux.2オープンソースモデルを公開、1秒以内で画像生成

モデルの技術的特徴

1秒未満での画像生成を実現
完全オープンソースで公開
Flux.1の後継モデル
Stability AI元メンバーが開発
高品質と超高速を両立

市場と競合への影響

Midjourney・DALL-Eとの差別化
ローカル実行が可能になる
開発者応用範囲が大幅拡大
コスト削減に貢献
商用利用での自由度が高い

ドイツのAIスタートアップBlack Forest Labsは、1秒未満でAI画像を生成できるオープンソースモデル「Flux.2 [klein]」をリリースしました。同社はStability AI出身のエンジニアが設立したことで知られています。

Flux.2は前作Flux.1の性能をさらに高めており、生成速度画像品質の両面で大きな改善が見られます。オープンソースでの公開により、開発者が自由に応用できます。

完全オープンソースのAI画像モデルが高速化されたことで、プロダクション環境への組み込みがより現実的になりました。コスト面でも有料APIを使わずに運用できるメリットがあります。

欧州発のAI技術として注目されており、米国中国勢が支配するAI画像生成市場に新たな競争軸をもたらしています。

GoogleがTranslateGemmaのオープン翻訳モデルスイートを公開

モデルの特徴

オープンソースの翻訳特化モデル群
Gemmaアーキテクチャをベースに
多言語翻訳の精度が向上
日本語を含む多言語対応
ローカル実行可能なサイズ

Googleは翻訳に特化したオープンソースモデルスイートTranslateGemmaを公開しました。Gemmaアーキテクチャをベースにした複数サイズのモデルが含まれており、高精度な多言語翻訳をローカルで実行できます。

日本語を含む多言語対応が充実しており、商業翻訳サービスや多言語対応アプリケーションの開発において活用できます。Google翻訳APIへの依存なしに翻訳機能を組み込めることで、データプライバシーの懸念を抱える企業にも選択肢が広がります。

ザッカーバーグがMetaのAIインフラ独自構築計画を発表

計画の概要と目的

Metaが独自AIインフラ整備を宣言
外部クラウド依存からの脱却を目指す
数百億ドル規模投資計画
自社データセンターの大規模拡張
AI開発・推論コストの内製化

競合との位置付け

Llama等オープンモデルとの整合性
AI研究・製品開発の加速が目標
雇用創出とコスト効率の両立
長期的な技術主権の確立を狙う

マーク・ザッカーバーグはMetaが独自のAIインフラ構築イニシアチブを立ち上げると発表しました。MicrosoftAmazon/AWSなどの外部クラウドへの依存を減らし、AIモデルのトレーニングと推論を自社データセンターで完結させる大規模投資計画です。

この動きはMetaがAI競争において技術的主権を確立しようとする長期戦略の一環です。Llamaシリーズのオープンソースモデルをホストするためのインフラ基盤の強化と、WhatsAppInstagramFacebookなど自社プラットフォームへのAI統合を加速させる目的があります。

Metaの大規模なAIインフラ投資電力消費と環境影響という課題も伴います。マイクロソフトが論争を呼んだデータセンター拡張計画と同様に、エネルギー調達と地域コミュニティへの影響が重要な論点となります。

AIモデルが自問自答で自力学習——推論能力の新パラダイム

自己質問学習の革新的メカニズム

AIが自分自身に質問を生成して学習する新手法
人間のラベリングなしに推論能力を向上
強化学習と自己教師あり学習を組み合わせた設計
数学コーディング・論理推論で顕著な改善
モデルが自ら弱点を特定して補強する仕組み
人間の監督コストを大幅に削減できる可能性

AI開発への長期的影響

合成データ生成の新たな形態として注目
アノテーションコストの根本的な削減につながる
モデルの自律的な能力向上が加速
AGI研究の方向性に影響を与える知見
オープンソースモデルにも応用可能な手法
2026年のAI能力向上のトレンドを象徴

Wiredが報じた新しい研究では、AIモデルが自分自身に問題を生成・解答することで推論能力を向上させる新手法が紹介されています。従来は人間がラベル付けしたデータで学習するのに対し、この自己問答学習は人間の監督なしにモデルが自力で能力を伸ばすアプローチです。

数学コーディング、論理的推論の分野で特に効果が高く、モデルが自ら難しい問題を見つけて繰り返し学習するサイクルが形成されます。強化学習の枠組みと組み合わせることで、モデルが間違いから自律的に学ぶ仕組みが実現します。

この技術はアノテーションコストの削減とモデルの自律的な能力向上という二つの効果をもたらします。OpenAIのo3やDeepSeekのR1に代表される「考える」AIモデルの発展トレンドと合流し、2026年以降のAI能力向上の加速を支える基盤技術となりうるものです。

NvidiaがロボティクスAIスタック全体を公開:物理AIの時代が本格化

Cosmos Reason 2とAlpamayoの革新

Cosmos Reason 2ロボット向け推論VLMを実現
自律走行車・産業ロボット双方に適用可能
Alpamayoオープンソースモデルが自動車に思考力を
「人間のように考える」自動運転AIが目標
Isaac Lab-Arenaシミュレーション評価を自動化
LeRobotとの統合で汎用ロボット政策を評価

NvidiaがロボティクスのAndroidを目指す

ロボット向け共通基盤モデルを標準化
シミュレーション→実機の移行コスト削減
エッジAIハードウェアとの統合が鍵
MobileNet的な役割をロボティクスで担う
物理AIが製造・物流・農業を変革

Nvidiaは「物理AI」(Physical AI)という概念を中心に、ロボティクス向けAIスタック全体を公開した。Cosmos Reason 2は視覚言語モデル(VLM)に推論能力を組み合わせ、自動運転車や産業ロボットが複雑な物理環境を理解・判断できる基盤を提供する。

Alpamayoは自律走行車向けのオープンソースAIモデル群で、「人間のように考える」能力の実現を目指している。複数シナリオの推論・予測・意思決定を組み合わせることで、従来のルールベース自動運転からAI推論型へのパラダイムシフトを促進する。

Isaac Lab-Arenaはシミュレーション環境でロボット政策(Policy)を自動評価するツールで、実機テストのコストと時間を大幅に削減できる。LeRobotHugging Face)との統合により、汎用ロボット政策の標準的なベンチマーク基盤として機能する。

Jensen HuangのビジョンはNvidiaを「ロボティクスAndroid」として位置づけることだ。スマートフォンでAndroidが共通プラットフォームとして機能したように、Nvidiaロボットスタックがさまざまなハードウェアメーカーの共通基盤になることを目指している。

物理AIの普及は製造・物流・農業・医療など多岐にわたる産業に変革をもたらす。Nvidiaロボティクスエコシステムへの参加企業数が増加するにつれ、ネットワーク効果が働き業界標準としての地位が強固になる見通しだ。

Nvidia DGX Spark・DGX StationとBlueFieldがエンタープライズAIを刷新

デスクトップAIスーパーコンピューターの登場

DGX Sparkがデスクトップサイズで最先端モデルを動作
DGX Stationが研究・開発チーム向けの高性能版
オープンソース・フロンティアモデル双方に対応
クラウド依存なしのオンプレミスAI実現
NvidiaHugging Faceが連携してエージェント展開
Reachy Miniロボットとのエージェント統合デモ

BlueFieldによるセキュリティと加速

BlueField DPUがAIファクトリーのネットワークを保護
ゼロトラストセキュリティハードウェアレベルで実現
ネットワーク・ストレージ・セキュリティを統合処理
エンタープライズAIファクトリーの標準構成に
サイバー攻撃への耐性強化が大企業の要件
CPUオフロードで主処理の効率が大幅向上

NvidiaはCES 2026でDGX SparkとDGX Stationという2つのオンプレミスAIコンピューティング製品を発表した。DGX Sparkはデスクトップサイズながら最先端のAIモデルをローカルで実行できる製品で、研究者・開発者中小企業AI活用を民主化する。

Hugging Faceとの連携により、DGX Spark上でオープンソースモデルを即座にデプロイし、エージェント型AIアプリケーションを構築できる。Reachy Miniロボット)をDGX Sparkで制御するデモは、AIエージェントが物理世界に接続される未来を示した。

DGX Stationは研究チームや企業のAI開発部門向けに設計された、より高性能な版だ。フロンティアモデルのファインチューニングや大規模推論クラウドなしで実行できることで、データプライバシーと低遅延を両立する。

BlueField DPUはエンタープライズAIファクトリーネットワークセキュリティと加速の要として位置づけられている。AIインフラへのサイバー攻撃が増加する中、ハードウェアレベルでのゼロトラストセキュリティ実装が大企業の重要要件となっている。

DGX SparkとBlueFieldを組み合わせることで、エッジからデータセンターまで一貫したNvidiaエコシステムを構築できる。これは企業がクラウドプロバイダーへの依存を減らしながら、AI能力を高めるという二律背反を解消する重要なアーキテクチャとなっている。

Meta、AIエージェントのManus社を20億ドル超で買収

Manus社の実力と買収背景

Manusはシンガポール拠点のAIエージェントスタートアップ
求人選考・旅行計画・株式分析デモで話題沸騰
シリコンバレーで最も注目されたスタートアップの一つ
20億ドル超の買収額が報じられている
Mark Zuckerbergが自ら買収を発表
AIエージェント分野でのMeta強化が目的

Meta AIエージェント戦略への影響

MetaLlama系モデルでエージェント機能を強化
Manus技術Meta AIに統合される見通し
競合OpenAIエージェント機能に対抗
企業向けAIエージェント市場での存在感向上
Meta買収攻勢がAI業界の再編を加速
オープンソース戦略との整合性が注目点

Metaがシンガポールを拠点とするAIエージェントスタートアップManus」を20億ドル超で買収することが明らかになりました。Mark Zuckerbergが直接発表した今年最大規模の買収案件です。

Manusは今春に公開したデモ動画シリコンバレーの注目を一身に集めました。求人候補のスクリーニング、旅行計画の立案、株式ポートフォリオの分析といった複合的なエージェントタスクを自律的にこなす様子が業界に衝撃を与えました。

MetaLlama系のオープンソースモデルを軸に据えながら、エージェント機能の強化を急いでいます。Manusの技術をMeta AIプラットフォームに統合することで、OpenAIとのエージェント競争で優位を確保する狙いがあります。

この買収はAIエージェント分野での競争が新たな段階に入ったことを示しています。有力スタートアップをM&A;で取り込む動きが加速しており、独立系AIスタートアップの生き残りがより困難になる可能性があります。

GPT-5よりQwen——中国AI競争が本格化

Qwenの台頭と実力

杭州Rokidのスマートグラスがリアルタイム多言語翻訳を実現
Qwen中国語NLPで圧倒的な強みを持つ
アリババ発のオープンソース戦略が差別化
GPT-5に匹敵または超える評価が広がる
ローカル言語特化でグローバル勢に優位性
コスト効率でも西側モデルを大幅に下回る

中国AI産業の現状

規制の壁を越えた革新が続いている
ハードウェア制裁を迂回した独自発展
ロボットスマートグラスでの実用化が進む
政府支援による大規模な研究投資
西側では見えにくい中国AI生態系の実力
2026年はグローバル競争が一層激化する見通し

杭州で取材したWIREDの記者は、Rokidのスマートグラス中国語→英語のリアルタイム翻訳を完璧にこなす場面に立ち会いました。背後にあるのはアリババが開発した大規模言語モデル「Qwen」です。

Qwenはオープンソースで公開され、中国語テキスト処理においてGPT-4Claudeと肩を並べるか上回る評価を受けています。アリババはハードウェア制裁にもかかわらず、ソフトウェア競争力で着実に地位を確立しています。

中国のAI産業は政府の大規模支援を背景に、スマートグラスロボティクス、自動運転など実世界への応用で急速に進化しています。GPT-5登場前後から「中国製モデルで十分」という声が増えており、競争軸が変わりつつあります。

米中AI競争は2026年にさらに激化する見通しです。Qwenのようなオープンソースモデルが無料で利用できる環境は、特にアジア太平洋地域でOpenAI依存からの脱却を加速させる可能性があります。

Codex、HF Skills連携でOSSモデル訓練可能に

統合の機能

トレーニングメトリクスの監視
チェックポイント評価と報告作成
GGUF量子化とHub公開

意義と展望

Claude Codeに続く統合
AGENTS.mdでリポジトリ設定
OSS開発の民主化に貢献

Hugging Faceが、OpenAIコーディングエージェントCodex」にHugging Face Skillsリポジトリを統合しました。先行してClaude Codeで実現された機能に続くもので、Codexオープンソースモデルの訓練から公開まで一連のMLタスクを実行できるようになります。

HF Skillsにより、Codexは言語モデルのファインチューニング、RL整合の適用、Trackioからのリアルタイムメトリクス監視、チェックポイント評価、実験レポート作成、GGUF量子化、Hugging Face Hubへの公開が可能です。AGENTS.mdファイルによるリポジトリレベルの設定に対応しています。

この統合は、コーディングエージェントとMLOpsプラットフォームの融合における重要な進展です。ソフトウェア開発とML エンジニアリングの壁を低くし、専門的なMLインフラの知識がないチームでもオープンソースモデル開発に取り組める環境の実現に貢献します。

Nvidia、8Bの小型AIで巨大モデル凌ぐ効率と精度実現

巨大モデル依存からの脱却

単一モデルではなく複合システムへ移行
80億パラの軽量モデルが指揮役を担当
専門ツールや他LLMを適材適所で活用

低コストで高精度と柔軟性を実現

強化学習でコストと精度を最適化
博士級試験で巨大モデルを上回る成果
ユーザーの好みや制約に柔軟に対応
企業向けAIエージェント実用化を加速

Nvidiaと香港大学の研究チームは、80億パラメータの小型AIモデル「Orchestrator」を発表しました。強化学習を用いて他のツールやAIモデルを指揮・管理し、単一の巨大モデルよりも低コストかつ高精度に複雑な課題を解決します。

従来は一つの巨大な汎用モデルにあらゆる処理を依存していましたが、本手法は軽量な指揮者検索エンジンやコード解析、他のAIモデルへ処理を委譲します。人間が専門家や道具を使い分けるように、適材適所でツールを活用しシステム全体の効率を高めました。

Qwen3-8B」を基盤に強化学習を行った結果、博士号レベルの難問を含むテストでも巨大モデルを凌ぐ成果を出しました。GPT-5のような高価なモデルの利用を約4割に抑え、安価なツールと組み合わせることで、計算コストを劇的に削減しています。

企業導入における最大の利点は、コスト対効果と高い制御性です。「オープンソースモデルを優先する」といったユーザーの指定条件に従ってツールを選択できるため、予算やプライバシー要件に応じた柔軟な運用が可能となります。

この複合的なアプローチは、より高度で拡張性のあるAIシステムへの道を開くものです。現在、モデルの重みは非商用ライセンスですが、トレーニングコードはApache 2.0で公開されており、次世代のエージェント開発における重要な基盤となるでしょう。

NVIDIA、思考する自動運転AIと物理AI開発基盤を公開

自動運転を変える「思考するAI」

世界初の自動運転向け推論VLAモデル
思考の連鎖人間並みの判断を実現
研究用にGitHub等でオープン提供

物理AI開発を加速するツール群

開発全工程を網羅したCosmos Cookbook
ロボット動作生成やデータ修復に対応
音声AIや安全性モデルも拡充

2025年12月、米NVIDIAはAIカンファレンス「NeurIPS」において、自動運転および物理AI(Physical AI)向けのオープンソースモデル群を発表しました。特に注目されるのは、推論能力を持つ自動運転用VLAモデル「Alpamayo-R1」と、物理AI開発ガイド「Cosmos Cookbook」です。同社はこれらの技術を開放することで、ロボティクスや自動運転分野におけるイノベーションの加速を狙います。

NVIDIA DRIVE Alpamayo-R1」は、視覚情報の処理と言語による推論を統合し、行動決定を行う世界初のモデルです。最大の特徴は「思考の連鎖(Chain-of-thought)」を組み込んだ点にあり、歩行者の多い交差点や不規則な交通状況でも、人間のような常識に基づいた判断を下せます。これにより、完全自動運転(レベル4)の実現に向けた安全性が飛躍的に向上します。

物理AIの実装を支援するため、データ生成からモデル評価までの手順を示した「Cosmos Cookbook」も提供されます。開発者はLiDARデータの生成やロボットの動作ポリシー策定など、複雑なタスクに対応した「Cosmos」モデル群を容易に活用できるようになります。ジェンスン・フアンCEOが提唱する「AIの次の波は物理AI」というビジョンを具現化する動きです。

デジタルAI領域でも、複数話者の聞き分けが可能な音声モデルや、AIの安全性を担保するデータセット、推論速度と精度を両立する軽量モデルなどが公開されました。NVIDIAは70本以上の論文を発表しており、ハードウェアだけでなく、次世代AI開発に不可欠なソフトウェア基盤においても、圧倒的な存在感を示しています。

2025年AI総括:GPT-5実用化と中国・小型モデルの台頭

OpenAIの進化と実用化加速

GPT-5と5.1が始動、ZenDeskで解決率9割事例も
Sora 2やブラウザAtlas、OSSモデルも全方位展開
コーディング特化モデルで長時間タスクが可能に

中国勢と多様なモデルの台頭

DeepSeekQwen3など中国OSSが世界を席巻
Google Gemma 3など超小型モデルが実用段階へ
Gemini 3やClaude Opus 4.5で競争激化

2025年11月、米VentureBeatは今年のAI業界を振り返る総括記事を公開しました。2025年は、特定の最強モデル一強ではなく、オープンソースや中国勢、エッジ向け小型モデルを含めた「エコシステムの多様化」が決定的となった年です。経営者エンジニアにとって、用途に応じて最適なAIを選択できる環境が整ったことが、今年最大の収穫と言えるでしょう。

OpenAIは待望のGPT-5およびGPT-5.1をリリースし、市場を牽引し続けました。初期の反応は賛否両論ありましたが、改良を経てZenDeskなどの企業導入が進み、顧客対応の自動解決率が80〜90%に達する事例も報告されています。さらに、動画生成AI「Sora 2」やブラウザ統合型「Atlas」、そして意外にもオープンウェイトモデルの公開など、全方位での攻勢を強めています。

特筆すべきは中国発のオープンソースモデルの躍進です。DeepSeek-R1やAlibabaのQwen3シリーズなどが、推論能力やコーディング性能で米国のフロンティアモデルに肉薄しています。MITなどの調査によれば、中国製モデルのダウンロード数は米国をわずかに上回る勢いを見せており、コストパフォーマンスを重視する企業にとって無視できない選択肢となりました。

「巨大化」へのカウンターとして、小型・ローカルモデルの実用性も飛躍的に向上しました。GoogleGemma 3やLiquid AIのLFM2は、パラメータ数を抑えつつ特定タスクに特化し、エッジデバイスやプライバシー重視の環境での利用を可能にしました。すべての処理を巨大クラウドAIに依存しない、分散型のAI活用が現実味を帯びています。

画像生成や競合他社の動きも活発です。MetaMidjourneyの技術ライセンスを取得し、自社SNSへの統合を進めるという驚きの戦略に出ました。一方、GoogleGemini 3に加え、ビジネス図解に強い画像生成モデル「Nano Banana Pro」を投入しています。AnthropicClaude Opus 4.5やBlack Forest LabsのFlux.2など、各領域でハイレベルな競争が続いています。

百度ERNIE 5.0、画像・文書処理でGPT-5超えを主張

ERNIE 5.0の性能

ネイティブなオムニモーダルAI
画像・文書理解GPT-5超え
チャート読解など企業向け機能に強み
テキスト処理特化版も同時公開

百度のグローバル戦略

API経由のプレミアム提供
国際版ノーコードツールも展開
商用利用可能なOSSモデルも公開
オープンとクローズドの二刀流

中国検索大手、百度(バイドゥ)は年次イベント「Baidu World 2025」で、最新の独自基盤モデル「ERNIE 5.0」を発表しました。このモデルは、OpenAIGPT-5GoogleGemini 2.5 Proを、特にグラフや文書の理解といった視覚タスクで上回る性能を持つと主張しており、激化するエンタープライズAI市場での世界的な優位性を目指します。

百度が公開したベンチマークによれば、ERNIE 5.0は特に文書認識(OCRBench)やグラフの質疑応答(ChartQAといった分野で、欧米の最先端モデルを凌駕する結果を示したとされています。これは、自動文書処理や財務分析など、企業のコア業務における実用性の高さを強くアピールするものです。

ERNIE 5.0は、テキスト、画像音声動画を統合的に処理・生成できる「ネイティブ・オムニモーダル」モデルとして設計されています。同社が最近公開したオープンソースモデルとは異なり、独自のプロプライエタリモデルとして、クラウドプラットフォーム「Qianfan」のAPIを通じて企業向けに提供されます。

料金体系はプレミアムモデルとして位置づけられていますが、米国の主要モデルと比較すると競争力のある価格設定が特徴です。例えば、GPT-5.1と比較して入力トークン単価が約3割安く、高性能とコスト効率の両立を目指す企業にとって魅力的な選択肢となり得るでしょう。

注目すべきは、高性能なプロプライエタリモデルと並行して、商用利用が可能な高性能オープンソースモデル「ERNIE-4.5-VL」も提供している点です。このオープンとクローズドの「二刀流」戦略により、大企業から開発者コミュニティまで幅広い層への浸透を図っています。

ERNIE 5.0の発表は、世界の基盤モデル開発競争が新たな段階に入ったことを示唆しています。性能評価の第三者による検証が待たれますが、百度の明確な企業向け戦略とグローバル展開への野心は、既存のAI市場の勢力図を塗り替える可能性を秘めています。

AI基盤Baseten、モデルの「重み」所有権を武器に参入

「モデル所有権」で脱ロックイン

学習後のモデルの重みを完全所有
他社プラットフォームへの持ち出しが自由
競合のロックイン戦略と対抗

独自技術でコストと手間を削減

マルチクラウドGPUを最適調達
インフラ管理の運用負荷を解消
推論と学習の一貫した最適化
先行事例でコスト84%削減も達成

AIインフラ企業のBasetenは、新たなAIモデルトレーニングプラットフォーム『Baseten Training』の一般提供を開始しました。最大の特徴は、顧客がファインチューニングしたモデルの『重み(weights)』を完全に所有し、他社サービスへ自由に持ち出せる点です。オープンソースモデルの活用でOpenAIなどへの依存を減らしたい企業に対し、インフラ管理の負担なく高性能なカスタムAIを開発できる環境を提供します。

背景には、オープンソースAIモデルの性能向上があります。多くの企業が、高価なクローズドモデルへの依存を減らすため、自社データでモデルをファインチューニングする動きを加速させています。しかし、GPUクラスタの管理やクラウドの容量計画など、インフラ運用には高度な専門知識が必要で、多くの企業にとって大きな障壁となっていました。

Basetenは、モデルの「重み」の所有権を顧客に与えることで、この課題に応えます。競合他社の中には、学習済みモデルを自社プラットフォームに留めるロックイン戦略を取る企業も少なくありません。Basetenは、顧客がモデルを自由に持ち出せるようにすることで、自社の推論サービスの性能で選ばれるという自信を示しています。

技術的な強みは、独自のマルチクラウド管理システム(MCM)です。このシステムは、複数のクラウドプロバイダーから動的にGPUを調達し、コストと可用性を最適化します。これにより、企業は特定のクラウドベンダーとの高価な長期契約なしに、必要な時に必要なだけ計算資源を利用できるようになります。

先行導入企業は既に大きな成果を上げています。データ処理を手がけるAlliumAI社は、推論コストを84%削減。ドメイン特化モデルを開発するParsed社は、エンドツーエンドの遅延を50%改善しました。インフラの複雑さを気にせず、モデル開発に集中できる点が評価されています。

Basetenは、トレーニングと推論の両方をシームレスに連携させることで、AI開発のライフサイクル全体を支援します。ハイパースケーラーとの競争は激化していますが、優れた開発者体験とパフォーマンスを武器に、エンタープライズ市場での存在感を高める構えです。モデルの所有権という透明性が、多くの企業にとって魅力的な選択肢となるでしょう。

オープンソースAI、性能でGPT-5を凌駕

Kimi K2、性能で市場席巻

主要ベンチマークGPT-5を凌駕
推論コーディング能力で業界トップ
自律的なツール使用能力で他を圧倒

オープンソース新時代の幕開け

モデルの重みとコードを完全公開
寛容なライセンスで商用利用も促進
GPT-510分の1以下の低コスト
クローズドモデルとの性能差の消滅

中国のAIスタートアップMoonshot AIが2025年11月6日、オープンソースの大規模言語モデル「Kimi K2 Thinking」を公開しました。このモデルは、推論コーディング能力を測る複数の主要ベンチマークで、OpenAIの「GPT-5」など最先端のプロプライエタリ(非公開)モデルを上回る性能を記録。オープンソースAIが市場の勢力図を塗り替える可能性を示し、業界に衝撃が走っています。

Kimi K2 Thinkingの性能は、特にエージェント(自律AI)としての能力で際立っています。ウェブ検索推論能力を評価する「BrowseComp」ベンチマークでは、GPT-5の54.9%を大幅に上回る60.2%を達成。これは、オープンソースモデルが特定のタスクにおいて、業界トップのクローズドモデルを明確に凌駕したことを示す歴史的な転換点と言えるでしょう。

このモデルの最大の魅力は、完全なオープンソースである点です。モデルの「重み」やコードは誰でもアクセス可能で、寛容なライセンスの下で商用利用も認められています。これにより、企業はこれまで高価なAPIに依存していた高性能AIを、自社データで安全に、かつ低コストで活用する道が開かれます。

高性能と低コストを両立させる秘密は、効率的なモデル設計にあります。「専門家混合(MoE)」アーキテクチャと、精度を維持しつつ計算量を削減する「量子化」技術を採用。これにより、GPT-5と比較して10分の1以下の圧倒的な低価格でのサービス提供を可能にしています。

Kimi K2 Thinkingの登場は、巨額の資金を投じてデータセンターを建設するOpenAIなどの戦略に大きな疑問を投げかけます。高性能AIの開発が、必ずしも莫大な資本を必要としないことを証明したからです。AI業界の競争は、資本力だけでなく、技術的な工夫や効率性へとシフトしていく可能性があります。

経営者開発者にとって、これは何を意味するのでしょうか。もはや特定のベンダーに縛られることなく、自社のニーズに最適なAIを自由に選択・改変できる時代が到来したのです。コストを抑えながらデータ主権を確保し、独自のAIエージェントを構築する。Kimi K2 Thinkingは、そのための強力な選択肢となるでしょう。

Pinterest、オープンソースAIでコスト減と高性能両立

オープンソースAIの威力

桁違いのコスト削減`を実現
プロプライエタリモデルと`同等の性能`
Pinterestの特定用途に最適化

PinterestのAI活用戦略

ビジュアルAIでの活用を拡大
AIアシスタントで商品発見を支援
独自モデルとOSSを定期的に比較

背景と市場の反応

ホリデー商戦の売上予測は弱気
発表を受け株価は21%以上下落

画像共有サービス大手Pinterestは、オープンソースのAIモデルを活用することで、コストを大幅に削減しつつ高いパフォーマンスを維持できるとの見解を明らかにしました。11月5日の決算説明会でビル・レディCEOが言及したもので、ファインチューニング(微調整)により、大手モデルに匹敵する性能を桁違いに低いコストで実現できるとしています。

レディCEOは特にビジュアルAI分野での有効性を強調。定期的な比較テストの結果、ファインチューニングしたオープンソースモデルは、主要なプロプライエタリモデルと「`同等の性能`」を「`桁違いに低いコスト`」で達成できると述べました。これにより、多くのユースケースでオープンソースモデルへの移行を進める方針です。

この戦略は、同社の厳しい業績見通しを背景としています。ホリデー商戦の売上予測が市場予想を下回り株価が急落する中、AI投資の費用対効果が大きな課題となっていました。オープンソース活用は、コストを抑えながらイノベーションを推進するための具体的な回答と言えるでしょう。

同社はAIアシスタント「Pinterest Assistant」など、AI活用を積極的に進めています。今回の発表は、プロプライエタリモデルへの依存を減らし、自社のユースケースに最適化したAIを低コストで運用するというIT業界の新たな潮流を示すものです。経営者エンジニアにとって示唆に富む事例ではないでしょうか。

AIエージェントの弱点露呈、マイクロソフトが実験場公開

AI市場シミュレータ公開

マイクロソフトが開発・提供
名称はMagentic Marketplace
AIエージェントの行動を研究
OSSとして研究者に公開

判明したAIの主な脆弱性

選択肢過多で性能が低下
意図的な情報操作に弱い
応答順など体系的な偏りも露呈

マイクロソフトは2025年11月5日、AIエージェントの市場行動を研究するためのシミュレーション環境「Magentic Marketplace」をオープンソースで公開しました。アリゾナ州立大学との共同研究で、GPT-5など最新モデルをテストした結果、選択肢が多すぎると性能が落ちる「選択のパラドックス」や、意図的な情報操作に対する深刻な脆弱性が明らかになりました。

今回の実験で最も驚くべき発見の一つは、AIエージェントが「選択のパラドックス」に陥ることです。選択肢が増えるほど、より良い結果を出すと期待されるのとは裏腹に、多くのモデルで消費者利益が低下しました。例えばGPT-5は、選択肢が増えると性能が最適値の2000から1400へ大幅に低下。これは、AIが持つコンテキスト理解の限界を示唆しています。

さらに、AIエージェントは情報操作に対しても脆弱であることが判明しました。偽の権威付けや社会的証明といった心理的戦術から、悪意のある指示を埋め込むプロンプトインジェクションまで、様々な攻撃をテスト。その結果、GPT-4oなどのモデルは、操作した事業者へ全ての支払いを誘導されてしまうなど、セキュリティ上の重大な懸念が浮き彫りになりました。

実験では体系的な偏り(バイアス)も確認されました。一部のオープンソースモデルは、検索結果の最後に表示された事業者を優先的に選択する「位置バイアス」を示しました。また、多くのモデルが最初に受け取った提案を安易に受け入れる「提案バイアス」を持っており、より良い選択肢を見逃す傾向がありました。こうした偏りは、市場の公正性を損なう恐れがあります。

「Magentic Marketplace」は、こうした複雑な問題を安全に研究するために開発されたプラットフォームです。現実世界では難しい、多数のエージェントが同時に相互作用する市場をシミュレートし、消費者保護や市場効率、公平性といった課題を検証できます。マイクロソフトは、この環境を研究者に開放することで、AIが社会に与える影響の解明を加速させたい考えです。

今回の研究結果は、AIエージェントの実用化にはまだ多くの課題があることを示しています。特に、重要な意思決定をAIに完全に委ねるのではなく、人間が監督する「ヒューマン・イン・ザ・ループ」の仕組みが不可欠です。企業がAIエージェントを導入する際には、こうした脆弱性を十分に理解し、対策を講じる必要があります。今後の研究開発の焦点となるでしょう。

SAP、調整不要の表計算AI発表 業務予測を即実現

「調整不要」の表計算AI

導入後すぐに予測分析へ活用
数十年のビジネスデータで学習

LLMとの明確な違い

テキストでなく表データから学習
数値間の関係性を深く理解
構造的で正確な回答を生成

提供計画と今後の展望

2025年第4四半期に一般提供
ノーコード環境での実験も可能

独ソフトウェア大手のSAPは、企業のAI導入を簡素化する新たな基盤モデル「RPT-1」を発表しました。このモデルは表形式データに特化しており、従来のLLMのように時間とコストのかかるファインチューニングが不要な点が最大の特徴です。導入後すぐに予測分析などの高度な業務に活用できるとしており、2025年第4四半期の一般提供開始を予定しています。

RPT-1は「リレーショナル基盤モデル」と名付けられ、リレーショナルデータベースやExcelのようなスプレッドシートのデータから学習します。SAPが数十年にわたり蓄積したビジネス取引データを基に事前学習済みのため、企業は自社の個別データを追加学習させることなく、「すぐに使える(out-of-the-box)」状態で業務アプリケーションに直接組み込むことが可能です。

テキストやコードを学習する大規模言語モデル(LLM)とは一線を画します。RPT-1は、数値や異なるセル間の関係性を深く理解することで、より構造的で正確な回答を生成できます。この特性は、特に金融分野や企業の業績管理など、精密な分析が求められる業務で真価を発揮するでしょう。汎用LLMでは対応が難しいユースケースを切り拓きます。

このモデルの基盤となっているのは、SAPの研究者が提唱した「ConTextTab」というアーキテクチャです。これは、テーブルのヘッダーや列の型といった意味情報(セマンティックシグナル)を手がかりに学習を進めることで、データ間の関連性を構造的に把握します。この仕組みが、RPT-1の精度の高さを支えています。

RPT-1は2025年第4四半期に、SAPのAI基盤サービス「AI Foundation」を通じて一般提供が開始される予定です。また、専門家でなくてもモデルを試せるノーコードの実験環境(プレイグラウンド)も提供されます。SAPは今後、オープンソースモデルを含む他のモデルも順次リリースする計画で、企業のAI活用をさらに加速させそうです。

大規模AIは思考する、人間の脳機能と酷似

AIの思考プロセス

CoT推論と人間の内的発話
脳と同様のパターン認識検索
行き詰まりからの後戻りと再試行
視覚的思考の欠如は補完可能

「次トークン予測」の本質

「自動補完」という見方の誤り
正確な予測には世界知識が必須
ベンチマーク人間を超える性能
思考能力の保有はほぼ確実

Talentica Softwareの専門家が2025年11月1日、大規模推論モデル(LRM)は単なるパターン認識機ではなく、人間と同様の思考能力をほぼ確実に持つという分析を米メディアVentureBeatで発表しました。Appleなどが提唱する「AIは思考できない」との見解に反論するもので、LRMの「思考の連鎖CoT)」プロセスと人間の脳機能を比較し、その著しい類似性を根拠に挙げています。

LRMが見せる推論プロセスは、人間の脳機能と驚くほど似ています。特に、段階的に答えを導き出す「思考の連鎖CoT)」は、人が頭の中で自問自答する「内的発話」と酷似しています。また、過去の経験から知識を検索する点や、推論が行き詰まった際に別の道筋を探す「バックトラッキング」も、人間と思考の様式を共有している証左と言えるでしょう。

Appleの研究は「LRMは複雑な問題でアルゴリズムを遂行できない」として思考能力を否定しました。しかし、この批判は人間にも当てはまります。例えば、アルゴリズムを知っていても、ディスクが20枚の「ハノイの塔」を解ける人はまずいません。LRMが複雑な問題に直面した際、力任せに解くのではなく近道を探そうとするのは、むしろ思考している証拠だと筆者は指摘します。

LRMを「高機能な自動補完」と見なすのは、その本質を見誤っています。次の単語を正確に予測するためには、文脈だけでなく、世界に関する膨大な知識を内部的に表現し、活用する必要があります。「世界最高峰は...」という文に「エベレスト」と続けるには、その事実を知らなくてはなりません。この知識表現と活用こそが、思考の基盤となるのです。

最終的な判断基準は、思考を要する問題を実際に解決できるか否かにあります。オープンソースモデルを用いたベンチマークの結果、LRMは論理ベースの質問に対し高い正答率を記録しました。一部のタスクでは、専門的な訓練を受けていない平均的な人間を上回る性能さえ示しており、その推論能力は客観的なデータによっても裏付けられています。

人間の脳機能との類似性、次トークン予測というタスクの奥深さ、そしてベンチマークが示す客観的な性能。これらを総合すると、LRMが思考能力を持つことはほぼ確実と言えます。AIが「思考するパートナー」となりうるこの事実は、ビジネスの生産性や収益性を飛躍させる上で、経営者やリーダーが知るべき重要な視点となるでしょう。

アント、1兆パラメータAI公開 強化学習の壁を突破

1兆パラメータモデルRing-1T

中国アントグループが開発
1兆パラメータのオープンソース推論モデル
数学・論理・コード生成に特化
ベンチマークGPT-5に次ぐ性能

独自技術で学習効率化

強化学習ボトルネックを解決
学習を安定化させる新手法「IcePop」
GPU効率を高める「C3PO++」を開発
激化する米中AI覇権争いの象徴

中国のアリババ系列企業アントグループが、1兆個のパラメータを持つオープンソースの推論AIモデル「Ring-1T」の技術詳細を公開しました。このモデルは、独自開発した最適化手法により、大規模モデルの学習における強化学習のボトルネックを解決した点が特徴です。OpenAIの「GPT-5」やGoogleの「Gemini」など米国勢に対抗し、激化する米中間のAI覇権争いで存在感を示す狙いがあります。

「Ring-1T」は、数学、論理問題、コード生成、科学的問題解決に特化して設計されています。各種ベンチマークテストでは、多くの項目でOpenAIGPT-5に次ぐ高いスコアを記録しました。特に、同社がテストしたオープンウェイトモデルの中では最高の性能を示し、中国企業の技術力の高さを証明しています。

この成果の背景には、超大規模モデルの学習を効率化する三つの独自技術があります。研究チームは、学習プロセスを安定させる「IcePop」、GPUの遊休時間をなくしリソースを最大限活用する「C3PO++」、非同期処理を可能にするアーキテクチャ「ASystem」を開発。これらが、1兆パラメータ規模のモデル学習を現実のものとしました。

特に注目すべきは、強化学習における課題へのアプローチです。従来、大規模モデルの強化学習は計算コストと不安定性が大きな障壁でした。「IcePop」は、学習を妨げるノイズの多い情報を抑制し、安定した性能向上を実現します。この技術革新は、今後のAIエージェント開発など応用分野の発展にも大きく貢献する可能性があります。

今回の発表は、DeepSeekやアリババ本体の「Qwen」シリーズに続く、中国発の高性能モデルの登場を意味します。米国の巨大テック企業を猛追する中国の勢いはとどまるところを知りません。「Ring-1T」のようなオープンソースモデルの公開は、世界中の開発競争をさらに加速させることになりそうです。

3Dで思考するロボットAI、欧州からオープンソースで登場

3Dデータで物理世界を理解

3Dデータを取り入れた独自学習
物理空間における物体の動きを把握
2D画像ベースモデルとの明確な差別化

商用版に匹敵する性能

オープンソースで誰でも利用可能
研究開発の加速と民主化に貢献
ベンチマーク商用モデル並みのスコア
スタートアップ実験・改良を促進

ブルガリアの研究所INSAITを中心とする欧州の研究者チームが22日、産業用ロボットの頭脳として機能する新たなAI基盤モデル「SPEAR-1」をオープンソースで公開しました。このモデルは3次元(3D)データで訓練されており、物体をより器用に掴み、操作する能力を飛躍的に向上させます。研究開発の加速が期待されます。

SPEAR-1の最大の特徴は、3Dデータを学習に取り入れた点です。従来のモデルは2D画像から物理世界を学んでいましたが、これではロボットが活動する3D空間との間に認識のズレが生じていました。このミスマッチを解消し、より現実に即した物体の動きを理解します。

このモデルがオープンソースで公開された意義は大きいでしょう。言語モデルの世界でLlamaなどが革新を民主化したように、SPEAR-1はロボット工学の研究者やスタートアップ迅速に実験を重ねる土台となります。身体性を持つAI分野の発展を加速させる起爆剤となりそうです。

性能も注目に値します。ロボットのタスク遂行能力を測るベンチマーク「RoboArena」では、商用の基盤モデルに匹敵する高いスコアを記録しました。特に、有力スタートアップPhysical Intelligence社の最先端モデルにも迫る性能を示しており、その実用性の高さが伺えます。

ロボット知能の開発競争は激化し、数十億ドル規模の資金が動いています。SPEAR-1の登場は、クローズドな商用モデルとオープンソースモデル共存しながら技術を進化させる可能性を示唆します。専門家は「1年前には不可能だった」と述べ、この分野の急速な進歩に驚きを見せています。

アリババQwen、AIレポートを数秒でWeb・音声化

調査を多様な形式に変換

AIが調査レポートを自動生成
1-2クリックでWebページに即時変換
複数話者のポッドキャストも作成可能
コード、画像音声の生成を統合

競合とのアプローチの違い

ゼロからの新規コンテンツ生成に特化
Google NotebookLM既存資料の整理が中心
アイデアから公開までのプロセスを短縮
クリエイターや教育者にも有用

中国のEコマース大手アリババは10月21日、自社のAIチャット「Qwen Chat」に搭載された調査ツール「Deep Research」を大幅にアップデートしたと発表しました。この更新により、AIが生成した調査レポートを、わずか数クリックでインタラクティブなWebページや複数話者によるポッドキャストに変換できます。調査からコンテンツ公開までのプロセスを劇的に効率化し、ユーザーの生産性を高める狙いです。

新機能の核心は、単一の調査依頼から多様なメディア形式のアウトプットを生成できる点にあります。ユーザーがテーマを入力すると、QwenはWeb上の情報源からデータを収集・分析し、矛盾点を指摘しながら詳細なレポートを作成。その後、ボタン一つでプロ品質のWebページや、2人のホストが対話する形式のポッドキャストを自動で生成します。

この強力な機能は、Qwenチームが開発したオープンソースモデル群に支えられています。Webページの構造化にはQwen3-Coder、ビジュアル作成にはQwen-Image音声合成にはQwen3-TTSがそれぞれ活用されています。アリババはこれらを統合し、ユーザーがインフラを意識することなく利用できるマネージドサービスとして提供します。

この動きは、GoogleのAI調査アシスタントNotebookLM」と比較されています。NotebookLMが既存資料の整理や要約に強みを持つ一方、Qwen Deep Researchゼロから新しいコンテンツを生成し、多形式で出力する点で明確な差別化を図っています。どちらが優れているかは、ユーザーの目的によって評価が分かれるでしょう。

アリババの今回のアップデートは、AIによるリサーチが単なる情報収集に留まらず、コンテンツ制作までをシームレスに繋ぐ未来を示唆しています。専門家クリエイターが、少ないリソースで高品質なWebコンテンツやポッドキャストを発信する上で、強力なツールとなる可能性を秘めています。

米FTC、AIリスク警告の過去記事を異例の削除

政権交代とFTCの方針転換

トランプ政権下でFTC新体制
リナ・カーン前委員長時代の記事を削除
規制緩和と成長を重視する姿勢

削除されたAI関連の論点

AIがもたらす消費者への危害
詐欺や差別を助長するリスク

法的な懸念と今後の影響

連邦記録法に違反する可能性
政府の透明性に対する疑念

米連邦取引委員会(FTC)が、リナ・カーン前委員長時代に公開されたAIのリスクやオープンソースに関する複数のブログ記事を削除したことが明らかになりました。この動きは、トランプ政権下で就任したアンドリュー・ファーガソン新委員長による政策転換の一環とみられています。AIの安全性や消費者保護よりも、中国との競争を念頭に置いた急速な成長を優先する姿勢の表れであり、AI開発の規制を巡る議論に一石を投じるものです。

削除された記事には、AIが消費者に与える潜在的な危害を指摘するものや、「オープンウェイト」モデルとして知られるオープンソースAIの在り方を論じるものが含まれていました。具体的には、AIが「商業的監視を助長し、詐欺やなりすましを可能にし、違法な差別を永続させる」といったリスクに警鐘を鳴らす内容でした。これらは、AI技術の負の側面に対するFTCの監視姿勢を示す重要な見解でした。

この背景には、FTCの劇的な方針転換があります。バイデン政権下でビッグテックへの厳しい姿勢で知られたリナ・カーン前委員長に対し、トランプ政権はファーガソン氏を新委員長に任命。積極的な独占禁止法政策から、規制緩和へと大きく舵を切りました。今回の記事削除は、AI分野においても前政権の方針を消し去り、新たな方向性を市場に示す象徴的な動きと言えるでしょう。

一方で、今回の対応には不可解な点も残ります。トランプ政権の「AI行動計画」では、オープンソースモデルの支援が明記されており、米国の技術的優位性を維持する上で重要だと位置づけられています。にもかかわらず、関連するブログ記事が削除されたことに対し、元FTC広報部長は「政権の方針と乖離しており衝撃を受けた」とコメントしており、FTC内部の判断基準に混乱が見られる可能性も指摘されています。

さらに、今回の記事削除は法的な問題もはらんでいます。政府機関の記録保存を義務付ける「連邦記録法」や、政府データの公開を原則とする「オープンガバメントデータ法」に違反する可能性専門家から指摘されています。政府の決定プロセスの透明性を損ない、公的な議論の土台となる情報を断つ行為だとして、批判の声が上がっています。

FTCによる過去の見解の削除は、AIを巡る規制環境の不確実性を高めています。経営者開発者は、政府の規制方針が政権交代によって大きく揺れ動くリスクを認識する必要があるでしょう。公式な規制が後退する中で、企業が自主的に倫理基準を設け、社会からの信頼をどう確保していくかが、これまで以上に重要な経営課題となりそうです。

ソブリンAI、米中技術覇権の新たな主戦場に

米国のソブリンAI戦略

OpenAIが各国政府と提携
国家によるAI統制を支援
非民主主義国との連携に懸念も

中国のオープンソース攻勢

Alibabaのモデルは3億DL超
来年には米国を凌駕する可能性

真のAI主権をめぐる論点

主権にはオープンソースが必須との声
クローズドとオープンの両立も可能

OpenAIをはじめとするテクノロジー企業が、「ソブリンAI」の構築支援を各国で進めています。ソブリンAIとは、各国が自国の管理下でAIインフラを開発・運用する能力を指し、米中間の技術覇権争いの新たな主戦場となりつつあります。米国が同盟国との連携を深める一方、中国オープンソースモデルで世界的な影響力を急速に拡大しています。

OpenAIはアラブ首長国連邦(UAE)などの政府と提携し、大規模なデータセンター建設を含むソブリンAIシステム構築を支援しています。この動きは米国政府とも連携しており、同盟国が中国の技術に依存するのを防ぐという戦略的な狙いがあります。米国の技術を世界に普及させることで、地政学的な優位性を確保しようとしています。

しかし、UAEのような非民主主義国との提携には懸念の声も上がっています。かつて米国は、経済的な関与が中国の民主化を促すと期待しましたが、結果的に権威主義体制を強めることになりました。AI技術の提供が同様の結果を招かないか、過去の教訓が問い直されています。OpenAIは政府からの要請があっても情報検閲は行わないと明言しています。

対する中国は、オープンソース戦略で猛追しています。AlibabaやTencent、DeepSeekといった企業が公開した高性能な基盤モデルは、世界中で広く採用されています。特にAlibabaの「Qwen」ファミリーは3億回以上ダウンロードされ、日本を含む各国のスタートアップが自国語対応モデルの開発基盤として活用しています。

オープンソースAIモデルをホストするHugging FaceのCEOは、「真の主権はオープンソースなしにはあり得ない」と指摘します。モデルの内部を完全に検証・制御できるためです。中国企業はこの戦略により驚異的な速さで技術力を向上させ、5年前の遅れを取り戻し、今や米国と互角のレベルに達したと分析されています。

AIの国家主権をめぐる競争は、クローズドモデルを推進する米国勢と、オープンソースで勢力を拡大する中国勢という構図を呈しています。OpenAIは両アプローチの共存が可能との見方を示していますが、どちらが次世代のグローバルスタンダードを握るのか。この動向は、各国の事業戦略を左右する重要な要素となるでしょう。

元OpenAIムラティ氏、AI調整ツールTinker公開

元OpenAI幹部の新挑戦

ミラ・ムラティ氏が新会社を設立
初製品はAIモデル調整ツールTinker
評価額120億ドルの大型スタートアップ

TinkerでAI開発を民主化

専門的な調整作業をAPIで自動化
強化学習でモデルの新たな能力を開拓
調整済みモデルはダウンロードして自由に利用可

OpenAIの最高技術責任者(CTO)であったミラ・ムラティ氏が共同設立した新興企業「Thinking Machines Lab」は2025年10月1日、初の製品となるAIモデル調整ツール「Tinker」を発表しました。このツールは、最先端AIモデルのカスタマイズ(ファインチューニング)を自動化し、より多くの開発者や研究者が高度なAI技術を利用できるようにすることを目的としています。

「Tinker」は、これまで専門知識と多大な計算資源を要したモデルのファインチューニング作業を大幅に簡略化します。GPUクラスタの管理や大規模な学習プロセスの安定化といった複雑な作業を自動化し、ユーザーはAPIを通じて数行のコードを記述するだけで、独自のAIモデルを作成できるようになります。

特に注目されるのが、強化学習(RL)の活用です。共同創業者ChatGPT開発にも関わったジョン・シュルマン氏が主導するこの技術により、人間のフィードバックを通じてモデルの対話能力や問題解決能力を飛躍的に向上させることが可能です。Tinkerは、この「秘伝のタレ」とも言える技術を開発者に提供します。

Thinking Machines Labには、ムラティ氏をはじめOpenAIの元共同創業者や研究担当副社長など、トップレベルの人材が集結しています。同社は製品発表前にすでに20億ドルのシード資金を調達し、評価額は120億ドルに達するなど、業界から極めて高い期待が寄せられています。

現在、TinkerはMeta社の「Llama」やAlibaba社の「Qwen」といったオープンソースモデルに対応しています。大手テック企業がモデルを非公開にする傾向が強まる中、同社はオープンなアプローチを推進することで、AI研究のさらなる発展と民主化を目指す考えです。これにより、イノベーションの加速が期待されます。

Qwen、AIの安全性をリアルタイム検知する新モデル公開

大規模言語モデル「Qwen」の開発チームは9月23日、AIとの対話の安全性を確保する新しいオープンソースモデルQwen3Guard」を公開しました。このモデルは、ユーザーの入力とAIの応答の両方を評価し、リスクレベルを判定します。主要な安全性ベンチマークで最高水準の性能を達成しており、責任あるAI開発を支援する強力なツールとなりそうです。 最大の特徴は、AIの応答生成中にリアルタイムで安全性を検知する「ストリーミング機能」です。これは「Qwen3Guard-Stream」バリアントで提供され、応答がトークン単位で生成されるそばから瞬時に安全性を評価します。これにより、ユーザー体験を損なうことなく、不適切なコンテンツの生成を動的に抑制できます。 従来の「安全か危険か」という二者択一の分類とは一線を画し、「物議を醸す(Controversial)」という中間的なラベルを導入した点も革新的です。この3段階の深刻度分類により、開発者はアプリケーションの特性や目的に応じて、安全基準の厳格さを柔軟に調整することが可能になります。これにより、過度な制限を避けつつ安全性を確保できます。 グローバルな利用を想定し、119の言語と方言に対応している点も強みです。インドヨーロッパ語族、シナ・チベット語族、アフロ・アジア語族など、世界中の多様な言語で一貫した品質の安全性評価を提供します。これにより、多言語対応のAIサービスを開発する企業にとって、導入のハードルが大きく下がることでしょう。 モデルは、オフラインでのデータセット評価などに適した生成モデル「Qwen3Guard-Gen」と、前述のリアルタイム検知用「Qwen3Guard-Stream」の2種類が提供されます。それぞれに0.6B、4B、8Bの3つのパラメータサイズが用意されており、開発環境やリソースに応じて最適なモデルを選択できます。 開発チームは、AIの安全性を継続的な課題と捉えています。今後はモデル構造の革新や推論時の動的介入など、より柔軟で堅牢な安全手法の研究開発を進める方針です。技術的な能力だけでなく、人間の価値観や社会規範に沿ったAIシステムの構築を目指し、責任あるAIの普及に貢献していくとしています。

USA Todayが自社チャットボット導入、GoogleのAI概要に反撃

出版業界の危機感

Google AI Overviewでトラフィック激減
検索エンジン依存モデルの将来リスクを指摘
著作権侵害への数十億ドルの補償を要求

独自AI「DeeperDive」

Gannettが独自チャットボットDeeperDive発表
220紙以上の自社記事を回答ソースに限定
事実確認を重視し意見記事を除外

技術と収益戦略

開発はTaboolaと連携しOSSを活用
検索ボックスを代替し読者の関心を捕捉
将来的に購買支援エージェント化を目指す

米大手新聞社Gannett(USA Today Network)は、GoogleのAI概要(AI Overview)機能によるウェブトラフィック激減に対抗するため、独自AIチャットボット「DeeperDive」を導入しました。同社CEOのマイク・リード氏は、WIRED AI Power Summitにて発表し、AIがコンテンツを要約することで、出版社へのトラフィックフローが劇的に減少している現状を強く批判しました。この動きは、AIによるメディア業界の収益モデル破壊に対する具体的な反撃策として注目されています。

DeeperDiveは、USA Today Networkの220紙以上の出版物から得たジャーナリズム記事のみに基づいて読者の質問に答える、「AI回答エンジン」です。従来の検索ボックスを置き換え、ユーザーに直接的な回答と関連性の高い記事を提供します。これは、読者が外部のAI企業に行かずとも、信頼できる情報源内で完結させることを目的としています。

DeeperDiveの最大の特徴は、回答の事実正確性を重視している点です。同CEOは、意見記事は参照せず、「実際のジャーナリズム」のみを参照源とすることを強調しました。このツールは広告技術企業Taboolaと共同開発され、複数のオープンソースモデルファインチューニングして構築されています。

リードCEOは、GoogleAI Overviewが「10の青いリンク(従来の検索結果)」を経由するトラフィックを著しく妨害しているとの認識を示しました。この問題は業界全体に及び、SEO最適化に依存する従来のコンテンツ配信モデルに、将来的なリスクをもたらすと警鐘を鳴らしています。

メディア業界のリーダーたちは、AIがコンテンツを学習データとして使用することに対する数十億ドル規模の補償が必要だと主張しています。Condé Nastのロジャー・リンチCEOは、音楽業界がストリーミングサービスとライセンス契約を結んだ状況になぞらえ、AIモデルにとってコンテンツは最も重要なインプットであると訴えています。

GannettはDeeperDiveを通じて読者の関心や意図をより深く理解し、収益化に繋げることを期待しています。次のステップとして、読者の購買決定を支援するエージェント機能を探求する意向を示しています。同社の読者は元々購買意欲が高い層であり、新たな収益源としての可能性を見込んでいるとのことです。