Jensen Huang(人物)に関するニュース一覧

NVIDIA、オープンAI基盤モデル連合を設立

連合の概要と初動

Nemotron Coalition発足
データ・評価・専門知識を共有
Hugging Face最大組織に成長

業界リーダーの展望

AIエージェント高度な同僚
マルチモデルオーケストレーション時代
オープンと独自の共存が不可欠
専門特化モデルで差別化実現

NVIDIAは2026年3月のGTCカンファレンスにおいて、オープンなフロンティアAI基盤モデルの開発を推進する国際連合「Nemotron Coalition」の設立を発表しました。Mistral AIをはじめとする主要AI研究機関が参画し、データや計算資源を共有します。

CEOのジェンスン・フアン氏は「独自かオープンかではなく、独自もオープンも」と述べ、両方のアプローチの共存が不可欠であるとの見解を示しました。NVIDIAは現在Hugging Faceで最大の組織となり、約4,000人のチームメンバーを擁しています。

連合の最初のプロジェクトとして、Mistral AINVIDIA基盤モデルを共同開発します。連合メンバーがデータ提供や評価、ドメイン専門知識で貢献し、オープンエコシステムに公開される予定です。Nemotronモデルはすでに4,500万回以上ダウンロードされています。

GTCのパネルではCursorPerplexityLangChain、Thinking Machines LabなどのAI業界リーダーが登壇しました。AIエージェントが数時間・数日かかるタスクを処理する「同僚」になるとの見通しや、複数モデルの自動オーケストレーションの重要性が議論されました。

パネリストらは、汎用モデルと専門特化モデルの両立が社会に価値をもたらすと強調しました。オープンな基盤の上に各組織が独自データを組み合わせることで差別化が可能になり、学術界を含む幅広い参加者がAIの進歩に貢献できる環境が整うと述べています。

Agile RobotsがGoogle DeepMindと戦略提携を発表

提携の概要

Gemini Roboticsモデルをロボットに統合
製造・自動車・物流など産業用途で展開
ロボット収集データでGemini改善に活用
世界で2万台超ロボット導入実績

業界の提携加速

Boston DynamicsもDeepMind提携済み
Neura RoboticsはQualcomm協業開始
物理AIが次の市場フロンティアに
ハード・ソフト企業間の補完連携が拡大

Agile Robotsは2026年3月、米Google DeepMindと戦略的研究パートナーシップを締結したと発表しました。同社のロボットDeepMindGemini Robotics基盤モデルを統合し、産業分野での自律ロボット開発を共同で進めます。

提携の対象分野は電子機器製造、自動車、データセンター、物流など多岐にわたります。両社はGemini基盤モデルを活用したロボットのテスト、微調整、実環境への展開を協力して行う方針です。契約は長期とされていますが、具体的な期間や金額は非公開です。

Agile Robotsは2018年創業のミュンヘン拠点企業で、SoftBank Vision FundやXiaomiなどから累計2億7000万ドル超を調達しています。共同創業者兼CEOのZhaopeng Chen氏は「自律型インテリジェント生産システムが産業全体を変革する大きな機会がある」と述べました。

ロボット業界では同様の提携が相次いでいます。Hyundai傘下のBoston Dynamicsは今年初め、ヒューマノイドロボットAtlasの開発にDeepMindのAI基盤モデルを活用すると発表しました。また独Neura Roboticsも3月にQualcommIQ10プロセッサを採用する提携を公表しています。

NVIDIAJensen Huang CEOをはじめ業界関係者の多くが物理AIをAI市場の次なるフロンティアと位置づけています。ハードウェアとソフトウェアそれぞれの強みを持つ企業同士の補完的な提携は今後さらに加速する見通しです。

NvidiaファンCEOが「AGI達成」発言、DLSS 5批判にも反論

AGI達成の主張と撤回

AGIは既に実現とフアン氏
Lex Fridmanのポッドキャストで発言
OpenClawの成功を根拠に言及
直後に「Nvidia構築は不可能」と後退

DLSS 5への批判と反論

ゲーマーからAIスロップ批判
3D条件付き生成で従来AIと差別化
アーティスト主導のツールと強調
画一的写実化の懸念を否定

Nvidiaジェンスン・フアンCEOは、Lex Fridmanのポッドキャストに出演し、「AGI(汎用人工知能)は既に達成されたと考えている」と発言しました。フアン氏は、AIが10億ドル規模の企業を立ち上げられるかというAGIの定義に対し、「今がその時だ」と答えています。

しかしフアン氏はその直後に発言をやや後退させ、「10万のAIエージェントNvidiaを構築できる確率はゼロだ」と述べました。オープンソースAIエージェント基盤OpenClawの成功には言及したものの、持続的な成功の難しさも認めています。

AGIという用語は近年、テック業界で大きな議論を呼んでおり、OpenAIMicrosoftの契約条項にも関わる重要な概念です。各社はAGIに代わる独自の用語を模索していますが、実質的な意味は同じだと指摘されています。

一方、DLSS 5の「生成AI」によるグラフィック強化機能は、ゲーマーコミュニティから「AIスロップ」だと強い批判を受けました。多様なゲームが画一的なフォトリアリズムに均質化されるという懸念が広がっています。

フアン氏はこれに対し、DLSS 5は「3D条件付き・3D誘導型」の技術であり、アーティストが作成した構造やテクスチャを基盤とするアーティスト主導のツールだと反論しました。後処理で勝手に変更するのではなく、各フレームを「強化するが変更はしない」と説明しています。

Nvidia開発者会議でAI推論チップ発表、MetaはVRメタバース縮小

Nvidia GTC最新動向

Groqとの推論専用チップ発表
AI半導体収益1兆ドル予測
NemoClawエージェント基盤公開
宇宙データセンター構想も発表

Tesla・Meta の岐路

TeslaFSD移行条件変更で炎上
熱狂的ファン層にも離反の兆し
Meta Horizon WorldsVR版縮小
Reality Labs累計770億ドル損失

Nvidiaは年次開発者会議GTCにおいて、Groqとの200億ドル規模のライセンス契約に基づくAI推論専用チップを発表しました。CEOジェンスン・フアン氏はAI半導体の収益機会が2027年までに少なくとも1兆ドルに達するとの見通しを示しています。

注目すべきは、これまでAI業界が汎用GPUを転用してきたのに対し、今年初めてAI専用設計チップが登場する点です。Groqチップと組み合わせることで推論の速度向上とコスト削減が実現し、Nvidia顧客にとって大きな効率改善が期待されます。

Nvidiaはさらに企業向けAIエージェント基盤「NemoClaw」を発表しました。OpenClaw等のオープンソースエージェント技術が急速に普及するなか、各社がエージェント分野の主導権を競っており、MetaもAIエージェントSNS「Moltbook」を買収するなど動きが加速しています。

一方Teslaでは、生涯利用可能とされた完全自動運転(FSD)の新車移行条件が突然変更され、3月31日までの納車が必要とされたことで忠実なファン層から強い反発が起きています。インフルエンサーを含む熱狂的支持者の離反も報じられ、株価を支えてきた個人投資家基盤への影響が懸念されます。

MetaはVRメタバースの象徴であったHorizon WorldsのQuest版を段階的に縮小すると発表しました。Reality Labs部門は4年間で推定770億ドルの損失を計上しており、社名変更からわずか4年半での事実上の撤退となります。同社は今後AIへの投資を本格化させる方針です。

NvidiaのDLSS 5にゲーマーから批判殺到、CEO反論も火に油

DLSS 5の技術と反発

生成AIでリアルタイム描画刷新
キャラの顔がAI slop化と批判
バイオハザード等デモで違和感
モーションスムージング以上の改変

業界の反応と今後

Huang CEO「批判は完全に間違い」
開発者による微調整可能と主張
今秋にCapcom等大手が対応予定
アーティストの意図尊重が争点

Nvidiaは2026年3月のGTCカンファレンスで、3Dガイド付きニューラルレンダリングモデル「DLSS 5」を発表しました。ゲームのライティングやマテリアルをリアルタイムで生成AIにより刷新する技術ですが、ゲーマーコミュニティから強い反発を受けています。

デモで示された『バイオハザード レクイエム』の主人公グレースや『ホグワーツ・レガシー』のキャラクターは、AIフィルターを通したような不自然な顔に変わり、「AIスロップ」と酷評されました。実在のサッカー選手ファン・ダイクの顔さえ別人のように変形したと指摘されています。

Jensen Huang CEOは批判に対し「完全に間違っている」と反論しました。DLSS 5はジオメトリやテクスチャの制御性と生成AIを融合したものであり、開発者がAIを微調整できると説明しています。しかしこの強気な姿勢がさらなる反感を招いています。

従来のDLSSがグラフィック設定の差を機械学習で埋めるアップスケーリング技術だったのに対し、DLSS 5は生成AIでライティングやマテリアルを根本から作り直す点が大きく異なります。Nvidiaはこれを「2018年のリアルタイムレイトレーシング以来最大のブレークスルー」と位置づけています。

DLSS 5は2026年秋に提供開始予定で、BethesdaCapcom、Ubisoft、Warner Bros. Gamesなど大手スタジオが対応を表明しています。「グラフィックスのGPTモーメント」とNvidiaは謳いますが、アーティストの意図をどこまで尊重できるかが今後の普及の鍵となります。

NvidiaのDLSS 5、生成AIによる映像加工にゲーマーが猛反発

DLSS 5の技術概要

生成AIで照明・質感を再構築
ゲーム内部データでシーン意味解析
RTX 5090×2基でデモ動作
2026年秋にオプション機能として提供

業界の反応と懸念

キャラの顔がAI生成風に均質化
インディー開発者ミームで批判殺到
大手開発者支持表明も温度差
アーティストの創作意図の毀損を懸念

Nvidiaは2026年3月17日、次世代アップスケーリング技術「DLSS 5」を発表しました。従来のフレーム補間を超え、生成AIによるリアルタイム照明・質感の再構築を行う「ニューラルレンダリングモデル」として、秋の正式提供を予定しています。

DLSS 5はゲームの内部カラーデータやモーションベクターを活用し、キャラクターの髪や肌、布の質感、環境光などのシーン意味解析を行います。CEOのジェンスン・フアン氏は「生成AIと手作りレンダリングの融合」と表現し、ハリウッドVFX級のフォトリアル表現をリアルタイムで実現すると述べました。

しかしゲーマーや業界関係者の反応は圧倒的に否定的でした。デモ映像では『バイオハザード』の主人公グレースや『ホグワーツ・レガシー』のキャラクターの顔がAI生成風の均質的な外見に変化し、実在のサッカー選手ファン・ダイクの顔すら別人のように歪められていました。

Bethesdaのトッド・ハワード氏やCapcomの竹内潤氏など大手開発者が支持を表明する一方、多数のインディー開発者がミームや公開声明で強く批判しています。GDC調査でも開発者の多くがゲームへの生成AI導入に反対しており、業界内の温度差が鮮明になりました。

この技術はテレビのモーションスムージングに例えられ、「さらに悪い版」と評されています。AI特有の不自然に滑らかな肌、均一な顔立ち、HDR風の照明がすべてのキャラクターに適用され、アーティストが丹念に作り上げた固有の表現が失われる懸念が広がっています。

NvidiaがGTC 2026で次世代AI基盤「Vera Rubin」と企業向けエージェント戦略を発表

Vera Rubin基盤の全容

7チップ構成の新プラットフォーム量産開始
推論スループットBlackwell比10倍、トークン単価10分の1
Blackwell・Rubin合計で受注1兆ドル見通し
OpenAIAnthropicMeta等が採用表明

エージェントAI戦略

Agent ToolkitをOSSで公開
AdobeSalesforce・SAP等17社が採用
NemoClawでローカルAIエージェント実行

ハード・ソフトの垂直統合

DGX Stationで1兆パラメータモデルをデスクトップ実行
Dynamo 1.0推論OS として主要クラウド採用

Nvidiaは2026年3月16日、サンノゼで開催した年次カンファレンスGTC 2026において、次世代AIコンピューティング基盤「Vera Rubin」プラットフォームを発表しました。CEOのジェンスン・フアン氏は基調講演で、BlackwellとRubinチップの受注見通しが1兆ドルに達すると宣言しています。

Vera RubinはVera CPURubin GPU、NVLink 6 Switch、ConnectX-9、BlueField-4 DPU、Spectrum-6、Groq 3 LPUの7チップで構成されます。旗艦モデルのNVL72ラックは72基のRubin GPUを搭載し、Blackwell比で推論スループットがワットあたり最大10倍、トークン単価は10分の1を実現するとしています。

Anthropicダリオ・アモデイCEO、OpenAIサム・アルトマンCEO、Metaらがプラットフォーム採用を表明しました。AWSGoogle Cloud、Microsoft Azure、Oracle Cloudの4大クラウドがすべて提供を予定しており、80社超の製造パートナーがシステムを構築します。Microsoftハイパースケールクラウドとして初めてVera Rubin NVL72を稼働させたと発表しました。

ソフトウェア面では、企業向けAIエージェント構築基盤「Agent Toolkit」をオープンソースで公開しました。AdobeSalesforce、SAP、ServiceNow、CrowdStrikeなど17社が採用を表明し、セキュリティランタイム「OpenShell」やコスト最適化のAI-Qを統合した包括的な開発環境を提供します。推論OS「Dynamo 1.0」も主要クラウドに採用されています。

ハードウェアでは、GB300チップ搭載のデスクトップ型スーパーコンピュータ「DGX Station」を発表しました。748GBの統合メモリと20ペタフロップスの演算能力で、1兆パラメータモデルをクラウド不要でローカル実行できます。NemoClawと組み合わせ、常時稼働型AIエージェントの個人運用を可能にします。

さらにNvidiaは、Mistral AIら8組織とNemotron Coalitionを結成し、オープンフロンティアモデルの共同開発を開始します。自動運転分野ではBYD・日産らがLevel 4対応車両を開発中で、Uberとは2028年までに28都市でロボタクシー展開を計画しています。製薬大手ロシュは3,500基超のBlackwell GPUを導入し、AI創薬を加速させます。

今回のGTC 2026は、NvidiaチップメーカーからAIプラットフォーム企業への転換を鮮明にした大会となりました。ハードウェア、ソフトウェア、モデル、エージェント基盤を垂直統合し、宇宙からデスクトップまであらゆるスケールのAIインフラを一社で提供する戦略は、競合であるAMDやGoogle TPUAmazon Trainiumとの差別化を図るものです。

Nvidia、推論特化チップGroq 3 LPUを発表

Groq 3の技術的特徴

SRAM内蔵で超低遅延実現
メモリ帯域150TB/sでGPUの7倍
線形データフローで処理を簡素化

推論時代の到来

Groqを200億ドルで買収し技術統合
AWSCerebras推論システム構築

推論分離アーキテクチャ

プリフィルとデコードの分離処理
Groq 3 LPXトレイでGPULPU統合

Nvidiaは米サンノゼで開催されたGTC 2026において、AI推論に特化した新チップGroq 3 LPUを発表しました。同社がスタートアップGroqから200億ドルで技術ライセンスを取得し、わずか2カ月半で製品化したものです。

Jensen Huang CEOは「AIがついに生産的な仕事をできるようになり、推論の転換点が到来した」と宣言しました。学習と推論では計算要件が根本的に異なり、推論では低遅延が最も重要とされています。思考型・推論型モデルでは出力前に何度も推論が実行されるためです。

Groq 3 LPUの核心技術は、プロセッサ内部にSRAMメモリを直接統合した設計にあります。従来のGPUチップ外のHBMにアクセスする必要があるのに対し、データがSRAMを直線的に通過するため、推論に必要な極めて低いレイテンシを実現します。メモリ帯域は150TB/sで、Rubin GPUの22TB/sの約7倍です。

推論特化チップ市場ではD-matrix、Etched、Cerebrasなど多数のスタートアップが独自アプローチを展開しています。AWSCerebrasの第3世代チップと自社Traniumを組み合わせた推論システムのデータセンター展開を発表しました。推論を「プリフィル」と「デコード」に分離する技術が注目されています。

Nvidia推論分離を活用する新コンピュートトレイGroq 3 LPXを発表しました。8基のGroq 3 LPUとVera Rubin GPUを搭載し、計算集約的な処理はGPUが、最終段階の高速デコードはLPUが担います。Huang氏は「すでに量産段階にある」と述べ、推論市場の急速な拡大を示しました。

NVIDIAが過去最高決算を更新

決算の概要

過去最高益を四半期連続で更新
AI計算需要が引き続き爆発的に増加
「トークン需要は飽くことを知らない」とCEO

市場への影響

設備投資の記録的規模が示す産業の巨大化
AMD・Intelとの差は依然大きい
H200・Blackwellの需要が逼迫継続

NVIDIAは最新四半期の財務結果を発表し、AIコンピューティング需要の持続的な拡大を背景に過去最高の収益を更新しました。CEO Jensen Huang氏は「トークン需要は飽くことを知らない」と述べ、AIインフラへの設備投資が今後も加速すると見ています。

ビッグテック各社によるAI向け設備投資は記録的な規模に達しており、NVIDIAの製品需要は逼迫が続いています。H200やBlackwellアーキテクチャのGPUは依然として品薄状態であり、新製品への切り替えも課題です。

NVIDIAAI半導体市場における独占的地位はMatXなどの挑戦者が台頭しているものの、短中期では揺るがない状況です。AI産業全体の成長が続く限り、NVIDIAの高成長も継続するとアナリストは見ています。

NvidiaのCEO Jensen Huangが「あらゆるものが仮想ツインで表現される」と予言

仮想ツインのビジョン

物理世界の仮想ツイン
産業AI×世界モデル
Dassaultとの協業

技術的基盤

製造・都市設計への応用
NVIDIAの産業AI戦略

NVIDIAのCEO Jensen Huangは3DEXPERIENCE Worldにて、あらゆる物理的存在が仮想ツインとして表現されると予言し、産業AIと物理ベースの世界モデルの融合を提唱しました。

物理ベースの世界モデルは、工場・都市・製品をデジタル空間で完全に再現し、AIが現実の代わりにシミュレーション環境で学習・検証できる仕組みです。

Dassault Systèmesとの連携は、製造・建設・エネルギーなどの産業設計にNVIDIAグラフィクスとAI処理能力を統合し、デジタルツインの精度と実用性を高めます。

仮想ツインの普及は、製品設計・都市計画・医療診断など幅広い分野で、試作コストの削減と意思決定の迅速化をもたらすと期待されています。

NVIDIAGPUビジネスを超えて産業AIプラットフォームとして成長しようとする戦略の核心が、この「万物の仮想ツイン化」というビジョンに集約されています。

NvidiaのCEOがOpenAIへの1000億ドル投資に不満がないと否定

Jensen Huangの発言

「不満でない」と明確に否定
OpenAI投資を支持
報道との食い違い

Nvidia-OpenAI関係

GPU供給の継続
競合deepseekへの影響
戦略的パートナーシップ

NvidiaのCEO Jensen Huangは、OpenAIへの1,000億ドル投資関与への「不満」を示唆する報道を否定し、OpenAIとの戦略的パートナーシップを引き続き支持すると明言しました。

NvidiaにとってOpenAIは最大のGPU購入顧客の一つであり、AWSやGCPなどのクラウドベンダーとの競合が強まる中でも、この関係は非常に重要な戦略的資産です。

ジェンスン・フアンがダボスでAIインフラ最大規模建設を宣言

ダボスでの発言内容

人類史上最大インフラ整備
AI「5層ケーキ」アーキテクチャ
10兆ドル規模の投資が必要
各国のAI基盤整備を促進

産業への示唆

エネルギー需要の爆発的増加
データセンター建設ラッシュ
半導体サプライチェーンへの影響
地政学的競争の激化

NVIDIAジェンスン・フアンCEOはダボスでの講演で、現在進行中のAIインフラ整備を「人類史上最大のインフラ建設」と表現した。5層構造データセンター電力・冷却・ネットワーク・AI)で構成される巨大エコシステムの構築が必要だと述べた。

この発言は、AI競争が単なるモデル性能の争いを超え、物理インフラの争奪戦に移行していることを明示する。各国政府や大手テック企業はデータセンター建設と電力確保を急いでいる。

NVIDIAにとってはGPU需要の継続的拡大を裏付ける発言であり、半導体サプライチェーン全体への投資機会を示唆するものでもある。

CES 2026総括:フィジカルAIとロボットが主役を独占

CES 2026の全体トレンド

フィジカルAIロボットがCES 2026を席巻
人型・産業用・コンシューマーロボットが一斉に登場
NvidiaがCES基調講演で「Physical AI」の時代を宣言
車・工場・家庭の3領域でのロボット化が加速
AIエコシステムが仮想世界から物理世界に進出
CES 2026を境に物理AIが新しい産業カテゴリに

TechCrunchやその他の報道機関はCES 2026を総括し、「フィジカルAIロボット」がショーの圧倒的な主役だったと報告しています。NvidiaJensen Huang CEOが基調講演でPhysical AIの時代の到来を宣言し、それを象徴する展示が会場に溢れました。

人型ロボット、産業用コボット(協働ロボット)、家庭向けのサービスロボットが競って展示され、AIを持つロボットが仮想のソフトウェアエージェントから物理世界に出てくる転換点としてCES 2026が記憶されることになりそうです。

自動車(自律走行・AI搭載車)、製造工場(知能化コボット)、家庭(家事ロボット・AIアシスタント)という三つの主要領域でのロボット化の具体的な製品が並んだことで、ロボット・AIの産業化が単なる研究段階を超えたことが明確になりました。

NvidiaがCES 2026でVera Rubinプラットフォームを正式発表

Vera Rubin:次世代AIチップの全貌

Vera Rubinが2026年後半に顧客向け出荷開始
「フル生産」状態とJensen Huangが宣言
前世代比で大幅な性能向上を実現
NVLink Fusionで他社チップとの統合も可能
HBM4メモリ搭載でメモリ帯域幅が飛躍的増大
AI推論・学習の両用途で競合を大きく引き離す

MicrosoftAzureとのエコシステム整備

AzureがRubin対応インフラをすでに計画済み
MicrosoftNvidiaの長期戦略的パートナーシップ
大規模クラスター展開をシームレスに実現
データセンター設計にRubinを前提とした最適化
電力密度とラック設計が新たな工学的課題
ハイパースケーラー全社がRubin対応を急ぐ

NvidiaのCEO Jensen HuangはラスベガスのフォンテーヌブローホテルでCES 2026の基調講演を行い、次世代AIコンピューティングプラットフォーム「Vera Rubin」が正式に生産フェーズに入ったと発表した。2026年後半から主要顧客への出荷が開始される予定だ。

Vera Rubinは前世代のBlackwellから大幅な性能向上を実現しており、AI学習・推論の両用途で競合を引き離す。特に注目されるのはNVLink Fusion技術で、他社製のCPU(ArmIntel)とも組み合わせて使用できる柔軟なアーキテクチャを提供する。

MicrosoftのAzureチームは、Rubinプラットフォームのデプロイに向けてデータセンターの長期計画を進めていることを明らかにした。大規模なNvidiaクラスターを効率的に展開するためのインフラ設計が完了しており、出荷と同時に即座に活用できる体制が整っている。

RubinのアーキテクチャはHBM4メモリを採用し、メモリ帯域幅と容量の両面で大幅な向上を実現している。これにより、より大きなモデルのより高速な推論が可能となり、エンタープライズAIアプリケーションの応答性が大幅に改善される。

電力密度の増加に伴い、データセンター冷却電力インフラの再設計も必要となる。液体冷却システムの採用が業界標準化しつつあり、エネルギー効率の向上と持続可能性の確保が新たな設計要件となっている。

NvidiaがロボティクスAIスタック全体を公開:物理AIの時代が本格化

Cosmos Reason 2とAlpamayoの革新

Cosmos Reason 2ロボット向け推論VLMを実現
自律走行車・産業ロボット双方に適用可能
Alpamayoオープンソースモデルが自動車に思考力を
「人間のように考える」自動運転AIが目標
Isaac Lab-Arenaシミュレーション評価を自動化
LeRobotとの統合で汎用ロボット政策を評価

NvidiaがロボティクスのAndroidを目指す

ロボット向け共通基盤モデルを標準化
シミュレーション→実機の移行コスト削減
エッジAIハードウェアとの統合が鍵
MobileNet的な役割をロボティクスで担う
物理AIが製造・物流・農業を変革

Nvidiaは「物理AI」(Physical AI)という概念を中心に、ロボティクス向けAIスタック全体を公開した。Cosmos Reason 2は視覚言語モデル(VLM)に推論能力を組み合わせ、自動運転車や産業ロボットが複雑な物理環境を理解・判断できる基盤を提供する。

Alpamayoは自律走行車向けのオープンソースAIモデル群で、「人間のように考える」能力の実現を目指している。複数シナリオの推論・予測・意思決定を組み合わせることで、従来のルールベース自動運転からAI推論型へのパラダイムシフトを促進する。

Isaac Lab-Arenaはシミュレーション環境でロボット政策(Policy)を自動評価するツールで、実機テストのコストと時間を大幅に削減できる。LeRobotHugging Face)との統合により、汎用ロボット政策の標準的なベンチマーク基盤として機能する。

Jensen HuangのビジョンはNvidiaを「ロボティクスAndroid」として位置づけることだ。スマートフォンでAndroidが共通プラットフォームとして機能したように、Nvidiaロボットスタックがさまざまなハードウェアメーカーの共通基盤になることを目指している。

物理AIの普及は製造・物流・農業・医療など多岐にわたる産業に変革をもたらす。Nvidiaロボティクスエコシステムへの参加企業数が増加するにつれ、ネットワーク効果が働き業界標準としての地位が強固になる見通しだ。

米のNvidia対中輸出許可に批判、AI覇権喪失の懸念

輸出解禁の狙いと論理

中国米国チップに依存させる戦略
規制は中国企業のR&D;資金源になると主張
収益をNvidiaの技術開発に再投資

専門家・前政権からの警告

中国計算能力不足を解決してしまう
H200は既存チップ6倍の性能を持つ
米国の技術的優位を自ら手放すリスク

トランプ大統領がNvidiaの高性能AIチップ「H200」の中国への輸出を許可した決定に対し、専門家から強い懸念の声が上がっています。この決定は、中国がAI開発競争で勝利するために不可欠な計算能力を提供し、米国の技術的優位性を損なう可能性があると指摘されています。

輸出が解禁されるH200は、現在中国で利用可能なH20チップと比較して約6倍の処理能力を誇ります。Huaweiなどの中国メーカーは技術的にNvidiaより2年遅れているとされますが、今回の措置はその差を埋め、中国企業のキャッチアップを意図せず支援する恐れがあります。

サリバン前大統領補佐官は、この動きを「常軌を逸している」と批判しました。中国のAI開発における最大の課題は先端チップの不足にあり、米国がそれを供給することは、自国の優位性を自ら放棄し、競合国の問題を解決してやることに他ならないという主張です。

一方で、Nvidiaジェンスン・フアンCEOらは、輸出規制こそが中国企業の市場独占を招き、彼らのR&D;資金を潤すとトランプ氏を説得しました。米国チップへの依存を維持させ、得られた巨額の収益を自社の開発に回すことが、長期的な米国の優位性につながるとの論理です。

NVIDIAとAWSがインフラ統合、AIチップ連携を強化

次世代チップとインフラの融合

AWS次世代チップTrainium4にNVLinkを統合
Blackwell搭載GPUAWSで提供拡大
両社技術の融合で計算性能と開発速度を最大化
AI産業革命に向けた計算ファブリックを共同構築

ソフトウェア高速化とデータ主権

Amazon BedrockでNemotronモデル利用可能
OpenSearch検索GPUで最大10倍高速化
データ主権を守るAWS AI Factories発表
ロボティクス向けCosmosモデルをAWSで提供

NVIDIAAmazon Web Services(AWS)は2025年12月2日、ラスベガスで開催中の「AWS re:Invent」において、戦略的パートナーシップの大幅な拡大を発表しました。この提携により、AWSの次世代AIチップ「Trainium4」とNVIDIAのインターコネクト技術「NVLink Fusion」が統合され、クラウドインフラの性能が飛躍的に向上します。両社はハードウェアだけでなく、ソフトウェアやロボティクス分野でも連携を深め、企業のAI導入を強力に支援します。

最大の目玉は、NVIDIAのスケールアップ技術とAWSのカスタムシリコンの融合です。AWSは「NVLink Fusion」を採用し、自社の推論・学習用チップ「Trainium4」やCPUと組み合わせます。これにより、大規模AIモデルの学習や推論のボトルネックを解消し、市場投入を加速します。NVIDIAジェンスン・フアンCEOは、この動きを「AI産業革命のための計算ファブリックの創造」と位置づけています。

データセキュリティと規制順守を重視する企業向けに、「AWS AI Factories」も発表されました。これは、NVIDIAの最新GPU「Blackwell」アーキテクチャを搭載したインフラを、顧客自身のデータセンター内に配備し、AWSが運用管理を行うサービスです。これにより、企業は機密データの主権(ソブリンAI)を維持しながら、世界最高峰のAI計算能力を活用することが可能になります。

開発者生産性を高めるソフトウェア統合も進みます。NVIDIAのオープンモデル「Nemotron」が「Amazon Bedrock」に統合され、即座に利用可能になりました。「Amazon OpenSearch Service」ではGPU活用のベクトル検索が導入され、最大10倍の高速化を実現しています。さらに、ロボティクス開発を支援する物理AIモデル「NVIDIA Cosmos」もAWS上で利用可能となりました。

NVIDIA、思考する自動運転AIと物理AI開発基盤を公開

自動運転を変える「思考するAI」

世界初の自動運転向け推論VLAモデル
思考の連鎖人間並みの判断を実現
研究用にGitHub等でオープン提供

物理AI開発を加速するツール群

開発全工程を網羅したCosmos Cookbook
ロボット動作生成やデータ修復に対応
音声AIや安全性モデルも拡充

2025年12月、米NVIDIAはAIカンファレンス「NeurIPS」において、自動運転および物理AI(Physical AI)向けのオープンソースモデル群を発表しました。特に注目されるのは、推論能力を持つ自動運転用VLAモデル「Alpamayo-R1」と、物理AI開発ガイド「Cosmos Cookbook」です。同社はこれらの技術を開放することで、ロボティクスや自動運転分野におけるイノベーションの加速を狙います。

NVIDIA DRIVE Alpamayo-R1」は、視覚情報の処理と言語による推論を統合し、行動決定を行う世界初のモデルです。最大の特徴は「思考の連鎖(Chain-of-thought)」を組み込んだ点にあり、歩行者の多い交差点や不規則な交通状況でも、人間のような常識に基づいた判断を下せます。これにより、完全自動運転(レベル4)の実現に向けた安全性が飛躍的に向上します。

物理AIの実装を支援するため、データ生成からモデル評価までの手順を示した「Cosmos Cookbook」も提供されます。開発者はLiDARデータの生成やロボットの動作ポリシー策定など、複雑なタスクに対応した「Cosmos」モデル群を容易に活用できるようになります。ジェンスン・フアンCEOが提唱する「AIの次の波は物理AI」というビジョンを具現化する動きです。

デジタルAI領域でも、複数話者の聞き分けが可能な音声モデルや、AIの安全性を担保するデータセット、推論速度と精度を両立する軽量モデルなどが公開されました。NVIDIAは70本以上の論文を発表しており、ハードウェアだけでなく、次世代AI開発に不可欠なソフトウェア基盤においても、圧倒的な存在感を示しています。

Nvidia売上570億ドル、AIインフラ投資が支える急成長

圧倒的決算とCEOのビジョン

売上高は前年比62%増の570億ドル
データセンター事業が500億ドル規模に
AIエージェント普及が投資正当化の鍵

過熱する周辺領域への投資

ベゾス氏が新AIスタートアップに参画
音楽生成Sunoが25億ドル評価で調達
Waymoなど自動運転の実用化が加速

Nvidiaは2025年11月、前年比62%増となる売上高570億ドルを記録したと発表しました。世界的なAIインフラへの旺盛な投資需要が続き、特にデータセンター事業が収益の柱として、同社の急成長を牽引しています。

市場では「AIバブル」を懸念する声もありますが、データセンター事業だけで約500億ドルを稼ぎ出す現状は、実需の強さを証明しています。ジェンスン・フアンCEOは、AIエージェントが日常業務を担う未来を見据え、現在の巨額投資は正当であると強調します。

AIエコシステム全体への資金流入も続いています。ジェフ・ベゾス氏による新興AI企業「Project Prometheus」への参画や、音楽生成AI「Suno」が訴訟リスクを抱えながらも評価額25億ドル資金調達に成功するなど、投資家の期待は依然として高い水準です。

実社会でのAI活用として、自動運転分野も進展を見せています。Waymoが提供エリアを拡大し高速道路での走行承認を得たほか、ZooxやTeslaもサービス展開を加速させており、AI技術が社会インフラとして定着しつつある現状が浮き彫りになっています。

因果AIのアレンビック、評価額13倍で220億円調達

因果AIで独自価値を創出

相関ではなく因果関係を分析
企業の独自データで競争優位を確立

巨額調達とスパコン導入

シリーズBで1.45億ドルを調達
世界最速級スパコンを自社で運用
データ主権とコスト効率を両立

大企業の導入成果

デルタ航空の広告効果を売上と直結
Mars社の販促効果を正確に測定
売上への真の貢献要因を特定

サンフランシスコのAIスタートアップAlembicが、シリーズBで1億4500万ドル(約220億円)の資金調達を発表しました。同社は単なる相関関係ではなく、ビジネスにおける「因果関係」を解明する独自のAIを開発。調達資金を活用し、Nvidia製の最新スーパーコンピュータを導入して、大企業のデータに基づいた高精度な意思決定支援を加速させます。

なぜ「因果AI」が注目されるのでしょうか。生成AIの性能が均一化する中、企業の競争優位性は独自データの活用に移行しています。しかし、汎用AIに「どうすれば売上が伸びるか」と尋ねても、競合と同じ答えしか返ってきません。AlembicのAIは、どの施策が本当に売上増を引き起こしたのかという因果関係を特定し、他社には真似できない独自の戦略立案を可能にします。

同社はクラウドに頼らず、世界最速級のスーパーコンピュータ「Nvidia NVL72」を自社で導入する異例の戦略をとります。これは、顧客データの機密性を守る「データ主権」の確保が最大の目的です。特に金融や消費財メーカーなど、データを外部クラウドに置くことを禁じている企業にとって、この選択は強力な信頼の証となります。同時に、クラウド利用の数分の一のコストで膨大な計算処理を実現します。

Alembicの躍進を支えるのが、半導体大手Nvidiaとの強固なパートナーシップです。Nvidia投資家ではなく、最初の顧客であり、技術協力者でもあります。創業当初、計算資源に窮していたAlembicに対し、NvidiaはCEOのジェンスン・フアン氏自らが関心を示し、GPUインフラの確保を直接支援。この協力関係が、Alembicの技術的優位性の基盤となっています。

導入企業は既に目覚ましい成果を上げています。例えば、デルタ航空はオリンピック協賛の効果を数日で売上増に結びつけて定量化することに成功。従来は測定不可能だったブランド活動の財務インパクトを可視化しました。また、食品大手Mars社は、商品の形状変更といった細かな販促活動が売上に与える影響を正確に把握し、マーケティングROIを最大化しています。

Alembicは、マーケティング分析に留まらず、サプライチェーンや財務など、企業のあらゆる部門で因果関係を解明する「ビジネスの中枢神経系」になることを目指しています。独自の数学モデル、巨大な計算インフラ、そしてデータ主権への対応という深い堀を築き、汎用AIとは一線を画す価値を提供します。企業の独自データを真の競争力に変える、新たな潮流の到来です。

NVIDIAフアンCEOら、AIの功績で英女王工学賞受賞

GPU開発の功績

GPUアーキテクチャ開発を主導
AIと機械学習の基盤を構築
アクセラレーテッド・コンピューティングを開拓
現代のAIのビッグバンを触発

英国での栄誉と未来

チャールズ国王から賞を授与
フアン氏はホーキング・フェローにも選出
英国政府と次世代エンジニア育成を議論

NVIDIA創業者兼CEOであるジェンスン・フアン氏と、チーフサイエンティストのビル・ダリー氏が、今週英国で「2025年エリザベス女王工学賞」を受賞しました。授賞式はセント・ジェームズ宮殿で行われ、チャールズ国王陛下から直接賞が授与されました。両氏のAIと機械学習の基盤となるGPUアーキテクチャ開発における功績が、高く評価された形です。

今回の受賞は、両氏が主導したGPUアーキテクチャが今日のAIシステムと機械学習アルゴリズムを支えている点に焦点を当てています。彼らの功績は、コンピュータ業界全体に根本的な変化をもたらした「アクセラレーテッド・コンピューティング」の開拓にあります。この技術革新こそが、現代のAIの「ビッグバン」を巻き起こした原動力とされています。

フアンCEOは受賞に際し、「私たちが生きているのは、マイクロプロセッサ発明以来の最も深遠なコンピューティングの変革期だ」と述べました。さらにAIは「将来の進歩に不可欠なインフラであり、それは前世代にとっての電気やインターネットと同じだ」と、その重要性を強調しました。AIの未来に対する強い自負がうかがえます。

一方、チーフサイエンティストのダリー氏は、AIの基盤が数十年にわたる並列コンピューティングとストリーム処理の進歩にあると指摘。「AIが人々を力づけ、さらに偉大なことを成し遂げられるよう、ハードウェアとソフトウェアを洗練させ続ける」と、今後の技術開発への意欲を示しました。

両氏は授賞式に先立ち、英国政府の科学技術担当大臣らと円卓会議に出席しました。テーマは「英国がいかにして将来のエンジニアを鼓舞するか」。これはNVIDIA英国の政府や大学と進めるAIインフラ、研究、スキル拡大のための連携を一層強化する動きと言えるでしょう。

さらにフアンCEOは、世界で最も古い討論会であるケンブリッジ・ユニオンで「スティーブン・ホーキング・フェローシップ」も授与されました。科学技術を進歩させ、次世代にインスピレーションを与えた功績が認められたものです。フアン氏の貢献が、工学分野だけでなく、科学界全体から高く評価されていることを示しています。

独の産業革新へ、NVIDIAとテレコムがAIクラウド創設

データ主権守る巨大AI基盤

10億ユーロ規模の共同事業
ドイツ国内でデータを管理
欧州の産業競争力を強化
2026年初頭に稼働開始

最高峰技術とエコシステム

NVIDIA最新GPUを最大1万基
独テレコムがインフラ提供
SAP、シーメンス等が参画

半導体大手NVIDIAドイツテレコムは11月4日、ドイツ国内に世界初となる産業特化のAIクラウド「Industrial AI Cloud」を共同で設立すると発表しました。総額10億ユーロを投じ、2026年初頭の稼働を目指します。この提携は、ドイツのデータ主権を守りながら産業のデジタルトランスフォーメーションを加速させ、欧州の国際競争力を高めることを目的としています。

NVIDIAジェンスン・フアンCEOは、AIを稼働させるデータセンターを「現代版の工場」と表現し、知能を生み出す重要性を強調しました。このプロジェクトは、欧州企業が自国のデータ管理下で安全にAI開発を進める「ソブリンAI(データ主権AI)」の実現に向けた大きな一歩となります。

ミュンヘン近郊に新設される「AIファクトリー」には、NVIDIAの最新GPU「Blackwell」アーキテクチャを採用したシステムなどが最大10,000基搭載される計画です。ドイツテレコムは信頼性の高いインフラと運用を提供し、企業が大規模なAIモデルのトレーニングや推論を高速かつ柔軟に行える環境を整えます。

この構想には、ソフトウェア大手SAPや製造業大手シーメンスなど、ドイツを代表する企業がエコシステムパートナーとして参画します。メルセデス・ベンツやBMWといった自動車メーカーも、AI駆動のデジタルツインを用いた複雑なシミュレーションでの活用を見込んでおり、幅広い産業での応用が期待されます。

具体的な活用例としては、製品開発を高速化するデジタルツイン、工場の自動化を進めるロボティクス、設備の故障を事前に予測する予知保全などが挙げられます。製造業の変革を促す「インダストリー4.0」をさらに加速させる起爆剤となるでしょうか。

今回の提携は、ドイツの国際競争力強化を目指す官民イニシアチブ「Made for Germany」から生まれた最初の具体的な成果の一つです。欧州では、外国の巨大テック企業への技術依存を減らしデジタル主権を確立する動きが強まっており、このAIクラウド欧州独自の技術革新の新たな核となる可能性を秘めています。

NVIDIA、史上初5兆ドル企業に AIブームが加速

驚異的な成長スピード

4兆ドルから僅か3ヶ月で達成
2022年末から株価は約12倍
AppleMicrosoftを上回る

株価を押し上げた好材料

5000億ドルのAIチップ受注見込み
アメリカ政府向けスパコン7基構築
Nokiaと次世代通信網提携
対中輸出協議への期待感

半導体大手NVIDIAが29日、株式市場で時価総額5兆ドル(約750兆円)を史上初めて突破しました。生成AIブームを背景に同社のGPU画像処理半導体)への需要が爆発的に増加。CEOによる強気な受注見通しの発表や、米中間の取引協議への期待感が株価を押し上げ、4兆ドル達成からわずか3ヶ月で新たな大台に乗せました。

株価上昇の直接的な引き金は、ジェンスン・フアンCEOが発表した複数の好材料です。同氏は、最新AIチップ「Blackwell」と次世代「Rubin」について、2026年末までに累計5000億ドルの受注を見込むと表明。さらにアメリカ政府向けに7つのスーパーコンピュータを構築する計画も明らかにしました。

トランプ大統領の発言も市場の追い風となりました。同大統領は、中国の習近平国家主席とNVIDIAの高性能チップ「Blackwell」について協議する意向を示唆。これにより、現在輸出規制の対象となっている中国市場への販売再開に対する期待感が高まり、投資家の買いを誘いました。

NVIDIAの成長スピードは驚異的です。2022年末にChatGPTが登場して以降、同社の株価は約12倍に急騰しました。時価総額4兆ドルを突破したのが今年7月。そこからわずか3ヶ月で5兆ドルに到達し、AppleMicrosoftといった巨大テック企業を突き放す形となっています。

同社は事業領域の拡大にも余念がありません。フィンランドの通信機器大手Nokiaに10億ドルを投資し、AIをネイティブに活用する次世代通信規格「5G-Advanced」や「6G」ネットワークの共同開発で提携半導体事業に留まらない成長戦略を描いています。

一方で、市場ではAI関連株の急激な上昇を「バブルではないか」と懸念する声も根強くあります。しかし、フアンCEOは「我々が利用するAIモデルやサービスに対価を払っている。バブルだとは思わない」と述べ、実需に裏打ちされた成長であることを強調しました。

NVIDIA、最新AI半導体Blackwellを米国で生産開始

米国製AIチップの誕生

アリゾナ州で初のBlackwellウェハー生産
フアンCEOが歴史的瞬間と強調
Blackwellが量産体制へ移行

サプライチェーン国内回帰

米国AIインフラを国内で構築
最先端チップの国内生産を実現
米国のAI分野でのリーダーシップ確保

NVIDIATSMCは2025年10月17日、米国アリゾナ州フェニックスにあるTSMC半導体工場で、最新AI半導体「Blackwell」の最初のウェハーを生産したと発表しました。NVIDIAジェンスン・フアンCEOが工場を訪れ、記念式典でウェハーに署名。これはBlackwellの量産開始を意味し、米国内のサプライチェーン強化とAIインフラ構築を加速させる歴史的な一歩となります。

フアンCEOは式典で、「米国史上初めて、最も重要なチップが国内の最先端工場で製造される歴史的瞬間だ」と強調しました。また、この動きは製造業を米国内に戻し、雇用を創出するという「再工業化」のビジョンを体現するものだと述べ、AIという世界で最も重要な技術産業における米国の役割を力説しました。

TSMCアリゾナのレイ・チュアンCEOも、「アリゾナ到着からわずか数年で米国NVIDIA Blackwellチップを供給できたことは、TSMCの最良の姿を示すものだ」と述べました。このマイルストーンは、NVIDIAとの30年にわたるパートナーシップと、従業員や地域パートナーの揺るぎない献身の賜物であると感謝の意を表しました。

TSMCアリゾナ工場では、Blackwellに加え、2、3、4ナノメートルプロセスや次世代のA16チップなど、最先端技術の半導体を生産する計画です。これらのチップは、AI、通信、高性能コンピューティング(HPC)といった分野のアプリケーションにとって不可欠な要素となります。

今回の国内生産開始は、急増するAI需要に応える上で極めて重要です。AIインフラの根幹をなす半導体製造を米国内で行うことで、サプライチェーンを強靭化し、AI分野における米国の持続的なリーダーシップを確立する道筋をつけました。これは米国半導体製造とAI開発における大きな前進と言えるでしょう。

NVIDIA、卓上AIスパコン発表 初号機はマスク氏へ

驚異の小型AIスパコン

1ペタフロップスの演算性能
128GBのユニファイドメモリ
Grace Blackwellチップ搭載
価格は4,000ドルから提供

AI開発を個人の手に

最大2000億パラメータのモデル実行
クラウド不要で高速開発
開発者や研究者が対象
初号機はイーロン・マスク氏へ

半導体大手NVIDIAは2025年10月14日、デスクトップに置けるAIスーパーコンピュータ「DGX Spark」を発表しました。ジェンスン・フアンCEO自ら、テキサス州にあるSpaceXの宇宙船開発拠点「スターベース」を訪れ、初号機をイーロン・マスクCEOに手渡しました。AI開発の常識を覆すこの新製品は、15日から4,000ドルで受注が開始されます。

DGX Sparkの最大の特徴は、その小型な筐体に詰め込まれた圧倒的な性能です。1秒間に1000兆回の計算が可能な1ペタフロップスの演算能力と、128GBの大容量ユニファイドメモリを搭載。これにより、従来は大規模なデータセンターでしか扱えなかった最大2000億パラメータのAIモデルを、個人のデスク上で直接実行できます。

NVIDIAの狙いは、AI開発者が直面する課題の解決にあります。多くの開発者は、高性能なPCでもメモリ不足に陥り、高価なクラウドサービスデータセンターに頼らざるを得ませんでした。DGX Sparkは、この「ローカル環境の限界」を取り払い、手元で迅速に試行錯誤できる環境を提供することで、新たなAIワークステーション市場の創出を目指します。

この卓上スパコンは、多様なAI開発を加速させます。例えば、高品質な画像生成モデルのカスタマイズや、画像の内容を理解し要約する視覚言語エージェントの構築、さらには独自のチャットボット開発などが、すべてローカル環境で完結します。アイデアを即座に形にできるため、イノベーションのスピードが格段に向上するでしょう。

DGX Sparkは10月15日からNVIDIAの公式サイトやパートナー企業を通じて全世界で注文可能となります。初号機がマスク氏に渡されたのを皮切りに、今後は大学の研究室やクリエイティブスタジオなど、世界中のイノベーターの元へ届けられる予定です。AI開発の民主化が、ここから始まろうとしています。

ベトナム、NVIDIAと連携し「国家AI」戦略を加速

NVIDIAは9月23日、ベトナムのホーチミン市で「AI Day」を開催しました。イベントには800人以上が参加し、ベトナム政府は「国家AI(Sovereign AI)」を経済戦略の中心に据え、国を挙げて推進する姿勢を強調しました。NVIDIAはAIエコシステムの構築や地域に特化したデータ・モデルの重要性を指摘。ベトナムは2030年までに東南アジアのAI先進国トップ4入りを目指します。 「国家AI」を成功させる鍵は何でしょうか。NVIDIA幹部は5つの重要要素を挙げました。具体的には、①AIの必要性に対する国家的な認識、②開発者や企業から成るエコシステム、③AI人材の育成、④言語や文化に合わせたAIモデルとデータ、⑤国内で管理・運営される「AIファクトリー」です。これらが成功の基盤となります。 ベトナムは野心的な目標を掲げています。2030年までに東南アジアにおけるAI先進国トップ4に入り、3つの国家データセンターを建設する計画です。FPTソフトウェアのCEOは「技術における主権は、国家安全保障や国民のプライバシー保護にも繋がる」と述べ、国家AIの重要性を強調しました。 ベトナムのAIエコシステムは着実に成長しています。国内には100社以上のAI関連スタートアップが存在し、約10万人のAI人材が活躍しています。NVIDIAジェンスン・フアンCEOも、ベトナムの若者の数学や科学技術分野での優秀さを高く評価しており、将来の技術開発における強固な基盤になると期待を寄せています。 現地のパートナー企業も具体的な動きを見せています。IT大手FPTは、NVIDIAGPUを活用した国内AIファクトリーの構築を進めています。また、GreenNodeやZaloといった企業は、ベトナム特有の言語や文化に合わせた大規模言語モデル(LLM)の開発に取り組んでおり、国産AI技術の確立を目指しています。

NVIDIA、OpenAIに最大14兆円投資 巨大AI基盤構築

半導体大手のNVIDIAと「ChatGPT」を開発するOpenAIは2025年9月22日、AI開発のインフラを共同で構築する戦略的パートナーシップを発表しました。NVIDIAは、OpenAIが建設するAIデータセンターの規模に応じて、最大1000億ドル(約14兆円)を段階的に投資します。OpenAINVIDIA製のGPUを数百万個規模で導入し、少なくとも10ギガワットの計算能力を確保する計画です。次世代AIモデルの開発・運用に不可欠な膨大な計算資源を確保する狙いがあります。 今回の提携は、NVIDIAジェンスン・フアンCEOが「史上最大のAIインフラプロジェクト」と評する大規模なものです。OpenAIは、NVIDIAの次世代プラットフォーム「Vera Rubin」を含むシステムを導入。OpenAIサム・アルトマンCEOは「計算インフラは未来経済の基盤になる」と述べ、AIのブレークスルー創出への期待を示しました。今後のAI開発の行方を大きく左右する動きとなりそうです。 OpenAIはこれまで、最大の投資家であるMicrosoftクラウドに大きく依存してきました。しかし、今年1月に提携内容を変更して以降、Oracleとの大規模契約など、計算資源の調達先を積極的に多様化しています。今回の提携もその戦略を加速させるものです。特定の企業への依存リスクを低減し、AI開発の主導権を維持する狙いがうかがえます。 NVIDIAによる投資は、OpenAINVIDIAGPUを購入するための資金となり、最終的にNVIDIAの売上に還流する構造です。市場関係者はこれを「好循環」と見ており、AIインフラ市場における同社の支配的地位をさらに強固にする動きとして評価しています。AIの需要拡大が自社の成長に直結するビジネスモデルを確立したと言えるでしょう。 計画されている10ギガワットという電力は、原子力発電所約10基分に相当します。AIデータセンター電力消費は世界的に急増しており、国際エネルギー機関(IEA)も警鐘を鳴らしています。電力網への負担や環境への影響は、AIの普及における大きな課題となり、解決策として原子力などの活用も模索されています。 AIの能力向上を支えるインフラ投資競争は、業界全体で激化しています。Metaは2028年末までに6000億ドルを投じる計画で、MicrosoftAmazonも原子力発電所と提携するなど、大規模なデータセンター建設と電力確保に奔走しています。AI競争は、もはやモデル開発だけでなくインフラ確保の競争でもあるのです。 今回の計画では、最初のシステムが2026年後半に稼働を開始する予定です。AIが社会に浸透するにつれ、その頭脳を支える「AI工場」の重要性は増すばかりです。この巨大プロジェクトの成否は、AI業界全体の未来を左右する可能性があります。企業は自社のAI戦略において、計算資源の確保をどう進めるか問われています。

Nvidia、Intelに50億ドル出資 AI半導体で共同開発へ

AI半導体最大手のNvidiaは18日、米Intelに50億ドルを出資し戦略的提携を結ぶと発表しました。両社はデータセンターとPC向けの次世代半導体を共同開発します。AI市場の優位性を固めたいNvidiaと、巻き返しを図るIntelの思惑が一致した形で、業界の競争環境に大きな影響を与えそうです。 データセンター向けでは、IntelNvidiaのAI基盤に最適化したx86系CPUを製造します。両社のチップNvidia独自の高速技術「NVLink」で接続。AIの膨大な処理に必要なチップ間のデータ転送を高速化し、大規模モデルの学習や推論を効率化します。この協力が企業のAI導入を加速させるかもしれません。 PC市場向けには、Intelのx86技術とNvidiaの高性能GPU「RTX」のチップレットを統合した新しいSoCを開発します。これにより、従来にない処理能力を持つ統合型ノートPCが生まれると期待されています。NvidiaのフアンCEOは年間1.5億台のノートPC市場への進出に意欲を示しています。 近年、AI半導体開発で後れを取っていたIntelにとって、今回の提携は大きな転機です。Nvidiaとの協業は、AI市場でのシェア回復と競合AMDに対抗する足がかりとなります。発表を受けIntelの株価は一時30%以上急騰し、市場の高い期待感を映し出しました。 一方、Nvidiaジェンスン・フアンCEOは、提携が年間「250億ドルから500億ドル規模の事業機会」を生むと試算。IntelのCPU技術やエコシステムを活用し、自社のAIプラットフォームをさらに拡大する狙いです。フアンCEOはこの投資を「素晴らしいものになる」と強調しました。 今回の発表では、Intel半導体受託製造(ファウンドリ)をNvidiaが利用するかは明言されませんでした。Nvidiaは現在、製造の大部分を台湾のTSMCに依存しています。両社はまず製品協業を優先し、ファウンドリ活用は将来検討するとしており、今後の動向が注目されます。

フアンCEOがGemini「Nano Banana」を絶賛、AIは「格差解消の機会」

フアン氏熱狂のAI画像生成

Google Geminiの「Nano Banana」を熱狂的に称賛
公開後数日で3億枚画像生成増を記録
AIの民主化を推進する技術と評価

CEOの高度なAI活用術

日常業務や公開スピーチ作成にAIを多用
AIを「考えるパートナー」として活用
タスクに応じて複数モデルを使い分け

英国AI市場への戦略

NVIDIA英国AIインフラ企業に6.83億ドルを出資
英国のAI潜在能力を高く評価し謙虚すぎると指摘

NVIDIAジェンスン・フアンCEOは、Google GeminiのAI画像生成ツール「Nano Banana」を熱狂的に称賛しました。同氏はロンドンで英国への大規模AI投資を発表した際、AIは「技術格差を解消する最大の機会」であると主張。AIの未来について非常に楽観的な見解を示しています。

フアンCEOが熱狂的に支持するNano Bananaは、公開から数日でGemini画像生成数を3億枚急増させた人気機能です。これは、背景の品質を維持したまま、顔や動物などのオブジェクトに精密な編集を可能にする点が評価され、ユーザーに広く受け入れられています。

フアン氏は日常業務から公開スピーチの準備まで、AIを積極的に利用しています。AIワープロを使用することで、自身の状況や意図を記憶し、適切な提案を行う「思考のパートナー」として生産性を劇的に高めていると説明しています。

同氏はタスクに応じてAIモデルを厳密に使い分けています。技術的な用途にはGeminiを、芸術的な要素が強い場合はGrokを、高速な情報アクセスにはPerplexityを、そして日常的な利用にはChatGPTを楽しむと述べています。

さらに重要なリサーチを行う際には、フアン氏独自の高度な検証プロセスを採用しています。同じプロンプト複数のAIモデルに与え、互いの出力結果を批判的に検証させてから、最適な成果を選び出す手法です。

フアン氏は、AIは電気やインターネットのように、すべての人に開かれ、誰一人として取り残されてはならないという哲学を持っています。「この技術は使い方が非常に簡単であり、技術格差を埋める最大のチャンスだ」と強調し、AIの民主化を訴えています。

NVIDIAは、英国データセンター構築企業Nscaleに対し、6億8300万ドル(約1,000億円超)の株式投資を実施しました。フアン氏は、英国が産業革命やDeepMindの創出に貢献した歴史を踏まえ、同国のAI進展における潜在能力を高く評価しています。