LPU(ハードウェア)に関するニュース一覧

NvidiaがGTC 2026で次世代AI基盤「Vera Rubin」と企業向けエージェント戦略を発表

Vera Rubin基盤の全容

7チップ構成の新プラットフォーム量産開始
推論スループットBlackwell比10倍、トークン単価10分の1
Blackwell・Rubin合計で受注1兆ドル見通し
OpenAIAnthropicMeta等が採用表明

エージェントAI戦略

Agent ToolkitをOSSで公開
AdobeSalesforce・SAP等17社が採用
NemoClawでローカルAIエージェント実行

ハード・ソフトの垂直統合

DGX Stationで1兆パラメータモデルをデスクトップ実行
Dynamo 1.0推論OS として主要クラウド採用

Nvidiaは2026年3月16日、サンノゼで開催した年次カンファレンスGTC 2026において、次世代AIコンピューティング基盤「Vera Rubin」プラットフォームを発表しました。CEOのジェンスン・フアン氏は基調講演で、BlackwellとRubinチップの受注見通しが1兆ドルに達すると宣言しています。

Vera RubinはVera CPURubin GPU、NVLink 6 Switch、ConnectX-9、BlueField-4 DPU、Spectrum-6、Groq 3 LPUの7チップで構成されます。旗艦モデルのNVL72ラックは72基のRubin GPUを搭載し、Blackwell比で推論スループットがワットあたり最大10倍、トークン単価は10分の1を実現するとしています。

Anthropicダリオ・アモデイCEO、OpenAIサム・アルトマンCEO、Metaらがプラットフォーム採用を表明しました。AWSGoogle Cloud、Microsoft Azure、Oracle Cloudの4大クラウドがすべて提供を予定しており、80社超の製造パートナーがシステムを構築します。Microsoftハイパースケールクラウドとして初めてVera Rubin NVL72を稼働させたと発表しました。

ソフトウェア面では、企業向けAIエージェント構築基盤「Agent Toolkit」をオープンソースで公開しました。AdobeSalesforce、SAP、ServiceNow、CrowdStrikeなど17社が採用を表明し、セキュリティランタイム「OpenShell」やコスト最適化のAI-Qを統合した包括的な開発環境を提供します。推論OS「Dynamo 1.0」も主要クラウドに採用されています。

ハードウェアでは、GB300チップ搭載のデスクトップ型スーパーコンピュータ「DGX Station」を発表しました。748GBの統合メモリと20ペタフロップスの演算能力で、1兆パラメータモデルをクラウド不要でローカル実行できます。NemoClawと組み合わせ、常時稼働型AIエージェントの個人運用を可能にします。

さらにNvidiaは、Mistral AIら8組織とNemotron Coalitionを結成し、オープンフロンティアモデルの共同開発を開始します。自動運転分野ではBYD・日産らがLevel 4対応車両を開発中で、Uberとは2028年までに28都市でロボタクシー展開を計画しています。製薬大手ロシュは3,500基超のBlackwell GPUを導入し、AI創薬を加速させます。

今回のGTC 2026は、NvidiaチップメーカーからAIプラットフォーム企業への転換を鮮明にした大会となりました。ハードウェア、ソフトウェア、モデル、エージェント基盤を垂直統合し、宇宙からデスクトップまであらゆるスケールのAIインフラを一社で提供する戦略は、競合であるAMDやGoogle TPUAmazon Trainiumとの差別化を図るものです。

Nvidia、推論特化チップGroq 3 LPUを発表

Groq 3の技術的特徴

SRAM内蔵で超低遅延実現
メモリ帯域150TB/sでGPUの7倍
線形データフローで処理を簡素化

推論時代の到来

Groqを200億ドルで買収し技術統合
AWSCerebras推論システム構築

推論分離アーキテクチャ

プリフィルとデコードの分離処理
Groq 3 LPXトレイでGPULPU統合

Nvidiaは米サンノゼで開催されたGTC 2026において、AI推論に特化した新チップGroq 3 LPUを発表しました。同社がスタートアップGroqから200億ドルで技術ライセンスを取得し、わずか2カ月半で製品化したものです。

Jensen Huang CEOは「AIがついに生産的な仕事をできるようになり、推論の転換点が到来した」と宣言しました。学習と推論では計算要件が根本的に異なり、推論では低遅延が最も重要とされています。思考型・推論型モデルでは出力前に何度も推論が実行されるためです。

Groq 3 LPUの核心技術は、プロセッサ内部にSRAMメモリを直接統合した設計にあります。従来のGPUチップ外のHBMにアクセスする必要があるのに対し、データがSRAMを直線的に通過するため、推論に必要な極めて低いレイテンシを実現します。メモリ帯域は150TB/sで、Rubin GPUの22TB/sの約7倍です。

推論特化チップ市場ではD-matrix、Etched、Cerebrasなど多数のスタートアップが独自アプローチを展開しています。AWSCerebrasの第3世代チップと自社Traniumを組み合わせた推論システムのデータセンター展開を発表しました。推論を「プリフィル」と「デコード」に分離する技術が注目されています。

Nvidia推論分離を活用する新コンピュートトレイGroq 3 LPXを発表しました。8基のGroq 3 LPUとVera Rubin GPUを搭載し、計算集約的な処理はGPUが、最終段階の高速デコードはLPUが担います。Huang氏は「すでに量産段階にある」と述べ、推論市場の急速な拡大を示しました。

NvidiaとGroqがリアルタイムAI推論競争、企業の勝敗を決める速度戦

リアルタイム推論の重要性

応答遅延が企業AIの競争力を左右
GroqLPUアーキテクチャが高速推論をリード
NvidiaのH200・Blackwellが追撃
ミリ秒単位の差がユーザー体験を決定

企業への実装示唆

遅延予算を明確に定義することが重要
ストリーミング応答で知覚遅延を低減可能
推論インフラの選択がコア競争力に
エッジ展開と中央集権型の使い分けが鍵

記事は古代ピラミッドの比喩を用いながら、AIリアルタイム推論の重要性と、NvidiaGroqがこの分野でどのように企業向け市場を争っているかを分析しています。

GroqLPU(Language Processing Unit)という専用アーキテクチャにより、汎用GPUよりも大幅に高速なテキスト生成を実現しています。1秒あたりのトークン生成数Nvidia GPUを凌駕するデモが注目を集めています。

NvidiaはH200やBlackwellシリーズで推論性能を向上させながら、CUDAエコシステムという強固な参入障壁を維持しています。エンタープライズ市場での信頼性・サポート体制Groqを圧倒しています。

企業が推論インフラを選ぶ際には、ピーク遅延、スループット、コスト、信頼性を明確に定義した上で選択することが重要です。遅延バジェットを設定し、それに基づいてアーキテクチャを選ぶアプローチを推奨しています。

長期的には、エッジデバイス上での軽量モデル実行と、クラウド上の高性能モデルを使い分けるハイブリッド推論が主流になると見られており、企業はその両方に対応できる柔軟な設計が求められます。

NvidiaがGroqのAI推論技術をライセンス取得、CEOも採用へ

NvidiaとGroqの提携の概要

NvidiaGroqと非独占的な推論技術ライセンス契約を締結
Groq創設者Jonathan RossとプレジデントSunny Madraを採用
CNBCは200億ドルの資産取得と報道(Nvidiaは「買収ではない」と否定)
GroqLPUGPUより10倍高速・10分の1の電力消費と主張
Jonathan Rossは元GoogleTPU開発に貢献した著名人物
Groqは200万以上の開発者向けAIアプリを提供中

業界への影響と背景

AIチップ市場でNvidiaGPUが業界標準として確立済み
GroqLPU技術でNvidia推論市場の支配をさらに強化
Groqは2025年9月に7.5億ドル調達・評価額69億ドルで急成長
前年の35万6千から200万超へと開発者数が急拡大
この提携Nvidia史上最大規模の取引になる可能性
推論特化型チップの戦略的重要性が改めて浮き彫りに

Nvidiaは競合AIチップスタートアップGroqと非独占的なライセンス契約を締結しました。これにより、Groqの言語処理ユニット(LPU)技術がNvidiaの製品ラインに組み込まれる可能性があります。チップ市場の競争構造に大きな変化をもたらす可能性があります。

GroqGPUとは異なるアーキテクチャを持つLPU(言語処理ユニット)を開発しており、LLMの推論処理においてGPUの10倍の速度と10分の1の電力消費を実現できると主張しています。この推論特化型設計Nvidiaに評価された形です。

Groq創設者のJonathan RossはGoogle在籍時にTPU(テンソル処理ユニット)の発明に貢献した人物です。このような優秀な人材の獲得は、技術ライセンスと並んでNvidiaにとって重要な戦略的価値を持ちます。

CNBCはNvidiaGroqの資産を約200億ドルで取得すると報じましたが、NvidiaはTechCrunchに対して「これは会社の買収ではない」と説明しました。取引の正確な規模と性質については依然として不明確な部分が残っています。

Groqは2025年9月時点で評価額69億ドルで7億5000万ドルを調達したばかりでした。同社のAPIを利用する開発者数は前年の35万6000人から200万人超へと急速に拡大しており、推論市場での存在感を急速に高めていました。

AI推論需要の増大に伴い、効率的な推論インフラへの需要が高まっています。NvidiaGroqの技術を取り込むことで、学習から推論までのAIインフラ全体をカバーする体制を強化することになります。

Nvidia追撃のGroqが7.5億ドル調達 AI推論特化LPUで69億ドル評価へ

資金調達と企業価値

新規調達額は7.5億ドルを達成
ポストマネー評価額69億ドルに到達
1年間で評価額2.8倍に急伸
累計調達額は30億ドル超と推定

技術的優位性

NvidiaGPUに挑む独自チップLPUを採用
AIモデル実行(推論)特化の高性能エンジン
迅速性、効率性、低コストを実現
開発者200万人超が利用、市場浸透が加速

AIチップベンチャーのGroqは先日、7億5000万ドルの新規資金調達を完了し、ポストマネー評価額69億ドル(約1兆円)に到達したと発表しました。これは当初予想されていた額を上回る結果です。同社は、AIチップ市場を支配するNvidiaGPUに対抗する存在として、推論特化の高性能なLPU(言語処理ユニット)を提供しており、投資家の高い関心を集めています。

Groqの核となるのは、従来のGPUとは異なる独自アーキテクチャのLPUです。これは、AIモデルを実際に実行する「推論(Inference)」に特化して最適化されており、推論エンジンと呼ばれます。この設計により、Groqは競合製品と比較して、AIパフォーマンスを維持または向上させつつ、大幅な低コストと高効率を実現しています。

Groqの技術は開発者や企業向けに急速に浸透しています。利用する開発者の数は、わずか1年で35万6000人から200万人以上へと急増しました。製品はクラウドサービスとして利用できるほか、オンプレミスのハードウェアクラスターとしても提供され、企業の多様なニーズに対応できる柔軟性も強みです。

今回の調達額は7.5億ドルですが、注目すべきはその評価額の伸びです。Groq評価額は、2024年8月の前回の資金調達時(28億ドル)からわずか約1年で2.8倍以上に膨らみました。累計調達額は30億ドルを超えると推定されており、AIインフラ市場における同社の将来性に、DisruptiveやBlackRockなどの大手が確信を示しています。

創業者のジョナサン・ロス氏は、GoogleTensor Processing Unit(TPU)の開発に携わっていた経歴を持ちます。TPUGoogle CloudのAIサービスを支える専門プロセッサであり、ロス氏のディープラーニング向けチップ設計における豊富な経験が、Groq独自のLPU開発の基盤となっています。