OpenAI、GPT-5.4 miniとnanoを公開

性能と価格

GPT-5 mini比2倍以上高速
SWE-Bench Proで54.4%達成
nano入力100万トークン0.20ドル
mini入力100万トークン0.75ドル

主な用途

コーディング補助の高速化
サブエージェント並列処理
スクリーンショット解析対応
Codexでコスト3分の1

OpenAIは2026年4月2日、小型高性能モデルGPT-5.4 miniGPT-5.4 nanoをAPI・CodexChatGPTで公開しました。大量処理ワークロード向けに設計された両モデルは、速度とコスト効率を重視しています。

GPT-5.4 miniは前世代のGPT-5 miniと比較して、コーディング推論・マルチモーダル理解・ツール使用の全領域で大幅に改善されています。処理速度は2倍以上に向上し、複数のベンチマークで上位モデルGPT-5.4に迫る性能を示しています。

ベンチマークではSWE-Bench Proで54.4%、OSWorld-Verifiedで72.1%を達成しました。特にOSWorldではGPT-5.4の75.0%にほぼ匹敵し、コンピュータ操作タスクでの実用性が際立っています。

料金体系はGPT-5.4 miniが入力100万トークンあたり0.75ドル、出力4.50ドルです。nanoはさらに安価で入力0.20ドル、出力1.25ドルに設定されています。両モデルとも40万トークンコンテキストウィンドウに対応します。

開発者にとって注目すべきはサブエージェント構成への最適化です。GPT-5.4が計画・判断を担い、miniやnanoが並列で個別タスクを高速処理する構成が推奨されており、Codexではmini利用時のクォータ消費が30%で済むため、コスト効率の高い開発体験を実現します。

Mamba 3がTransformerを約4%上回る新アーキテクチャとして公開

技術的な3つの革新

状態サイズ半減で同等精度を実現
複素数値SSMで推論能力向上
MIMO方式でGPU稼働率を最大化
Apache 2.0で商用利用可能

企業への影響

推論スループットが実質2倍
ハイブリッド構成が主流へ
量子化やICLに課題も残存

カーネギーメロン大学のAlbert Gu氏とプリンストン大学のTri Dao氏らの研究チームが、新たなAIアーキテクチャ「Mamba 3」をApache 2.0ライセンスのオープンソースとして公開しました。Transformer対比で約4%の言語モデリング性能向上を達成しています。

Mamba 3は状態空間モデル(SSM)の最新版で、従来のTransformerが抱える二次計算量と線形メモリ要求の課題を解決します。前世代のMamba 2が学習速度の最適化に注力したのに対し、Mamba 3は「推論ファースト」の設計哲学を採用し、GPUの遊休時間を最小化する構造となっています。

技術面では3つの革新が柱です。第一に指数台形離散化により2次精度の近似を実現。第二に複素数値SSMと「RoPEトリック」で、従来不可能だったパリティ判定などの論理推論タスクを解決。第三にMIMO方式により演算強度を最大4倍に引き上げ、メモリ律速の推論フェーズでもGPUの計算コアをフル活用します。

企業にとっての最大の利点は総保有コストの削減です。15億パラメータ規模でベンチマーク平均精度57.6%を達成し、Transformerを2.2ポイント上回りました。状態サイズを半減しながら同等の予測品質を維持するため、同一ハードウェア推論スループットが実質2倍になります。リアルタイムエージェントや長文コンテキスト処理に特に有効です。

ただし課題も残ります。Transformerエコシステムの成熟度には及ばず、量子化では標準的な4ビット手法で精度が大幅低下する問題があります。またインコンテキスト学習ではAttention機構に劣る面もあり、業界はNvidiaのNemotron-3のようなMambaとAttentionを組み合わせたハイブリッドアーキテクチャへ収束しつつあります。

Nvidia、LLMメモリを20分の1に圧縮する新技術KVTCを発表

KVTCの技術概要

JPEG由来の変換符号化を応用
PCAでKVキャッシュの冗長性を除去
動的計画法で次元別にビット配分を最適化
GPUでエントロピー符号化を並列実行

性能と導入効果

20倍圧縮で精度低下1%未満
最初のトークン生成を最大8倍高速化
モデル重み変更不要で既存環境に導入可能

適用と今後の展望

長文脈・マルチターン用途に最適
vLLM互換のDynamoフレームワークに統合予定

Nvidiaの研究チームは、大規模言語モデルの会話履歴管理に必要なメモリを最大20分の1に圧縮する新技術「KVTC(KV Cache Transform Coding)」を発表しました。モデルの重みを一切変更せずに適用でき、最初のトークン生成までの遅延も最大8倍短縮されます。

LLMがマルチターン会話を処理する際、過去のトークンの数値表現を保持するKVキャッシュが不可欠ですが、長文脈タスクでは数ギガバイトに膨張します。これがGPUメモリを圧迫し、同時ユーザー数やレイテンシの深刻なボトルネックとなっていました。

KVTCはJPEGなどのメディア圧縮で実績のある変換符号化の手法をAIに応用しています。まず主成分分析(PCA)でKVキャッシュの特徴量を重要度順に整列し、動的計画法で各次元に最適なビット数を割り当てた後、NvidianvCOMPライブラリを用いてGPU上で高速にエントロピー符号化を実行します。

Llama 3やQwen 2.5など1.5Bから70Bパラメータの多様なモデルで検証した結果、20倍圧縮時でも精度低下は1ポイント未満にとどまりました。一方、既存手法のKIVIやGEARは5倍圧縮で大幅な精度劣化が発生し、KVTCの優位性が明確に示されています。

NvidiaAdrian Lancucki氏は、コーディングアシスタントエージェント推論ワークフロー、反復的RAGが理想的な適用先と述べています。今後KVTCはDynamoフレームワークのKV Block Managerに統合され、vLLMなど主要な推論エンジンとの互換性が確保される予定です。

米司法省、Anthropicは軍事システムに不適格と主張

法廷での攻防

司法省が修正第1条侵害を否定
Anthropic差止請求棄却を要求
来週火曜に仮処分審理予定

国防総省の対応

サプライチェーンリスク指定を維持
GoogleOpenAIxAI代替推進
Claudeは現在機密システム唯一のAI
数カ月内に移行完了目指す

米司法省は2026年3月17日の裁判所提出書類で、Anthropicに対するサプライチェーンリスク指定は合憲であり、同社の修正第1条の権利を侵害していないと主張しました。サンフランシスコ連邦裁判所での審理は来週火曜日に予定されています。

司法省の弁護士は、Anthropicが契約条件を政府に一方的に課す権利はないと述べ、同社の営業損失の懸念は「法的に不十分」であるとして仮処分の却下を求めました。この指定が維持されれば、Anthropicは今年数十億ドル規模の収益を失う可能性があります。

政府側は、Anthropic国家安全保障システムへのアクセスを保持した場合、「技術の無効化や、戦闘作戦中にモデルの動作を意図的に変更する」リスクがあると指摘しました。ヘグセス国防長官は、同社が企業独自のレッドラインを理由にAIシステムを妨害する可能性を懸念しています。

国防総省AnthropicのAI技術をGoogleOpenAIxAIの製品で置き換える作業を進めています。現在Claudeは同省の機密システムで使用が承認された唯一のAIモデルであり、主にPalantirのデータ分析ソフトウェアを通じて軍事利用されています。

一方、MicrosoftやAI研究者、元軍幹部、連邦職員労組など多数の企業・団体がAnthropicを支持する意見書を提出しており、政府側を支持する意見書は一件も出ていません。Anthropicは金曜日までに反論書面を提出する予定です。

Nvidia、エージェントAI基盤NemoClawをGTCで発表

NemoClawの全体像

OpenClawの企業向けラッパー
Nemotronモデルをローカル実行
OpenShellでサンドボックス隔離
YAML定義のポリシー制御を提供
プライバシールーターで機密データ保護

セキュリティ5層構造

CrowdStrikeが4層で実行時制御
Palo AltoがDPUハード層で検査
JFrogがサプライチェーン署名検証

残る課題と導入指針

エージェント信頼委譲が未解決
メモリ汚染攻撃への対策不足
5ベンダー運用の統合コストが課題

Nvidiaは2026年3月のGTC 2026で、自律型AIエージェント基盤「NemoClaw」を発表しました。CEOのジェンスン・ファン氏は「OpenClawはパーソナルAIのOSだ」と宣言し、エージェントAI時代の本格到来を強調しています。

NemoClawはOpenClawの企業向けラッパーとして設計され、ローカル実行可能なNemotronモデルと、エージェントをサンドボックス内で隔離するOpenShellセキュリティランタイムの2層構成です。管理者はYAMLでファイルアクセスやネットワーク接続のポリシーを定義でき、機密データの外部流出を防ぐプライバシールーターも備えています。

BoxやCiscoなど主要パートナーとの統合も発表されました。Boxではファイル権限をそのままエージェントに適用し、Ciscoではゼロデイ脆弱性発生時に自律的に影響範囲を特定し修復計画を生成するユースケースが示されています。すべての操作は監査証跡として記録されます。

セキュリティ面では、CrowdStrike・Palo Alto Networks・JFrog・Cisco・WWTの5社が同時にGTCで対応を発表し、主要AIプラットフォームとして初めてセキュリティローンチ時に同梱される形となりました。5層ガバナンスフレームワークが提示され、各層で異なるベンダーが補完し合う構造です。

一方で、エージェント間の信頼委譲ポリシー、永続メモリへの汚染攻撃対策、レジストリからランタイムまでの暗号的連続性という3つの重大なギャップが残されています。96%の精度でも5倍速で動作するエージェントは、エラーも5倍速で到達するため、既存のSOC体制では対応が追いつかない恐れがあります。

企業のCISOに対しては、本番環境の全自律エージェントを5層ガバナンスで監査し、未回答の質問が3つ以上あれば「統制なきエージェント」が稼働中と認識すべきと提言されています。導入はJFrogのサプライチェーン層から段階的に進め、5社同時運用は統合プロジェクトとして予算化する必要があります。

Google、Gemini APIのツール連携を大幅強化

ツール連携の新機能

組み込みツールとカスタム関数の同時利用
コンテキスト循環でツール間の情報共有
ツール応答に一意ID付与で追跡性向上
並列関数呼び出し時のデバッグ改善

Maps対応とAPI刷新

Gemini 3Google Mapsグラウンディング対応
位置情報・店舗・通勤時間の空間データ活用
Interactions APIでサーバー側状態管理推奨

Googleは、Gemini APIにおけるエージェント向けツール機能を大幅にアップデートしました。組み込みツールとカスタム関数の同時利用、ツール間のコンテキスト循環Gemini 3へのMapsグラウンディング拡張が主な内容です。

これまで開発者は、Google検索などの組み込みツールとカスタム関数を別々にオーケストレーションする必要がありました。今回の更新により、同一リクエスト内で両方を渡せるようになり、エンドツーエンドのレイテンシ削減エージェント設計の簡素化が実現します。

マルチステップワークフローでは、あるツールの出力を別のツールの入力として使う場面が頻出します。新たなコンテキスト循環機能により、組み込みツールの呼び出しと応答がモデルのコンテキストに保持され、後続ステップでのデータ参照と推論が可能になります。

デバッグ性の向上も図られています。すべてのツール呼び出しに一意の識別子(id)が付与されるようになり、非同期実行や並列関数呼び出し時にモデルのリクエストとクライアント応答を正確に対応付けられます。

さらにGemini 3ファミリーでGoogle Mapsグラウンディングが利用可能になり、最新の空間データや地域のビジネス情報、通勤時間などをエージェントに組み込めます。Googleは、これらの機能を活用する際に新しいInteractions APIの使用を推奨しています。

Mistral AI、独自モデル構築基盤「Forge」を発表

Forgeの主要機能

フルサイクルのモデル訓練を支援
事前学習から強化学習まで対応
オンプレミス環境での完全運用が可能
データ非公開のまま独自モデル構築

競合との差別化戦略

組込み型AIサイエンティストを派遣
クラウド大手のAPI微調整を超える深度
Apache 2.0のオープンソース基盤
Nvidia連合で基盤モデル共同開発

Mistral AIは2026年3月17日、企業が自社の独自データを使ってAIモデルを構築・カスタマイズできるエンタープライズ向けモデル訓練基盤「Forge」を発表しました。NvidiaのGTCカンファレンスで披露され、クラウド大手への対抗姿勢を鮮明にしています。

Forgeは従来のファインチューニングAPIを大幅に超え、大規模内部データでの事前学習教師ありファインチューニング、DPO、ODPOによるポストトレーニング、さらに社内ポリシーや評価基準に沿った強化学習パイプラインまでフルサイクルで対応します。製品責任者のサラマンカ氏は「AIサイエンティストはもはやファインチューニングAPIを使っていない」と述べています。

早期導入企業の事例では、Ericssonがレガシーコードの現代化に活用し、年単位の手作業を大幅に短縮しました。また古文書の欠損テキスト復元や、ヘッジファンドの独自定量言語への対応など、汎用モデルでは解決できない高度な専門領域での成果が報告されています。

ビジネスモデルは顧客が自社GPU上で訓練する場合、ライセンス料とデータパイプラインサービス料を課金し、計算資源は非課金とします。最大の特徴は「フォワードデプロイド・サイエンティスト」と呼ばれる組込み型AI研究者の派遣で、Palantir型の伴走支援モデルを採用しています。

同週にはMistral Small 4、オープンソースコードエージェントLeanstralNvidiaとのNemotron Coalition参画も発表されました。ARRは2026年中に10億ドル突破を見込んでおり、ASMLや欧州宇宙機関など機密性の高い組織との提携を通じ、「AIを借りるのではなく所有する」という戦略を加速させています。

Google、Personal Intelligence機能を米国の全ユーザーに無料開放

機能拡大の概要

無料ユーザーにも開放
AI Mode・Geminiアプリ・Chrome対応
GmailGoogle Photos等と連携
個人アカウント限定で提供

活用例と制御

購入履歴から買い物提案
旅行写真から個別旅程を自動作成
デフォルトはオフ設定
アプリ接続はいつでも解除可能

Googleは2026年3月17日、AIアシスタント機能「Personal Intelligence」を米国の全ユーザーに無料開放すると発表しました。これまで有料プラン限定だった同機能が、AI Mode in Search、Geminiアプリ、Gemini in Chromeで利用可能になります。

Personal Intelligenceは、GmailGoogle Photos、YouTubeなどのGoogleアプリを連携させ、ユーザーの文脈に合った回答を自動で生成する機能です。従来のAIチャットボットと異なり、ユーザーが詳細な情報を入力しなくても、過去の購入履歴や写真から最適な提案を行います。

具体的な活用例として、新しい靴に合うバッグの提案では購入履歴や好みのブランドを考慮した推薦が行われます。旅行計画では、Gmailのホテル予約情報とGoogle Photosの旅行写真から、家族全員が楽しめるオーダーメイドの旅程を作成します。

プライバシー面では、オプトイン方式を採用しており、デフォルトでは無効に設定されています。Googleは、GmailGoogle Photosのデータを直接AIの学習に使用せず、Geminiでのプロンプトとモデルの応答など限定的な情報のみを機能改善に活用すると説明しています。

なお、現時点では個人用Googleアカウントのみが対象で、Workspaceのビジネス・企業・教育アカウントでは利用できません。企業での活用を検討する場合は、今後の対応拡大を待つ必要があります。

World、AIエージェントに人間証明を付与する新ツール公開

AgentKitの仕組み

虹彩スキャン基盤のWorld IDを活用
AIエージェント人間認証を紐付け
x402決済プロトコルと統合
Coinbase・Cloudflareと連携開発

解決する課題

Sybil攻撃型ボット乱用の防止
エージェント商取引の不正対策
予約・購入・投票での本人確認
サイト側が信頼判断を自律的に実施

Sam Altmanが共同創業したWorld(旧WorldCoin)は2026年3月、AIエージェントが実在の人間の代理であることを証明する開発ツールAgentKit」のベータ版を公開しました。虹彩スキャン端末Orbで取得したWorld IDをエージェントに紐付け、ウェブサイト側が信頼性を検証できる仕組みです。

近年、AIエージェントがウェブを自動巡回して商品購入や予約を代行する「エージェント商取引」が急拡大しています。一方で、一人のユーザーが数千のボットを同時稼働させるSybil攻撃型の乱用や、自動化による詐欺・スパムのリスクが深刻化しており、本人確認の仕組みが求められていました。

AgentKitは、CoinbaseとCloudflareが開発したブロックチェーン決済プロトコル「x402」と統合されています。ユーザーはWorld IDにAIエージェントを登録するだけで、エージェントのアクセス先サイトに対して固有の人間が操作を承認していることをx402経由で証明できます。

Tools for Humanity社の最高プロダクト責任者Tiago Sada氏は、この機能を「エージェントへの委任状付与」に例えました。サイト側はWorld IDバッジにより相手が実在の一意な人間であると確認でき、不正と判断したユーザーは個別にブロックすることも可能です。

AmazonMastercardGoogleなど大手がエージェント商取引機能を相次ぎ導入するなか、Worldは人間証明のデファクト標準を目指しています。現在約1,800万人がOrb経由でWorld IDを取得済みで、AgentKitはベータ版として開発者向けに提供が開始されています。

Google DeepMind、AGI到達度を測る認知科学フレームワークを発表

認知能力の体系化

10種の認知能力を定義
知覚・生成・注意など網羅的分類
心理学・神経科学の数十年の知見基盤
人間基準との3段階評価手順を提案

Kaggleハッカソン

賞金総額20万ドルの設計コンペ
学習・メタ認知など5領域が対象
4月16日締切、6月1日結果発表

Google DeepMindは2026年3月17日、AGI(汎用人工知能)への進捗を科学的に測定するための認知フレームワークを提案する論文を公開しました。同時にKaggleと提携し、評価手法を設計するハッカソンを開始しています。

このフレームワークは心理学・神経科学・認知科学の研究成果をもとに、知覚・生成・注意・学習・記憶・推論・メタ認知・実行機能・問題解決・社会的認知の10種類の認知能力を汎用知能の構成要素として定義しています。

評価は3段階のプロトコルで行います。まずAIを広範な認知タスクでテストし、次に人口統計的に代表的な成人サンプルで人間ベースラインを収集、最後にAIの性能を人間の分布に対してマッピングします。

Kaggleハッカソンでは、評価ギャップが最も大きい学習・メタ認知・注意・実行機能・社会的認知の5領域を対象に評価手法の設計を募集しています。賞金総額は20万ドルで、各トラック上位2件に1万ドル、全体ベスト4件に2万5千ドルが授与されます。

AGIの実現可能性が議論される中、経験的な評価基準の欠如が課題でした。本フレームワークはAIの能力を人間の認知と体系的に比較する科学的基盤を提供し、業界全体の進捗測定の標準化に貢献することが期待されます。

AIエージェントのID管理、標準未整備のまま企業導入が加速

認証と認可の課題

エージェント専用ID基盤が未整備
開発者プロンプト認証情報を直貼り
SPIFFE/SPIREの適用は不完全な適合
最小権限をタスク単位で適用すべき

標準化の行方

OIDC拡張が標準候補の最有力
独自ソリューション50社は勝者なしと予測
誤検知がコード生成セッションを破壊
10億ユーザー規模でエッジケースが実害に

企業が取るべき対策

時間制限付きスコープ認可の導入
摩擦の少ないシークレット管理の設計

1PasswordのNancy Wang CTOとCorridorのAlex Stamos CPOが、AIエージェントID管理における課題を議論しました。エージェントCRMログインやDB参照、メール送信を行う際、誰の権限で動作しているかが不明確な状況が企業で広がっています。

最大の問題の一つは、開発者APIキーやパスワードプロンプトに直接貼り付ける行為です。Corridorはこの行為を検知して開発者を適切なシークレット管理へ誘導しており、1Passwordはコード出力側で平文の認証情報をスキャンして自動的にボールトに格納する仕組みを構築しています。

コンテナ環境向けに開発されたSPIFFE/SPIREエージェント文脈に適用する試みが進んでいますが、Wang氏は「四角い杭を丸い穴に無理やり押し込んでいる」と認めています。認証だけでなく、エージェントタスク単位の時間制限付き権限を付与する認可の仕組みが不可欠です。

Stamos氏は標準化の方向性としてOIDC拡張が最有力と指摘し、独自ソリューションを展開する約50社のスタートアップについて「どれも勝者にはならない」と断言しました。また、セキュリティスキャナーの誤検知がLLMのコード生成能力を根本的に損なうリスクも警告しています。

Facebook時代に1日約70万件のアカウント乗っ取りに対処した経験を持つStamos氏は、10億ユーザー規模では「コーナーケースが実際の人的被害を意味する」と強調しました。エージェントのID基盤は人間向けの仕組みを流用するのではなく、ゼロから設計する必要があると結論づけています。

NVIDIA、GTC 2026でローカルAI向け新モデルと開発基盤を発表

新オープンモデル群

Nemotron 3 Super、1200億パラメータ
Mistral Small 4がDGX Sparkに対応
Nemotron 3 Nano 4B、軽量PC向け
Qwen 3.5最適化も同時発表

エージェント基盤整備

NemoClawOpenClaw向けOSS公開
ローカル推論プライバシー確保
Unsloth Studioファインチューニング簡易化

クリエイティブAI強化

LTX 2.3が2.1倍高速化
FLUX.2 Klein 9Bの画像編集2倍速

NVIDIAは2026年3月のGTC 2026において、ローカル環境で動作するAIエージェント向けの新しいオープンモデル群と開発基盤を発表しました。DGX SparkやRTX PCでクラウド級の性能を実現することを目指しています。

Nemotron 3 Superは1200億パラメータのオープンモデルで、アクティブパラメータは120億に抑えられています。エージェントAI向けベンチマークPinchBenchで85.6%を記録し、同クラスのオープンモデルで最高スコアを達成しました。

小型モデルとしてはNemotron 3 Nano 4Bが発表され、GeForce RTX搭載PCでもエージェントアシスタントの構築が可能になります。AlibabaのQwen 3.5シリーズ向けの最適化も同時に提供され、26万2000トークンの大規模コンテキストウィンドウに対応します。

エージェント実行基盤としてNemoClawがオープンソースで公開されました。OpenClaw向けの最適化スタックで、ローカルモデルによる推論でトークンコストを削減し、OpenShellランタイムによるセキュアな実行環境を提供します。

ファインチューニングの分野では、Unsloth StudioがウェブベースのUIで公開され、500以上のAIモデルに対応します。従来は高度な技術知識が必要だったカスタマイズ作業を、ドラッグ&ドロップの直感的な操作で完結できるようになりました。

クリエイティブAI分野では、LightricksのLTX 2.3がNVFP4・FP8対応で2.1倍の高速化を実現し、Black Forest LabsのFLUX.2 Klein 9B画像編集が最大2倍に高速化されました。RTX GPU向けに最適化されたモデルが続々と登場しています。

LangChain、社内コーディングエージェント基盤Open SWEを公開

主要企業の共通設計

Stripe・Ramp・Coinbaseが独自開発
隔離サンドボックスで安全に実行
Slack起点の既存ワークフロー統合
厳選ツールセットの品質重視運用

Open SWEの構成要素

Deep Agents基盤で拡張容易
サンドボックスはプラグイン式
サブエージェントによるタスク分割
ミドルウェアで確実なPR作成

LangChainは、企業が社内向けコーディングエージェントを構築するためのオープンソースフレームワーク「Open SWE」を公開しました。Deep AgentsとLangGraph上に構築され、Stripe・Ramp・Coinbaseなど大手企業が独自開発した社内エージェントの共通設計パターンを再現しています。

Open SWEの中核は隔離されたクラウドサンドボックスです。各タスクは専用のLinux環境で実行され、リポジトリのクローンとフル権限が与えられる一方、エラーの影響範囲はその環境内に封じ込められます。Modal、Daytona、Runloopなど複数のサンドボックスプロバイダーに対応しています。

ツールセットは約15種に厳選されており、シェル実行・Webフェッチ・GitHub PR作成・Linear連携・Slack返信などを備えます。Stripeが約500ツールを運用する中でも「量より品質管理が重要」と指摘しており、Open SWEもこの方針を踏襲しています。

サブエージェントとミドルウェアの二層構造が特徴です。複雑なタスクは専門の子エージェントに分割委譲され、ミドルウェアはPR自動作成やフォローアップメッセージの注入など確実に実行すべき処理を担います。これにより柔軟性と信頼性を両立させています。

呼び出しはSlack・Linear・GitHubの3チャネルに対応し、開発者は既存のワークフロー内でエージェントを起動できます。MITライセンスで公開されており、サンドボックス・モデル・ツール・システムプロンプトなど主要コンポーネントはすべてカスタマイズ可能な設計です。

Sears AIチャットボットの顧客データ370万件がWeb上に露出

大規模データ露出の実態

チャットログ370万件が公開状態
音声ファイル・文字起こし140万件も流出
氏名・電話番号・住所など個人情報を含む
2024年から今年までの顧客対話記録が対象

通話録音と信頼性の問題

終話後も最大4時間の環境音を録音
顧客がAI対応に不満、人間対応を繰り返し要求
フィッシング詐欺への悪用リスク専門家が警告

セキュリティ研究者のJeremiah Fowler氏は2025年2月、米Sears Home ServicesのAIチャットボット「Samantha」に関する3つのデータベースがパスワード保護なくWeb上に公開されていることを発見しました。データベースには顧客の個人情報を含む大量の対話記録が格納されていました。

露出したデータベースには370万件のチャットログと140万件の音声ファイル・文字起こしが含まれていました。顧客の氏名、電話番号、自宅住所、所有家電、配送・修理の予約情報など詳細な個人情報が記録されており、英語とスペイン語の両方の対話が含まれていました。

特に深刻だったのは、顧客が通話終了と思った後も最大4時間にわたり録音が継続していた事例です。テレビの音声や私的な会話など、本来記録されるべきでない生活音が大量に収録されていました。Fowler氏は「すべて実在する人々の実際のデータだ」と警鐘を鳴らしています。

Fowler氏の報告を受け、Searsの親会社Transformcoはデータベースを速やかに保護しましたが、露出期間や第三者によるアクセスの有無は不明です。専門家はこうした情報がフィッシング詐欺や保証詐欺に悪用される危険性を指摘しており、家電の所有状況など生活に密着した情報が標的型攻撃を容易にすると警告しています。

オックスフォード大学のCarissa Véliz准教授は、企業がAIを顧客対応に導入する際には人間との会話を選択できる権利や録音拒否の権利を保障すべきだと主張しています。生成AI導入が加速する中、プライバシー保護と顧客の信頼確保が企業の重要課題となっています。

LangChainがエージェント向け安全なコード実行環境を公開

Sandboxesの概要

LangSmith SDKから1行で起動
microVMによるカーネル級隔離
Docker独自イメージの持ち込み対応
プール事前確保でコールドスタート回避

主要機能と安全設計

認証プロキシで秘密情報を隔離
長時間セッションとWebSocket配信
複数エージェント共有アクセス対応
Python・JavaScript両SDK対応

LangChainは、AIエージェントが安全にコードを実行できるサンドボックス環境「LangSmith Sandboxes」をプライベートプレビューとして公開しました。エージェントによる任意コード実行のリスクを軽減する目的で開発されています。

従来のコンテナは既知のアプリケーションコード向けに設計されており、エージェントが生成する予測不能なコードの実行には適していませんでした。LangSmith Sandboxesは各サンドボックスをハードウェア仮想化されたmicroVMで隔離し、Linuxの名前空間だけに頼らないカーネルレベルの保護を提供します。

セキュリティ面では認証プロキシを介して外部サービスに接続する仕組みを採用し、認証情報がサンドボックス内に一切残らない設計です。CPU・メモリ・ディスクのリソース制限も組み込まれており、エージェントの暴走を防止します。

実行機能としては、長時間タスクのタイムアウトなし動作、WebSocketによるリアルタイム出力ストリーミング、複数スレッドにまたがる永続的な状態保持に対応します。また、ウォームプールの事前確保とオートスケーリングにより、需要増加時にも待ち時間を最小化します。

今後は共有ボリュームによるエージェント間の状態共有、実行可能バイナリの制御、仮想マシン内の全プロセス・ネットワーク呼び出しの完全トレーシング機能を開発予定です。同社のOpen SWEプロジェクトでも内部利用されており、コーディングエージェント構築の基盤として位置づけられています。

NvidiaのDLSS 5、生成AIによる映像加工にゲーマーが猛反発

DLSS 5の技術概要

生成AIで照明・質感を再構築
ゲーム内部データでシーン意味解析
RTX 5090×2基でデモ動作
2026年秋にオプション機能として提供

業界の反応と懸念

キャラの顔がAI生成風に均質化
インディー開発者ミームで批判殺到
大手開発者支持表明も温度差
アーティストの創作意図の毀損を懸念

Nvidiaは2026年3月17日、次世代アップスケーリング技術「DLSS 5」を発表しました。従来のフレーム補間を超え、生成AIによるリアルタイム照明・質感の再構築を行う「ニューラルレンダリングモデル」として、秋の正式提供を予定しています。

DLSS 5はゲームの内部カラーデータやモーションベクターを活用し、キャラクターの髪や肌、布の質感、環境光などのシーン意味解析を行います。CEOのジェンスン・フアン氏は「生成AIと手作りレンダリングの融合」と表現し、ハリウッドVFX級のフォトリアル表現をリアルタイムで実現すると述べました。

しかしゲーマーや業界関係者の反応は圧倒的に否定的でした。デモ映像では『バイオハザード』の主人公グレースや『ホグワーツ・レガシー』のキャラクターの顔がAI生成風の均質的な外見に変化し、実在のサッカー選手ファン・ダイクの顔すら別人のように歪められていました。

Bethesdaのトッド・ハワード氏やCapcomの竹内潤氏など大手開発者が支持を表明する一方、多数のインディー開発者がミームや公開声明で強く批判しています。GDC調査でも開発者の多くがゲームへの生成AI導入に反対しており、業界内の温度差が鮮明になりました。

この技術はテレビのモーションスムージングに例えられ、「さらに悪い版」と評されています。AI特有の不自然に滑らかな肌、均一な顔立ち、HDR風の照明がすべてのキャラクターに適用され、アーティストが丹念に作り上げた固有の表現が失われる懸念が広がっています。

H Company、高スループット型PC操作AIモデルHolotron-12Bを公開

推論性能の飛躍

SSMハイブリッド構造を採用
H100単体で8.9kトークン/秒達成
Holo2-8B比で2倍超のスループット
KVキャッシュ不要でメモリ効率向上

エージェント性能

WebVoyagerスコア35.1%→80.5%に向上
UI操作・画面理解の精度大幅改善
NVIDIA Nemotronベースを微調整
次世代Nemotron 3 Omniも予告

H Companyは2026年3月17日、NVIDIAのNemotron-Nano-2 VLモデルをベースにしたマルチモーダルコンピュータ操作エージェントモデル「Holotron-12B」Hugging Faceで公開しました。本モデルは画面認識・操作に特化し、量産環境での高スループット推論を目指して開発されたものです。

Holotron-12Bの推論効率を支えるのは、状態空間モデル(SSM)とアテンション機構のハイブリッドアーキテクチャです。従来のTransformerが抱える二次計算コストを回避し、長いコンテキストや複数画像を含むエージェント的ワークロードで優れたスケーラビリティを実現しています。

ベンチマーク評価では、WebVoyagerスコアがベースモデルの35.1%から80.5%へと大幅に向上しました。H100 GPU1枚でvLLMを使用した実験では、同時接続100の条件下で8.9kトークン/秒のスループットを記録し、前モデルHolo2-8Bの5.1kトークン/秒を大きく上回りました。

学習は2段階で実施されました。NVIDIANemotron-Nano-12B-v2-VLを起点に、H Company独自の画面理解・ナビゲーションデータで教師あり微調整を行い、約140億トークンで最終チェックポイントを構築しています。ライセンスはNVIDIA Open Model Licenseで公開されています。

今後の展開として、NVIDIAが同日発表したNemotron 3 Omniをベースとした次世代モデルの開発も予告されました。SSM-AttentionとMoEアーキテクチャを活用し、企業向けの大規模自律型コンピュータ操作への展開を目指すとしています。

AIコーディング熱狂、YC代表Garry Tanの設定公開が賛否両論

バイブコーディングの波

Claude Codeで開発様式が激変
コード記述からエージェント管理へ移行
ベテラン開発者にも感情的葛藤
Paul Ford氏が興奮と不安を語る

gstack公開と反響

Tan氏がClaude Code設定をOSS公開
GitHub星2万・フォーク2200の反響
「ただのプロンプト集」と批判も
AI組織構造の模倣が鍵との評価

Y CombinatorのCEO、Garry Tan氏が2026年3月にClaude Codeの個人設定「gstack」をGitHubでオープンソース公開しました。13種類のスキルファイルで構成され、AIにCEO・エンジニア・コードレビュアーなど複数の役割を与えて開発を進める手法です。

gstackの公開直後からX上で大きな反響を呼び、GitHubで約2万スターを獲得しました。Product Huntでもトレンド入りし、多くの開発者がフォークして自分用にカスタマイズしています。Tan氏自身も「サイバー精神病」と冗談を飛ばすほどAIコーディングに没頭していると語っています。

一方で批判も相次ぎました。「ただのプロンプトにすぎない」「YCのCEOでなければ注目されなかった」との指摘が複数の起業家やブロガーから寄せられました。開発者の多くがすでに同様の設定を持っているという声もあります。

ChatGPTGeminiを含む複数のAIモデルに評価を求めたところ、いずれも肯定的な見解を示しました。「AIコーディングエンジニア組織構造を模倣する時に最も効果を発揮する」とChatGPTが分析し、Geminiは「プロ向け構成」と評価しています。

The Vergecastではライター兼起業家Paul Ford氏がバイブコーディングの体験を語り、かつてない量のプロジェクトを構築できる興奮と、ソフトウェア開発の意味が変わることへの不安が共存すると述べました。コードを書く行為からエージェントを管理する仕事へと、開発者の役割が根本的に変わりつつあります。

Microsoft、Copilot統括責任者を刷新し組織再編

Copilot体制の統合

消費者・法人向けを一本化
Andreouが全体統括に就任
ナデラCEO直属の報告体制
4つの柱で統合システム構築

AI部門の役割変更

Suleymanは自社モデル開発に専念
Edge・Bingの管轄が宙に浮く
幹部退任が相次ぎ再編加速
新会計年度に向け追加変更も

Microsoftは2026年3月17日、AIアシスタントCopilot」の開発体制を大幅に再編し、消費者向けと法人向けを統合する新たなリーダーシップ体制を発表しました。これまで別々のチームが担当していた両部門を一本化し、より一貫性のある製品体験を目指します。

新たにCopilot全体の統括責任者に就任したJacob Andreou氏は、サティア・ナデラCEOに直接報告する体制となります。同氏はSnap出身で、Microsoft AIではプロダクトとグロースを担当してきました。デザイン、製品、成長戦略、エンジニアリングの全領域を統括します。

ナデラCEOは社内メモで「Copilot体験、Copilotプラットフォーム、Microsoft 365アプリ、AIモデルの4つの柱を連携させる」と説明しています。これにより、個別の優れた製品群から、顧客にとってよりシンプルで強力な統合システムへの転換を図ります。

Mustafa Suleyman氏はMicrosoft AI CEOの肩書を維持しつつ、今後はMicrosoft独自のAIモデル開発に専念します。同氏が管轄していたEdge、Bing、MSN広告事業の今後の所管は未定であり、新たなリーダーへの移管が見込まれています。

今回の再編は、エクスペリエンス&デバイス部門のRajesh Jha副社長の退任発表から1週間も経たないタイミングで行われました。Xbox責任者だったPhil Spencer氏の退任も重なり、Microsoftは新会計年度に向けてさらなる組織変更が予想されます。

NVIDIA、40億パラメータの軽量AI「Nemotron 3 Nano 4B」公開

モデルの特徴

Mamba-Transformer混合構造採用
40億パラメータでエッジ動作対応
指示追従性能で同クラス最高水準
VRAM使用量が同クラス最小

圧縮と学習手法

9BモデルからNemotron Elasticで圧縮
2段階蒸留で精度回復を実現
3段階強化学習でツール使用を強化
FP8・Q4_K_M量子化で効率向上

NVIDIAは2026年3月17日、40億パラメータの軽量言語モデル「Nemotron 3 Nano 4B」をオープンソースで公開しました。Mamba-Transformer混合アーキテクチャを採用し、エッジデバイスでの高効率な推論を実現するモデルです。

同モデルはJetson ThorやJetson Orin Nano、DGX Spark、RTX GPUなど幅広いNVIDIAプラットフォームで動作します。低VRAM環境でも高速な応答が可能で、データプライバシーの確保と柔軟なデプロイを両立しています。

開発にはNemotron Elasticフレームワークが用いられ、9Bパラメータの親モデルから構造化プルーニングと知識蒸留により4Bモデルへ圧縮されました。ルーターが自動的に最適な枝刈り構成を決定し、従来手法より低コストで高精度なモデルを実現しています。

学習では教師あり微調整に続き、指示追従とツール呼び出しに特化した3段階の強化学習パイプラインを適用しました。推論時の思考なしでもタスク解決に優れ、ハルシネーション回避性能も高い水準を達成しています。

量子化ではFP8版で最大1.8倍のレイテンシ改善を達成し、Q4_K_M GGUF版はJetson Orin Nano 8GBで毎秒18トークンを出力します。Transformers、vLLM、TRT-LLM、Llama.cppなど主要推論エンジンに対応し、Hugging Faceで公開中です。

OpenAI、AWS経由で米政府向けAI販売契約を締結

契約の概要

AWSが米政府向けにOpenAI製品を販売
機密・非機密の両領域が対象
GovCloudと機密リージョンに展開
国防総省との既存契約を拡大

競合構図の変化

Anthropicのホームグラウンドに進出
AmazonAnthropic40億ドル出資済み
Anthropicは国防総省と対立中
政府契約が企業向け受注の信頼材料

OpenAIは、米国政府の機密・非機密業務向けにAI製品を提供するため、Amazon Web Services(AWSとの販売契約を締結しました。The Informationが最初に報じ、AWSもTechCrunchに対して契約を確認しています。

今回の提携は、OpenAIが2026年2月に国防総省と結んだ機密ネットワーク向けAIモデル提供契約に続くものです。この間、競合のAnthropicは大量監視や完全自律兵器への技術利用を拒否し、国防総省からサプライチェーンリスクに指定される事態となりました。

この契約により、OpenAIのAIモデルはAmazon Bedrockを通じて、AWS GovCloudおよびSecret・Top Secret対応の機密リージョンで利用可能になります。AWSの既存の公共セクター顧客基盤を通じ、複数の政府機関への展開が見込まれています。

注目すべきは、AWSAnthropicに少なくとも40億ドルを出資し、Claudeモデルが既にBedrock上で深く統合されている点です。OpenAIAWS進出は、Anthropicの主要クラウド基盤に直接競合製品を投入する形となり、AI業界の勢力図に大きな変化をもたらします。

OpenAIは、AWS経由で提供するモデルの選定権を自社で保持し、特にセンシティブな政府機関への提供にはAWSからの事前通知を義務付けています。顧客との展開条件やセキュリティ要件の調整もOpenAIが直接行い、必要に応じて追加の安全措置を求めることが可能です。

Hugging Faceオープンソース生態系、中国勢が米国を逆転

エコシステムの急成長

ユーザー1300万人に倍増
公開モデル200万超を達成
データセット50万件を突破
Fortune 500の30%超が参加

中国の台頭と地政学

中国がダウンロード数で米国を逆転
Qwen派生モデルが20万件超
韓国欧州AI主権を推進

技術トレンドの変化

ロボティクスデータセットが23倍増
小型モデルの実用採用が加速

Hugging Faceは2026年春のオープンソースAI生態系レポートを公開しました。2025年にユーザー数は1300万人に達し、公開モデルは200万件超、データセットは50万件を突破するなど、すべての指標がほぼ倍増しています。

中国が月間ダウンロード数で米国を逆転し、全ダウンロードの41%を占めるに至りました。DeepSeek R1の公開を契機に、Baiduは2024年のゼロから100件超のリリースへ急増し、ByteDanceやTencentも8〜9倍にリリース数を拡大しています。

企業の開発シェアは2022年以前の約70%から2025年には37%に低下しました。一方、個人や小規模コミュニティがダウンロードの39%を占め、量子化やファインチューニングを通じてモデルの流通を主導する存在へと成長しています。

各国政府はAI主権の確保に動いています。韓国は国家ソブリンAIイニシアティブを発足させ、LG AI ResearchやNaverなど国内企業を指名しました。スイスやEU各国も公的資金によるオープンモデル開発を推進し、Reflection AI韓国データセンター提携も発表されています。

ロボティクス分野ではデータセットが2024年の1,145件から2025年に26,991件へと急増し、Hub最大のカテゴリとなりました。科学研究でもタンパク質折りたたみや創薬への応用が進み、オープンソースAIは言語・画像生成を超えて物理世界への拡張を加速させています。

NVIDIAと通信大手6社がAIグリッド構築へ

通信網のAI基盤化

AT&T;がIoT向けAIグリッド構築
Comcastが低遅延ブロードバンド活用
Spectrumが1000超のエッジ拠点展開
T-MobileがエッジAI応用を検証

分散推論の実用化

Personal AIが500ms以下の遅延実現
Linker Visionが都市運営を変革
Decartが12ms以下のリアルタイム映像生成

エコシステム拡大

Cisco・HPEがフルスタック提供
Blackwell GPU搭載システムで展開

NVIDIAは GTC 2026において、AT&T;Comcast、Spectrum、Akamai、Indosat、T-Mobileの通信大手6社と連携し、地理的に分散したAI推論基盤「AIグリッド」の構築を発表しました。通信網をAI配信の中核に据える構造的転換が進んでいます。

世界の通信事業者は約10万カ所の分散データセンターを運営しており、余剰電力100ギガワット超に達します。AIグリッドはこの既存資産を活用し、ユーザーやデバイスの近くでAI推論を実行することで、応答速度の向上とトークンあたりコストの最適化を同時に実現します。

AT&T;はCiscoおよびNVIDIA提携し、IoT向けAIグリッドを構築します。公共安全などミッションクリティカルな用途で、リアルタイムのAI推論ネットワークエッジで処理し、機密データの顧客管理を維持しながら検知・警報・対応を高速化します。

ComcastNVIDIAやHPEと連携し、会話エージェントクラウドゲーミングの需要急増時でも高スループットと低コストを維持できることを実証しました。Akamaiは4400超のエッジ拠点に数千基のBlackwell GPUを配備し、リクエストごとに最適な計算層へ振り分けるオーケストレーション基盤を構築しています。

インドネシアのIndosatは国内にソブリンAI基盤を整備し、現地語対応のAIプラットフォーム「Sahabat-AI」を展開します。T-Mobileはスマートシティや配送ロボットなど物理AIの実証を進めており、セルサイトが5G通信と分散AI処理を両立できることを示しています。

NVIDIAAIグリッドリファレンスデザインを公開し、分散拠点でのAI展開に必要なコンピューティング・ネットワーキング・ソフトウェアの構成要素を定義しました。Cisco、HPE、Armada、Rafayなどのパートナーがフルスタックソリューションの市場投入を進めており、通信事業者がAIバリューチェーンで新たな収益源を確保する動きが加速しています。

NVIDIA CloudXRがApple Vision Proにネイティブ対応

技術連携の概要

CloudXR 6.0がvisionOSに統合
視線追従型ストリーミングで4K描画実現
RTXワークステーションから直接接続
視線データはアプリに非公開

産業界での活用

Kia・BMW・Volvoデザインレビューに採用
Rocheが研究施設レイアウトをシミュレーション
Foxconnが工場ウォークスルーを可視化
iRacing・X-Planeなどゲームにも対応

NVIDIAは2026年3月のGTCカンファレンスにおいて、CloudXR 6.0Apple Vision Proにネイティブ対応したことを発表しました。RTXワークステーションやGeForce RTX搭載PCから直接ストリーミングし、4K解像度の没入型コンテンツを低遅延で表示できます。

新たに導入された動的フォビエイテッドストリーミングは、ユーザーの視線方向を近似的に検出し、注視点の解像度を最大化しつつ帯域効率を最適化します。視線データはアプリケーションに公開されず、プライバシーが厳格に保護される設計です。

自動車業界では、Kia、BMW Group、Rivian、Volvo GroupがAutodesk VREDとCloudXRを組み合わせ、1対1スケールでのデザインレビューを実現しています。Volvo Groupは「物理プロトタイプを作る前に、ユーザーが見て触れるすべてを数年早く体験できる」と評価しました。

製薬大手RocheはInnoactiveと協力し、バイオ分析ラボのレイアウトを空間コンピューティングでシミュレーションしています。製造業ではFoxconnが工場フロアのデジタルツインを可視化し、データセンター事業者SwitchもAIファクトリーの運用最適化に活用しています。

CloudXR 6.0のSDKはSwift向けネイティブフレームワークとして開発者に公開されており、Xcodeで直接アプリを構築できます。visionOS 26.4と対応アプリは2026年春に提供予定で、エンタープライズからシミュレーションゲームまで幅広い用途が見込まれています。

GPU電力最適化の新興Niv-AIが1200万ドル調達しステルスから登場

電力浪費の実態

GPU電力サージで最大30%性能低下
ミリ秒単位の需要変動が制御困難
余剰電力確保やスロットリングで投資効率悪化

Niv-AIの技術戦略

ラックレベルのミリ秒センサー配備
AIモデル電力負荷を予測・同期
データセンター送電網の知能層構築

事業展開の見通し

シードで1200万ドル調達
6〜8カ月以内に米国DCで稼働予定

イスラエル・テルアビブ発のスタートアップNiv-AIが、GPU電力消費を最適化する技術で1200万ドルのシード資金を調達し、ステルスモードから正式に登場しました。CEOのTomer Timor氏とCTOのEdward Kizis氏が昨年設立した同社です。

AIデータセンターでは、GPUが計算タスクと通信を切り替える際にミリ秒単位の電力サージが頻発しています。NVIDIAのジェンスン・ファンCEOも「AI工場では膨大な電力が浪費されている」と指摘しており、業界全体の深刻な課題となっています。

データセンター事業者はサージに対応するため、一時的な蓄電設備の導入やGPU使用率のスロットリングを余儀なくされています。いずれの対策も高価なチップへの投資効率を最大30%低下させ、収益機会の損失につながっています。

Niv-AIはまずラックレベルの高精度センサーを設置し、ミリ秒単位でGPU電力プロファイルを把握します。収集データをもとにAIモデルを構築し、データセンター全体の電力負荷を予測・同期する「コパイロット」の開発を目指しています。

同社は6〜8カ月以内に米国の複数のデータセンターで運用を開始する予定です。Glilot CapitalやGrove Venturesなどが出資しており、新規DC建設が用地確保やサプライチェーンの問題で難航するなか、既存施設の容量を最大限に引き出す「知能レイヤー」として注目を集めています。

OpenAI Japan、10代向けAI安全指針を発表

安全対策の柱

年齢推定による保護強化
自傷・性的コンテンツの生成防止
保護者向け管理ツール拡充
利用時間管理やアラート機能

研究と業界連携

臨床医・教育者との共同研究
休憩リマインダー等の改善継続
メンタルヘルスへの影響調査
業界標準化を提唱

OpenAI Japanは、10代の若者が生成AIを安全に利用するための新たな枠組み「Japan Teen Safety Blueprint」を発表しました。日本では学習や創作活動にAIを活用する10代が増加しており、安全設計の重要性が高まっています。

新指針の柱の一つは、プライバシーに配慮した年齢推定技術の導入です。リスクベースのアプローチで10代と成人を区別し、それぞれに適切な保護を提供します。年齢判定に誤りがあった場合の異議申し立てプロセスも整備される予定です。

18歳未満のユーザーに対しては、自傷・自殺の描写や助長、性的・暴力的コンテンツの生成、危険行動の奨励、有害なボディイメージの強化を防ぐ保護策が強化されます。発達段階に応じた適切な応答設計も重視されています。

保護者向け機能も拡充され、アカウント連携、プライバシー設定、利用時間管理、必要に応じたアラートなど、家庭ごとの事情に合わせた保護のカスタマイズが可能になります。臨床医や研究者との協力によるウェルビーイング重視の設計も推進されます。

OpenAI Japanは、AIと共に成長する世代の安全確保は社会全体の共有責任であるとし、保護者・教育者・政策立案者との対話を継続する方針です。こうした保護措置が業界全体の標準となるべきだと訴えています。

Google含む5社がOSS安全対策に1250万ドル拠出

業界連携の資金拠出

1250万ドルの共同拠出
GoogleAmazon・MS等5社参加
Alpha-Omegaプロジェクト経由
AI駆動の脅威への対応強化

Google独自のAIツール

Big Sleep脆弱性自動発見
CodeMenderで修正を自動化
Chrome級の複雑なシステムに適用
Sec-GeminiをOSSに拡大展開

Googleは2026年3月、Linux FoundationのAlpha-Omegaプロジェクトの創設メンバーとして、AmazonAnthropicMicrosoft/GitHubOpenAIとともに総額1250万ドルをオープンソースセキュリティに拠出すると発表しました。

資金はAlpha-OmegaおよびOpenSSFが管理し、オープンソースのメンテナーがAI駆動の新たな脅威に先手を打てるよう支援します。脆弱性の発見にとどまらず、実際の修正展開までを対象としています。

Googleは社内でDeepMindが開発したAIツール「Big Sleep」と「CodeMender」を活用し、Chromeブラウザなど複雑なシステムの脆弱性を自動的に発見・修正する成果を上げています。

さらに研究イニシアチブ「Sec-Gemini」をオープンソースプロジェクトにも拡大し、AIによるセキュリティ強化の恩恵を広く提供する方針です。関心のある開発者向けに参加フォームも公開されています。

数十億人が依存するオープンソースソフトウェアの安全性確保は、AI時代において一層重要性を増しています。Googleは20年以上にわたりGoogle Summer of Codeやバグハンティングプログラムなどを通じてOSSコミュニティを支援してきました。

Vercelがコーディングエージェント向けプラグインを公開

プラグインの主要機能

47種以上のスキルを搭載
Next.jsやAI SDK等の知識グラフ対応
3種の専門エージェントを内蔵
5つのスラッシュコマンドを提供

技術的な仕組み

ファイル編集やコマンドをリアルタイム監視
非推奨パターンを即時検出・警告
Claude CodeCursorに対応
OpenAI Codex対応も近日予定

Vercelは、コーディングエージェント向けの新プラグインを公開しました。Claude CodeCursorに対応し、Vercelプロジェクトの理解を深めるためのプラットフォーム知識グラフを提供します。

プラグインは47種以上のスキルを搭載しており、Next.js、AI SDK、Turborepo、Vercel Functions、Routing Middlewareなど主要技術をカバーしています。リレーショナル知識グラフにより、各技術間の関連性も把握できます。

AIアーキテクト、デプロイメントエキスパート、パフォーマンスオプティマイザーの3種の専門エージェントを内蔵しています。bootstrapやdeploy、env、status、marketplaceの5つのスラッシュコマンドも利用可能です。

技術的には、ビルド時にパターンマッチャーをコンパイルし、7つのライフサイクルフックで優先度付きの注入パイプラインを実行します。globパターンやbash正規表現、import文などに基づきスキルが発火し、セッション内で重複排除されます。

さらにPostToolUseバリデーションにより、非推奨パターンやサンセット済みパッケージ、古いAPIをリアルタイムで検出します。npxコマンドやClaude Code公式マーケットプレイスから簡単にインストールでき、OpenAI Codexへの対応も近日中に予定されています。

Gamma、AI画像生成ツールでCanva・Adobeに挑戦

新製品の概要

Gamma Imagine発表
テキストからブランド素材を生成
100以上のテンプレート提供
チャートやインフォグラフィック対応

成長と資金調達

a16z主導で6800万ドル調達
評価額21億ドル到達
ARR1億ドル・ユーザー1億人に迫る

戦略的位置づけ

AdobeFigmaPowerPointの中間
ナレッジワーカー向け市場を狙う

AIプレゼンテーションプラットフォームのGammaは、マーケティング素材を生成する新製品「Gamma Imagine」を発表しました。CanvaAdobeとの競争激化を見据え、テキストプロンプトからブランド固有のビジュアル資産を作成できる機能を提供します。

Gamma Imagineでは、インタラクティブなチャートやデータビジュアライゼーション、マーケティング資料、SNS用グラフィック、インフォグラフィックなどを生成できます。現在100以上のテンプレートが用意されており、AI機能と組み合わせて活用することが可能です。

データ駆動型の素材生成を実現するため、ChatGPTClaude、Make、Zapier、Atlassian、n8nなど主要ツールとの連携を進めています。これにより外部データを取り込んだ高度なビジュアル作成が可能になります。

CEOのGrant Lee氏は、Gammaの立ち位置をAdobeFigmaなどのプロ向けツールPowerPointなどのレガシーツールの中間と位置づけています。デザインリソースを持たないビジネスパーソンにAIネイティブなアプローチで視覚的コミュニケーションを提供する考えです。

同社は2025年11月にa16z主導のシリーズBで6800万ドルを調達し、評価額は21億ドルに達しました。当時ARR1億ドル・ユーザー7000万人と発表しており、現在は1億人に迫る規模に成長しています。

SnapがNVIDIA GPU活用でA/Bテスト処理を4倍高速化

GPU移行の成果

処理速度4倍に向上
日次コスト76%削減達成
必要GPU数5500→2100台に圧縮
毎朝3時間で10PB超を処理

実験基盤の拡張

月間数千件のA/Bテスト実施
約6000指標を自動測定
コード変更なしでGPU移行完了
全社的なパイプライン展開を計画

Snapは、月間9.4億人超のアクティブユーザーを抱えるSnapchatの機能開発において、NVIDIA cuDFによるGPUアクセラレーションをGoogle Cloud上で導入し、A/Bテストのデータ処理速度を4倍に高速化したことを発表しました。

同社は毎月数千件のA/Bテストを実施しており、毎朝3時間の処理ウィンドウで10ペタバイト超のデータをApache Sparkフレームワークで処理しています。cuDFの採用により、既存のSparkアプリケーションをコード変更なしGPU上に移行することが可能になりました。

2026年1月から2月の内部データによると、Google Kubernetes Engine上のNVIDIA GPUを活用することで、CPUのみのワークフローと比較して日次コストを76%削減することに成功しています。これにより、実験規模の拡大に伴うコスト増大の課題を解決しました。

NVIDIA専門家と連携し、Google CloudのG2仮想マシン上でNVIDIA L4 GPUを用いたパイプライン最適化を実施した結果、当初見込みの約5500台からわずか2100台の同時稼働GPUで処理を完了できるようになりました。

Snap社のシニアエンジニアリングマネージャーであるPrudhvi Vatala氏は、今後A/Bテストチーム以外の幅広い本番ワークロードにもSparkアクセラレーターを展開する計画を示しており、GPU活用によるデータ基盤の全社的な変革を進める方針です。

AI科学者エルカリウビ氏、AI業界の男性偏重に警鐘

経済格差への懸念

AI業界は「男性クラブ」状態
女性創業者への資金提供不足
5〜10年で経済格差拡大の恐れ
投資先の4分の3が女性CEO企業

多様性と倫理の危機

トランプ政権のDEI撤回が影響
AI開発の成果にも悪影響
倫理と多様性への介入が急務

AI科学者投資家のラナ・エルカリウビ氏は、米テキサス州オースティンで開催されたSXSWカンファレンスにおいて、AI業界が「男性クラブ」と化しており、女性の経済的不利益につながると警告しました。

エルカリウビ氏は感情検出ソフトウェア企業Affectivaを2021年に売却し、現在はBlue Tulip Venturesの共同創業者兼ジェネラルパートナーを務めています。同社の投資先の4分の3は女性CEOが率いるスタートアップです。

同氏は「女性が創業の機会を得られず、資金調達もできず、ファンドへの投資にも参加できなければ、5年後・10年後に経済格差は劇的に拡大する」と強い懸念を示しました。

トランプ政権によるDEI(多様性・公平性・包摂性)プログラムの撤回は、テック企業の採用だけでなく製品開発にも波及しています。AI企業がモデルの出力を政権方針に合わせる圧力を受ける可能性も指摘されています。

エルカリウビ氏は「倫理多様性のために声を上げなければ、結果は良いものにならない。今こそリーダーシップを発揮してAIの方向性を形作る重要な局面だ」と訴えました。

Google、Fitbit健康コーチを大幅刷新し医療記録連携へ

睡眠と代謝の進化

睡眠ステージ精度15%向上
臨床基準に準拠した新スコア導入
CGM連携で血糖値を可視化
Nature掲載のインスリン研究活用

医療記録との統合

医療記録をアプリに直接連携
検査結果・処方薬を一元管理
QRコードで家族や医師と共有可能

地方医療とAI教育

Google.org医療AI教育に1千万ドル
アーカンソー州で地方医療モデル構築

Googleは年次イベント「The Check Up」で、Geminiを活用したFitbitパーソナルヘルスコーチの大幅アップデートを発表しました。睡眠追跡の精度向上、代謝健康研究の進展、医療記録連携の3つが柱となります。

睡眠ステージの精度が15%向上し、中断や昼寝の検出が臨床基準レベルに近づきました。多様なデータセットで訓練されたAIモデルにより、入眠と覚醒の区別がより正確になり、新しいスリープスコアが回復状況を具体的に可視化します。

代謝健康の分野では、ウェアラブルデータによるインスリン抵抗性予測に関する先駆的研究がNature誌に掲載されました。4月からは連続血糖モニターをHealth Connect経由で接続し、運動や食事が血糖値に与える影響をコーチに質問できるようになります。

米国のパブリックプレビューユーザーは、b.wellやCLEARとの連携により医療記録をFitbitアプリに直接リンクできるようになります。検査結果や処方薬、受診履歴を一元管理し、コレステロール改善など個別の健康相談に対してより的確な助言を受けられます。

さらにGoogleGoogle.orgを通じて1,000万ドルをAI時代の臨床医教育に投資し、米国医療専門学会評議会や米国看護学アカデミーと連携します。アーカンソー州では地方医療変革のモデル構築にも取り組み、世界の農村部で医療アクセスが不足する推定20億人への貢献を目指しています。

GitHub、OSS安全強化へ1250万ドル拠出を発表

資金・提携の全容

1250万ドルをAlpha-Omegaに拠出
AnthropicAWSGoogleOpenAIと連携
28万人超の保守者に無償ツール提供
Secure OSS Fundに550万ドル追加

AI活用と負担軽減

AI脆弱性発見の速度・規模が急拡大
Copilot Proで修正を加速
低品質報告のフィルタリング強化
保守者の燃え尽き防止を重視

GitHubは2026年3月、AnthropicAWSGoogleOpenAIとともにLinux FoundationのAlpha-Omegaイニシアチブに総額1250万ドルを拠出すると発表しました。この取り組みは、オープンソースソフトウェアの保守者がAIセキュリティ機能を活用できるよう支援し、ソフトウェアサプライチェーン全体の安全性を高めることを目的としています。

現在GitHub上の28万人超の保守者が、GitHub Copilot Pro、GitHub Actions、コードスキャン、シークレットスキャンなどのセキュリティ機能を無償で利用できます。さらにGitHub Secure Open Source Fundには550万ドルのAzureクレジットと資金が追加され、Datadog、Open WebUI、OWASPなど新たなパートナーも参画します。

同ファンドはこれまで38カ国200人超の保守者を支援し、191件の新規CVE発行、250件超のシークレット漏洩防止、600件超の漏洩シークレット解決といった具体的成果を上げています。教育と実践的なコーディング支援の組み合わせが、保守者の自発的な学習と行動を促進することも確認されました。

AIの進化により脆弱性発見の速度と規模が急拡大する一方、自動化されたプルリクエストやセキュリティ報告の増加が保守者の負担を増大させています。GitHubはAIを保守者の負担軽減に活用する方針を掲げ、問題のトリアージからコードレビュー脆弱性修正までを支援するツールの拡充を進めています。

GitHubは今後もAlpha-Omegaなどのパートナーと連携し、プロジェクトだけでなく人への投資を継続する方針です。Secure OSS Fundの第4期は4月下旬に開始予定で、採択プロジェクトには1万ドルの資金、Copilot Pro、10万ドルのAzureクレジット、3週間のセキュリティ教育が提供されます。

BuzzFeed、AI活用の新アプリ3本をSXSWで発表

新会社と3アプリ

Branch Office設立を発表
AI写真編集のBF Island
日替わり撮影アプリConjure
Quiz Partyで友人とクイズ

経営課題と市場反応

純損失5730万ドルを計上
事業継続に重大な疑義表明
SXSW会場は沈黙と失笑
ユーザー定着が最大の課題

BuzzFeedの共同創業者兼CEOジョナ・ペレッティ氏は、2026年3月のSXSWカンファレンスにおいて、AI技術を活用した消費者向けアプリを開発する新会社Branch Officeの設立と3つの新アプリを発表しました。

第1のアプリBF Islandは、AIによる写真編集機能を備えたグループチャットアプリです。編集チームが厳選したトレンドやミームのライブラリを搭載し、ユーザーが旬のネタを素材にAI画像を作成できる点が特徴とされています。

第2のConjureは、かつて流行したBeRealに似た日替わり写真アプリで、「AIの精霊がCEO」という独自のコンセプトを掲げています。第3のQuiz Partyは、BuzzFeed名物のクイズを友人と一緒に楽しめるソーシャルアプリです。

しかし会場の反応は冷淡でした。プレゼンはスライド不具合から始まり、デモ後には沈黙と気まずい笑いが広がりました。Q&A;ではBeRealの失敗を引き合いに、ユーザー定着の課題を指摘する質問も出ています。

BuzzFeedは発表の数日前に事業継続への重大な疑義を開示しており、前年の純損失は5730万ドルに達しています。AI時代の新収益源として期待をかけるものの、「AIで何ができるか」を優先し「ユーザーが何を求めているか」が後回しになっているとの指摘もあり、成功への道筋は不透明です。

ChatGPT賃金相談が米国で1日300万件に到達

利用実態と傾向

日平均300万件の賃金関連質問
給与計算が全体の26%を占める
特定職種の報酬照会が19%
起業関連の収入相談が18%

需要が高い領域

クリエイティブで突出した需要
経営・医療・IT分野で高い検索
報酬格差が大きい業界ほど利用増
小規模サービス業の起業相談も集中

OpenAIが公表した最新調査によると、米国ではChatGPTに対し1日平均約300万件の賃金・報酬に関するメッセージが送信されています。労働者が給与情報の格差を埋めるためにAIを積極活用している実態が明らかになりました。

従来、賃金情報は複数のウェブサイトを横断して調べる必要があり、同僚への質問も社会的リスクを伴うものでした。AIモデルは散在する給与データを統合し、数秒でベンチマークを提示できるため、キャリア初期の人材や転職者にとって画期的な情報源となっています。

質問の内訳を見ると、給与計算が26%で最多、次いで特定職種の報酬が19%、起業関連が18%、企業別の職種報酬が11%、職業・キャリア全般が11%と続きます。プライバシー保護のため、分析は自動分類器を用いて個人メッセージを人が閲覧しない方法で実施されました。

業種別では芸術・デザイン・メディア、経営管理、医療、IT・数学系の職種で賃金検索が雇用比率を上回っており、報酬が不透明で交渉余地の大きい高スキル職ほど需要が高い傾向が示されました。起業関連でもクリエイティブ分野や小規模サービス業に集中しています。

OpenAIは労働市場タスクの評価基準「WorkerBench」も新たに導入しました。GPT-5.4を2024年の全米職業別賃金中央値と照合したところ、高い精度でベンチマークに近い推定値を返すことが確認されました。今後は地域・企業・職位レベルの詳細な報酬情報へと精度向上を目指すとしています。

Google DeepMind、アフリカ向け高度AI教育を無償展開

カリキュラムの特徴

生成AIモデルの実践的構築演習
UCLと共同開発の無償講座
Transformerの深い技術理解を提供
自習・大学講義の両形式に対応

アフリカ展開の背景

世界人口の20%だがAI研究貢献は1.8%
AIMSと連携し現地文脈に最適化
Google.orgが400万ドルを拠出
講師育成プログラムを本格始動

Google DeepMindは、アフリカの次世代技術者を対象とした高度AI教育プログラム「AI Research Foundations」の拡充を発表しました。University College Londonの教育専門家と共同開発された本カリキュラムは、Google Skillsプラットフォームで無償提供されます。

本プログラムはAIリテラシーの入門にとどまらず、生成言語モデルTransformerを実際に構築・ファインチューニングする実践的内容を提供します。受講者は言語モデルをゼロから構築する経験を通じ、最先端AI研究に必要な基盤スキルを習得できます。

アフリカは世界人口の約20%を占めるにもかかわらず、AI研究への貢献はわずか1.8%にとどまっています。この格差を埋めるため、アフリカ数理科学研究所(AIMS)専門家と協力し、大陸固有の研究ユースケースを取り入れたローカライズを実施しました。

Google.orgはFATE Foundationに400万ドルの資金を提供し、AIMSとの連携でオンラインカリキュラムをアフリカの教室に展開します。専門の講師ツールキットや「トレイン・ザ・トレーナー」プログラムにより、現地教育者の指導力強化を図ります。

本取り組みは責任あるイノベーションの原則に基づき設計されており、アフリカの研究者が自らのコミュニティにとって重要な課題にAIを活用できるよう支援します。カリキュラムはアフリカ向けに最適化されていますが、世界中の学習者が無償でアクセス可能です。

Google DeepMind、鳥の鳴き声AIでクジラも識別可能と発表

Perch 2.0の成果

鳥類AIがクジラ音声にも有効
転移学習で専用モデル不要
3種の海洋データセットで最高精度達成
最少4サンプルで分類器訓練が可能

鳥とクジラの共通性

発声メカニズムの進化的類似性
大規模学習による汎化能力の発現
微細な音響特徴の識別力が鍵
シャチの鳴き声と鳥の周波数帯が近似

Google DeepMindは、鳥類の鳴き声を分類するために開発した音響AI基盤モデルPerch 2.0」が、クジラの鳴き声の識別にも高い性能を発揮することを明らかにしました。この研究成果は2025年12月のNeurIPSワークショップで発表されています。

Perch 2.0は数百万件の鳥類・陸上動物の録音データで訓練された生物音響基盤モデルです。研究チームがこのモデルをクジラの音声分類に転用したところ、既存の専用モデルと同等以上の精度を達成しました。転移学習により新たなモデル構築の手間を大幅に削減できます。

評価では音声を5秒ごとのスペクトログラムに変換し、モデルが生成する埋め込み表現から分類器を訓練しました。わずか4〜32個のサンプルでもロジスティック回帰分類器が有効に機能し、サンプル数の増加に伴い精度が向上することが確認されています。

鳥類モデルがクジラにも有効な理由として、研究者は3つの仮説を提示しています。第一に鳥類と海洋哺乳類の発声機構の進化的類似性、第二に大規模モデルが持つ汎化能力、第三に鳥類分類の難しさがモデルに微細な音響特徴の識別力を獲得させた可能性です。

Google Researchのデータサイエンティスト、Lauren Harrell氏は「海中には未知の音が多く、固定的なモデルでは対応できない」と語ります。同チームはPerch 2.0を活用し、受動的音響モニタリングによるクジラの個体群保護や、海洋生物の未解明な音声の研究に貢献することを目指しています。

Vercel、2026年AIアクセラレーターに世界39チームを採択

プログラム概要

39チームが米欧亜中南米から参加
6週間の集中支援プログラム
800万ドル超のパートナークレジット提供
AWSAnthropicOpenAI等が協賛
VCメンターと毎週セッション実施

注目の参加企業

Carbyn AIがAIグラス活用の製造支援
Kuvia AIががん診断AI開発
Lane社がAIエージェント向け決済基盤構築

Vercelは2026年版AIアクセラレータープログラムに、米国欧州・アジア・中南米から39の初期段階チームを採択したと発表しました。6週間にわたりVercelインフラを活用した集中支援が行われます。

参加チームにはVercelインフラへのアクセスに加え、AWSAnthropicOpenAI、Cartesia、ElevenLabsなどのパートナーから総額800万ドル超のクレジットが提供されます。毎週の創業者・技術リーダーとのセッションや専任VCメンターによる支援も受けられます。

採択チームの事業領域は多岐にわたり、Carbyn AIはAIグラスで製造現場の暗黙知を可視化し、Kuvia AIはデジタル病理学でがんバイオマーカー検出に取り組みます。Lane社はAIエージェントが代理購入できる決済・商取引基盤を構築しています。

セキュリティ分野ではHacktron AIが開発ライフサイクルに統合する脆弱性検出を、Mighty社がAIを悪用した詐欺防止ゲートウェイを開発しています。不動産、建設、獣医学、ゲーム広告など産業横断的なAI活用が目立ちます。

4月16日にサンフランシスコで開催されるデモデーでは、各チームがAIリーダーやVCの前でプレゼンを行い、審査員が上位3チームを選出します。1位チームにはVercel Venturesからの出資を含む10万ドル超の賞品が贈られます。

MIT-IBM Watson AI Lab、若手教員の研究立ち上げを加速

研究基盤の構築支援

計算資源と知的支援の提供
NLP分野の転換期に大規模計算活用
Andreas教授の研究室立ち上げに貢献
Kim教授のニューロシンボリック研究推進

分野横断の共同研究

Solomon教授の幾何学×ML融合
Fan教授のLLMロボット制御開発
Ahmed教授の生成的最適化手法確立
産学連携で実用化まで一貫支援

MIT-IBM Watson AI Labが、MITの若手教員5名のAI研究プログラム立ち上げにおいて決定的な役割を果たしたことが明らかになりました。計算資源の提供と知的パートナーシップにより、各教員が着任初年度から野心的な研究を開始できた点が特徴です。

自然言語処理を専門とするJacob Andreas准教授は、着任直後にラボを通じて言語表現と低リソース言語のデータ拡張手法に関する初の大型プロジェクトを開始しました。NLP分野が言語モデル理解へと大きく転換する時期に、大規模計算資源を活用できたことが研究の方向性を決定づけたと述べています。

Yoon Kim准教授はポスドク時代にIBM側の共同研究者と出会い、ニューロシンボリックモデルの開発から大規模言語モデルの能力向上・効率化へと研究を発展させました。プロジェクト申請から大規模実験、ボトルネック特定、手法検証までシームレスに進められる体制が独自の強みだと評価しています。

Justin Solomon准教授はコンピュータグラフィックス機械学習の融合研究で、異なるデータセットで訓練されたAIモデルの統合に取り組んでいます。Chuchu Fan准教授はロボット工学と制御理論の交差領域で、自然言語をロボットが理解・実行できる仕様に変換するLLMベースエージェントを世界に先駆けて開発しました。

Faez Ahmed准教授は機械学習による複雑な機械システムの設計加速に取り組み、従来「ほぼ解決不可能」とされた機械リンケージ問題をAIで解決可能にしました。5名の教員の経験は、持続的な産学連携が若手研究者の研究グループ確立と科学的探求にいかに大きな影響を与えるかを示しています。

YouTube、2026年FIFAワールドカップの公式配信基盤に

配信の概要

全試合冒頭10分をライブ配信
一部試合はフル配信対応
過去の名勝負をFIFA公式で公開
クリエイターに特別取材権付与

視聴体験の強化

舞台裏映像を独自視点で提供
公式メディアパートナーが中継参加
多角的な観戦体験を実現

YouTubeは2026年FIFAワールドカップの「Preferred Platform」として正式に選定されました。この提携により、世界最大の動画プラットフォームを通じて大会を多角的に体験できる新たな視聴環境が整備されます。

公式メディアパートナーは、全試合の冒頭10分間をYouTubeチャンネル上でライブ配信できるほか、一部の試合についてはフルゲームの中継も可能になります。これにより従来のテレビ放送に加え、デジタル視聴の選択肢が大幅に広がります。

FIFA公式YouTubeチャンネルでは、過去の歴史的名勝負がフルレングスで公開される予定です。ファンは大会期間中だけでなく、事前にワールドカップの歴史を振り返ることができるようになります。

YouTubeクリエイターには試合会場への特別なアクセス権が付与され、舞台裏の様子や独自の視点からの取材コンテンツを制作・配信することが可能になります。従来のメディアとは異なる臨場感ある映像が期待されます。

今回の提携は、スポーツコンテンツのデジタル配信が加速する中で、YouTubeがライブスポーツ分野での存在感を一段と高める動きです。企業にとっても、新たな広告・マーケティング機会としての注目が集まっています。

Align Technology、アライナー直接3Dプリントへ製造革新

製造プロセス刷新

金型廃止し直接3Dプリントへ
オーストリアCubicure社買収
高粘度樹脂の独自開発に成功
1日100万個規模の量産が課題

事業成長と市場支配

世界のクリアアライナー市場で6〜7割
年間売上高約40億ドル達成
累計2200万人の患者に提供
CEO在任中に株価3倍に上昇

今後の展望

コスト削減で治療費の低価格化
米国製造回帰の可能性を検討
AI活用痛み予測機能を構想

Align Technologyのジョー・ホーガンCEOは、同社がInvisalignアライナーの製造方法を創業以来最大規模で刷新し、金型を使った真空成形から直接3Dプリント方式への移行を進めていることを明らかにしました。

同社は適切な素材を開発するため独自の高分子化学者を雇用し、高粘度樹脂を扱える技術を持つオーストリアのCubicure社を買収しました。新素材は現行のSmartTrack素材と同等以上の性能を持ちながら3Dプリントが可能です。

Align Technologyは現在、世界最大の3Dプリンター利用企業であり、1日に100万個の異なるアライナーを生産しています。昨年は過去最高の260万件の症例を扱い、うち93万6000件が子ども・10代の患者でした。

直接3Dプリントへの移行には、印刷方向の最適化、樹脂使用量の削減、レーザー切断工程の再設計など複雑なエンジニアリング課題が山積しています。現在メキシコ・フアレスの工場では数千人規模の従業員が製造に携わっていますが、自動化が進めば米国内製造も視野に入るとホーガンCEOは述べています。

同社はさらに、AI技術を活用して治療中のどの段階で痛みが強くなるかを患者に事前予測する機能の開発を検討しています。ホーガンCEOは、直接3Dプリントによるコスト削減が治療費の低価格化につながり、より多くの患者にInvisalignを届けられると期待を示しました。

Google、ミシガン州で2.7GWクリーン電力供給と廃棄物CO2除去を推進

データセンター新設計画

DTE Energy管内に新拠点
2.7GW太陽光・蓄電を送電網に追加
石炭火力からの脱却を支援
電力コスト全額をGoogleが負担

脱炭素・廃棄物対策

AMPと20万トンCO2除去で合意
AI選別技術で有機物をバイオ炭に変換
1000万ドル基金で地域電力負担軽減
米国最大のリサイクル施設で展開

Googleは、ミシガン州の電力会社DTE Energyの管轄エリアに新たなデータセンターを建設する計画を発表しました。同社は24時間稼働のクリーンエネルギーを送電網に直接供給し、州の電力信頼性向上とインフラ革新を推進します。

エネルギー供給の中核となるのは、太陽光発電、先進蓄電技術、需要柔軟性を組み合わせた2.7GWの新規電力資源です。DTE Energyとの「クリーン容量加速協定」により、石炭火力からクリーンエネルギーへの移行を加速させる構造となっています。

地域社会への貢献として、Google1000万ドル規模の「エネルギーインパクト基金」を設立します。住宅の断熱改修、省エネ技術革新、エネルギー人材育成など、住民の電気料金削減を目的としたプロジェクトに資金を提供します。

また、廃棄物処理企業AMPとの提携により、2030年までに20万トンのCO2除去を目指す契約を締結しました。AMP社のAI選別技術は、埋立地に送られる有機廃棄物を回収し、炭素を数百年固定できるバイオ炭に変換する仕組みです。

この技術は、バージニア州南東部公共サービス局と連携し、米国最大規模のリサイクルプロジェクトとして展開される予定です。廃棄物からのメタン放出を抑制し、周辺地域の大気質改善にも寄与することが期待されています。

Vercel GitHub App、Actions権限を新たに要求開始

新規権限の内容

Actionsの読み取り権限追加
Workflowsの読み書き権限追加
GitHub組織設定で承認が必要

対応する新機能

Vercel AgentがCI障害を診断
ワークフロー設定の自動構成
v0CI/CD付きリポジトリ作成
本番対応リポジトリの即時生成

Vercelは、同社のGitHub Appに対してActionsの読み取り権限とWorkflowsの読み書き権限の2つを新たに追加しました。インストール時にこれらの権限が要求されるようになっています。

Vercel Agentはこの権限を活用し、ワークフロー実行ログを読み取ることでCI障害の診断を支援します。開発者が手動でログを確認する手間を省き、問題の特定を迅速化する狙いがあります。

さらに、Workflows書き込み権限によりCIワークフローファイルの自動構成が可能になります。Vercel Agentがユーザーに代わって設定を行うことで、CI/CDパイプラインの構築工数を大幅に削減できます。

同社のAIコード生成ツールv0にも恩恵があり、CI/CDパイプラインが設定済みの本番対応リポジトリを一括で作成できるようになります。開発プロジェクトの初期セットアップが格段に効率化されます。

新権限を利用するには、GitHubの組織またはアカウント設定で更新された権限を承認する必要があります。詳細はVercelの公式ドキュメントで確認できます。

Vercelがオープンソース支援の冬季コホートに30件採択

採択プロジェクト概要

AI関連含む30件を新規採択
開発ツールからUIライブラリまで多様
ブラウザAIやテスト生成も対象
創薬AI非営利団体も選出

注目プロジェクト

InsForgeはAIエージェント向け基盤
Answer Overflowは月間150万ユーザー
browser-aiでブラウザ内AI統合
Ersilia Hubが創薬研究を支援

Vercelは2026年冬季のオープンソースプログラムとして、新たに約30件のプロジェクトを採択したと発表しました。同プログラムは2025年春に開始され、メンテナーにクレジットやサポートを提供することで開発の加速とスケーリングを支援するものです。

今回の採択プロジェクトはAIネイティブアプリから開発インフラデザインシステム、クリエイティブツールまで多岐にわたります。特にInsForgeはAIエージェントを前提としたバックエンド基盤で、MCPを活用したエージェントワークフローに対応しています。

開発者ツール分野では、Answer OverflowDiscordコンテンツ検索エンジンやAIエージェントからアクセス可能にするサービスとして300以上のコミュニティに採用され、月間150万アクティブユーザーを獲得しています。browser-aiはブラウザ内で複数のAIモデルプロバイダーを統一的に扱えるTypeScript SDKです。

UIコンポーネント分野の採択が特に多く、Neobrutal UIやEldora UI、SmoothUI、ui-layoutsなど複数のライブラリが選ばれました。React、Vue、Svelteなど主要フレームワーク向けのアニメーション付きコンポーネントやアイコンライブラリも含まれ、フロントエンド開発の効率化に貢献するプロジェクトが目立ちます。

社会貢献型プロジェクトとしては、Ersilia Model Hubが途上国の生物医学研究を支える抗生物質創薬AIモデルのリポジトリとして採択されました。またYourDigitalRights.orgはデータ削除リクエストを自動化し、オンラインプライバシーの保護を支援するプラットフォームです。Vercelは春・夏・秋の既存コホートとあわせて、オープンソースコミュニティへの還元を継続するとしています。

Vercel、AI学習へのコード利用を含む利用規約を改定

エージェント基盤の強化

障害の自動調査・緩和機能
パフォーマンス分析と改善提案
コスト最適化PRの自動作成
不正利用対策へのデータ活用

AI学習の選択制

Hobbyプランはデフォルト許諾
Pro有料プランはデフォルト拒否
Enterpriseは完全にオプトアウト
チーム設定から随時変更可能

Vercelは2026年3月、利用規約とプライバシーポリシーを改定し、エージェント機能の強化やAIモデル学習へのデータ利用に関する新たな方針を発表しました。開発者のコードやチャットデータの取り扱いが大きく変わります。

エージェント基盤の強化として、Vercelはアプリケーションの障害を自動的に調査・緩和する機能や、Webアプリのパフォーマンスデータを分析して改善を提案する機能、さらにコスト最適化のためのPRを自動作成する機能の開発を進めています。

AIモデル学習については選択制を導入しました。無料のHobbyプランではデフォルトでオプトイン、有料のProプランではデフォルトでオプトアウト、Enterpriseプランでは完全にオプトアウトとなります。設定はチーム設定画面からいつでも変更できます。

学習データにはコードエージェントチャット、ビルド・デプロイのテレメトリデータ、集約トラフィック統計が含まれます。ただし個人情報、アカウント情報、環境変数、APIキーなどの機密情報は匿名化・除去された上で利用されます。

その他の変更として、紛争解決プロセスの更新があり、従来は国際顧客とEnterprise顧客に適用されていた仲裁手続きが米国内顧客にも拡大されました。2026年3月31日までにオプトアウトすれば、データはAI学習や第三者共有に使用されません。