Google Cloud Next 2026、エージェント時代の全容を公開

エージェント企業への転換

Gemini Enterpriseの有料ユーザー40%増
エージェント管理基盤を新設
1,302件の生成AI活用事例を公開

インフラスタートアップ支援

第8世代TPUをトレーニング・推論の2種展開
パートナー向けに7.5億ドルのAI支援予算
Lovable・Notionなど有力スタートアップが参集

Google社内のAI活用実績

社内コードの75%がAI生成
セキュリティ脅威対応を90%以上短縮

Googleは2026年4月22日、ラスベガスで開催中のGoogle Cloud Next 2026で、エージェントAIを軸とした大規模な製品・戦略発表を行いました。CEOのサンダー・ピチャイ氏は、Google Cloudの顧客の約75%がAI製品を活用しており、APIを通じたトークン処理量が毎分160億に達したと明かしました。エージェント型企業への転換が加速しています。

今回の目玉はGemini Enterprise Agent Platformの発表です。「エージェントを作れるか」から「数千のエージェントをどう管理するか」へとフェーズが移行するなか、構築・運用・ガバナンスを一元管理する基盤として位置づけられています。同プラットフォームの有料月間アクティブユーザーは前四半期比で40%増加しました。

インフラ面では、第8世代TPUとしてTPU 8t(トレーニング特化)とTPU 8i(推論特化)の2チップ構成を発表しました。TPU 8tは前世代比3倍の処理能力を実現し、TPU 8iは数百万のエージェント同時実行に必要な低遅延・高スループットを提供します。セキュリティ分野では、Wizとの統合によるAI駆動のサイバーセキュリティプラットフォームも公開されました。

スタートアップ支援にも力を入れています。Googleはパートナーのエージェント開発を加速するため7億5,000万ドルの予算を新たに確保しました。バイブコーディングLovable(ARR4億ドル規模)、Notion(評価額約110億ドル)、AI搭載プレゼンツールのGammaなど有力スタートアップGoogle Cloud上での展開を拡大しています。

Google社内でもAI活用が進んでおり、新規コードの75%がAI生成・エンジニア承認となりました。セキュリティ運用では月間数万件の脅威レポートをエージェントが自動処理し、対応時間を90%以上削減しています。エージェント時代のクラウド基盤として、Google Cloudが攻勢を強めている構図が鮮明になりました。

SpaceX、Cursorを600億ドルで買収提案

買収提案の経緯

Cursor20億ドル調達を直前に中断
SpaceX600億ドル買収オプション提示
不成立でも100億ドルのAI開発協業金

両社の思惑

SpaceXIPO後に買収手続きの意向
Cursor、AI競争激化で独立継続にリスク
SpaceX、AI企業としての評価獲得を狙う
データセンター資源をCursorに提供可能

SpaceXがAIコーディングツールCursorの開発元Anysphereに対し、600億ドル(約9兆円)での買収オプションを提示しました。Cursorは発表のわずか数時間前まで、Andreessen HorowitzNvidia等が参加する20億ドルの資金調達ラウンド評価額500億ドル)のクローズを今週中に予定していました。SpaceXは今年中に買収を実行するか、買収しない場合でもAI開発協業の対価として100億ドルをCursorに支払うとしています。

Cursor資金調達買収交渉を並行して進めていました。20億ドルの調達が実現しても、キャッシュフローの黒字化には不十分で、追加の大型調達が不可避だったとされています。AnthropicClaude CodeOpenAICodexとの競争が激化するなか、巨額の計算資源を確保し続ける独立路線には不確実性が高まっていました。

一方、xAIと合併したSpaceXは、AI分野の強化を急いでいます。GoogleによるWindsurf買収がキーパーソンの獲得を主目的としたのに対し、SpaceXCursorのチーム全体を維持する方針です。ミシシッピ州やテネシー州のデータセンターが持つ膨大な計算能力をCursorに提供できる点も、協業の実質的な価値となります。

SpaceX買収手続きをIPO後に先送りする理由は、上場前の財務開示の更新を避けたいことと、公開株式を買収資金に活用しやすくなることにあります。さらにCursor買収の発表は、SpaceXを宇宙・衛星事業だけでなくAI企業として市場に位置づける狙いがあり、ウォール街が付与する高いバリュエーション倍率の獲得を見込んでいます。

Google WorkspaceにAIエージェント機能を本格展開

各製品のAI新機能

自然言語で受信メール横断検索
Meetが対面会議も自動議事録化
Zoom・Teams会議にも対応拡大
Chromeエージェント型自動操作

企業導入と安全策

操作確定前に人間の確認を必須化
未承認AIツールのShadow IT検出機能
Oktaとの連携でセッション乗っ取り防止

Googleは2026年4月のCloud Nextカンファレンスで、Workspace製品群にGeminiベースのAIエージェント機能を大幅に追加すると発表しました。GmailGoogle Meet、Chromeの3製品が同時にアップデートされ、企業ユーザーの業務効率化を狙います。いずれもエンタープライズ向けの提供が中心で、ビジネス・教育プランにも順次展開されます。

GmailにはAI Overviews機能が導入されます。これまでGoogle検索で使われていたAI要約技術をメールに応用し、自然言語で質問するだけで複数のメールから横断的に回答を生成します。プロジェクトの進捗や請求書の内容といったビジネス情報を、個別のメールを開かずに把握できるようになります。

Google Meetでは、AIノートテイカーが対面会議にも対応しました。従来はオンライン会議に限定されていた自動議事録・要約機能が、モバイルアプリやデスクトップから「take notes for me」を選ぶだけで対面の打ち合わせでも利用可能になります。さらにZoomやMicrosoft Teamsでの会議にも対応し、プラットフォームを問わず議事録をGoogle Docsに自動生成します。

Chromeには「auto browse」と呼ばれるエージェント機能が追加されます。Geminiが開いているタブの文脈を理解し、出張予約やCRMへのデータ入力、競合製品ページからの情報抽出といったブラウザ上の定型作業を代行します。ただし最終操作にはユーザーの確認が必要な「human in the loop」設計を採用しています。

セキュリティ面では、Chrome Enterprise Premiumに未承認AIツールの利用を検出する「Shadow IT risk detection」を搭載しました。IT管理者が組織内のAIサービス利用状況を把握できるほか、不審なブラウザ拡張機能やエージェントの異常な動作も検知します。Oktaとの連携強化やMicrosoft Information Protection統合など、エージェント時代のセキュリティ基盤も整備されています。

OpenAI、ChatGPTにチーム共有型AIエージェント機能を追加

機能と設計思想

Codex基盤クラウド実行型
チーム内で共有・改善が可能
Slack連携で自動応答に対応
スケジュール実行や承認制御を搭載

業務適用と展開

営業・経理・IT審査など実用例多数
GPTsからの移行パスを提供
5月6日からクレジット課金開始
管理者向け監視・制御機能を装備

OpenAIは2026年4月22日、ChatGPTの有料ビジネスプラン向けに「ワークスペースエージェント」機能をリサーチプレビューとして公開しました。従来のGPTsを発展させた位置づけで、Codexをエンジンとしてクラウド上で自律的にタスクを実行します。チーム内で共有でき、レポート作成やリード対応、ベンダー審査といった反復的な業務ワークフローを自動化できます。

エージェントSlackやメール、CRMなど外部ツールと連携し、スケジュール実行やイベント駆動で動作します。機密性の高い操作には承認ステップを設定でき、管理者はコンプライアンスAPIを通じてエージェントの構成や実行履歴を監視できます。ロールベースのアクセス制御により、組織全体での安全な運用を実現しています。

構築はChatGPT上の対話型ビルダーで行い、自然言語でワークフローを記述するとエージェントが自動生成されます。テンプレートも用意されており、営業・マーケティング・財務などの領域ですぐに利用を開始できます。エージェントは使用を重ねるほど改善され、チームの暗黙知を再利用可能なワークフローに変換する設計です。

OpenAIの社内でも営業チームがコールメモからのリード評価やフォローアップメール作成に活用しており、週5〜6時間の手作業が自動化された事例が報告されています。The Vergeは、AnthropicClaude CoworkやOpenClawなどAIエージェント市場の競争激化を指摘しています。ワークスペースエージェントは5月6日まで無料で、以降はクレジットベースの課金に移行する予定です。

単一AIエージェントがマルチエージェントに勝る条件

研究の核心

同一計算予算で公平比較
単一エージェントが精度で優位
マルチ構成は通信損失が発生
推論トークン消費も単一が効率的

使い分けの判断基準

文脈が一貫なら単一で十分
ノイズや劣化データには複数が有効
「群れ税」の過払いに警鐘
API報告トークン数の過信に注意

スタンフォード大学の研究チームが、AIのマルチエージェントシステム(MAS)と単一エージェントシステム(SAS)の性能を、同一の「思考トークン」予算のもとで比較した論文を発表しました。企業がマルチエージェント構成に投資する際、その性能向上がアーキテクチャの優位性によるものか、単に計算リソースを多く消費した結果なのかを切り分けることが目的です。

実験の結果、複数ステップの推論タスクにおいて、計算予算を揃えた場合、単一エージェントがほとんどのケースでマルチエージェントと同等以上の精度を達成しました。研究チームはこれを「データ処理不等式」で説明しています。マルチエージェント間の情報伝達では要約や受け渡しのたびに情報が欠落するリスクがあり、単一エージェントは連続した文脈内で推論するため情報効率が高いとしています。

さらに研究チームは、単一エージェント推論を途中で打ち切る問題に対し、SAS-L(longer thinking)という手法を提案しました。プロンプトを工夫してモデルに曖昧点の特定や候補の列挙を明示的に促すことで、マルチエージェントの協調で得られる効果を単一構成で再現できます。Google Gemini 2.5との組み合わせでは、さらに高い精度を記録しています。

一方で、マルチエージェントが優位になる場面も明確に示されました。ノイズの多いデータや注意散漫要素を含む長い入力、破損した情報など文脈が著しく劣化した環境では、構造化されたフィルタリングや分解・検証を行うマルチエージェントのほうが関連情報を正確に抽出できます。

研究者らは、企業が見落としがちなマルチエージェントの隠れたコストについても警告しています。オーケストレーション自体がただではなく、エージェント追加ごとに通信オーバーヘッド、中間テキストの増大、誤り蓄積のリスクが生じます。この「群れ税(swarm tax)」を払っている企業は、まず同一予算での単一エージェントのベースライン評価を行うべきだと提言しました。ボトルネックが推論の深さなら単一で足り、文脈の断片化や劣化が問題ならマルチが正当化されるという判断基準を示しています。

OpenAIが個人情報検出モデルをオープンソース公開

モデルの技術的特徴

総パラメータ15億推論時は5000万
双方向トークン分類で文脈を理解
128Kトークンの長文書を一括処理
8種類のPIIカテゴリを検出

企業導入のメリット

端末上で完結しデータ外部送信不要
Apache 2.0で商用利用・改変が自由
ドメイン特化のファインチューニング対応
ブラウザ上でもWebGPUで実行可能

OpenAIは2026年4月22日、テキスト中の個人識別情報(PII)を検出・除去する専用モデル「Privacy Filter」をオープンソースで公開しました。Apache 2.0ライセンスでHugging FaceGitHubから利用でき、商用利用やモデルの改変も自由です。同社が自社のプライバシー保護ワークフローで使用しているモデルの公開版で、PII-Masking-300kベンチマークF1スコア96%を達成しています。

Privacy Filterは通常の大規模言語モデルとは異なり、双方向トークン分類モデルとして設計されています。入力テキスト全体を一度に読み取り、前後の文脈から個人情報かどうかを判断します。たとえば「Alice」という単語が私的な個人名なのか、文学作品のキャラクター名なのかを周囲の文脈から区別できます。総パラメータ数は15億ですが、Mixture-of-Experts構造により推論時のアクティブパラメータは5000万に抑えられています。

検出対象は個人名・住所・メール・電話番号・URL・日付・口座番号・パスワードやAPIキーなどの秘密情報の8カテゴリです。128,000トークンのコンテキストウィンドウを持ち、法的文書や長大なメールスレッドも分割せずに処理できます。Viterbiデコーダにより「John Smith」のような複数語の名前も一貫した範囲として正しくマスキングされます。

企業にとっての最大の利点は、ローカル環境で完結する点です。ノートPCやブラウザ上で動作するため、機密データをクラウドに送信せずにPIIを除去できます。GDPRやHIPAAへの準拠が求められる環境でも、まずPrivacy Filterでデータを浄化してからGPT-5などの推論モデルに渡すワークフローが構築できます。

ただしOpenAIは、本モデルは「匿名化ツールやコンプライアンス認証の代替ではない」と注意喚起しています。医療・法務・金融などの高リスク領域では人間によるレビューとドメイン固有の評価が依然として重要です。それでも、少量のデータでファインチューニングすればF1スコアが54%から96%に向上した実験結果も示されており、各組織の用途に合わせた柔軟なカスタマイズが可能です。

Google、エージェント統合基盤を発表

プラットフォーム概要

Vertex AIを刷新し統合
構築から運用監視まで一元化
Gemini 3.1 Pro等を搭載
Claude Opus 4.7にも対応

業界動向との位置づけ

AWS Bedrock AgentCoreと対照的
K8s型の統制重視アプローチ
IT部門向けと業務向けを分離
長時間稼働エージェントの状態管理

GoogleCloud Next '26で、AIエージェントの構築・運用・監視を一元化する新プラットフォーム「Gemini Enterprise Agent Platform」を発表しました。CEOのスンダー・ピチャイ氏が冒頭で披露したこの製品は、従来のVertex AIをリブランドし、エージェント統合・セキュリティ・DevOps機能を追加したものです。Gemini 3.1 ProやNano Banana 2に加え、AnthropicClaude Opus 4.7、Sonnet、Haikuもサポートします。

同プラットフォームはIT・技術チーム向けに設計されており、エージェントの大規模な構築とガバナンスに重点を置いています。一方、業務ユーザー向けには既存の「Gemini Enterprise」アプリが用意され、会議調整や定型業務の自動化など日常タスクに対応します。セキュリティとガバナンスのツールはサブスクリプションに無償で含まれます。

VentureBeatの分析によれば、GoogleのアプローチはKubernetes型の制御プレーンでアイデンティティ管理やポリシー適用を集中管理する「統制重視」型です。これに対しAWSのBedrock AgentCoreは、設定ベースのハーネスで素早くエージェントを本番投入する「実行速度重視」型であり、両社のアプローチは明確に分かれています。

エージェントが短時間のタスク処理から長時間稼働のワークフローへ移行するにつれ、状態ドリフトという新たな課題が浮上しています。蓄積されたメモリやコンテキストが陳腐化し、エージェントの信頼性が低下するリスクがあります。Google側は顧客の利用パターンから学びながら、自律型エージェントの制御バランスを模索する方針を示しました。

企業にとっては、迅速な実験と集中的な統制の両方が必要になります。エージェント基盤の選択はベンダーロックインのリスクも伴うため、自社の業務プロセスへの影響度に応じたリスク管理の判断が求められます。

Google、第8世代TPUを訓練用と推論用の2チップ体制に刷新

訓練特化のTPU 8t

前世代比約3倍の121EFlops
100万チップ超の単一クラスタ構成
97%のgoodputで訓練効率最大化

推論特化のTPU 8i

Boardflyで低遅延ネットワーク実現
オンチップSRAM3倍でエージェント処理高速化
性能対コスト80%改善

垂直統合の競争優位

自社設計でNvidia税を回避
Axion ARM CPU搭載で電力効率2倍

Googleは4月22日、Cloud Nextカンファレンスで第8世代TPU(Tensor Processing Unit)を発表しました。従来の単一チップ路線を転換し、訓練専用のTPU 8t推論専用のTPU 8iの2チップ体制へ移行します。エージェントAI時代の異なるワークロード要件に対応するため、2024年にロードマップの分割を決断したと、同社SVPのAmin Vahdat氏が明かしました。

TPU 8tは大規模モデル訓練に特化し、1ポッドあたり9,600チップ、2ペタバイトの共有HBMを搭載します。前世代Ironwoodの約3倍となる121 FP4 EFlopsの演算性能を実現し、新開発のVirgoネットワークにより100万チップ超を単一論理クラスタとして接続可能です。フロンティアモデルの訓練期間を数カ月から数週間に短縮することを目指します。

TPU 8iはエージェントAIの推論ワークロードに最適化されています。288GBのHBMに加え、前世代の3倍となる384MBのオンチップSRAMを搭載し、大規模なKVキャッシュをチップ上に保持できます。新設計のBoardflyトポロジーでネットワーク径を50%以上削減し、リアルタイム推論レイテンシを最大5倍改善しました。1ポッドあたり1,152チップで、前世代比80%の性能対コスト向上を実現します。

チップとも自社設計のAxion ARMベースCPUをホストに採用し、前世代比2倍の電力効率を達成しました。Googleはシリコンからデータセンターまでの垂直統合設計により、OpenAIAnthropicなどNvidia GPUに依存する競合が支払う「Nvidia税」を回避できる点を強調しています。JAX、PyTorch、SGLang、vLLMなど主要フレームワークをサポートし、ベアメタルアクセスも提供します。

TPUの一般提供は2026年後半を予定しています。現時点ではGoogle自社ベンチマークのみで、独立した第三者検証はこれからです。また、CUDA/PyTorchエコシステムからの移行コストは依然として考慮すべき要素です。Citadel Securitiesなど先進企業がTPU採用を表明しており、フロンティアAI開発の競争軸が「GPUの調達力」から「スタック全体の設計力」へ移行しつつあることを示す発表となりました。

AIエージェントが12時間でRISC-V CPUコアを自律設計

自律設計の仕組み

219語の仕様書のみで開始
人間の設計工程を模倣した構造化ハーネス
RTL記述からレイアウトまで全自動
サブエージェントとツール連携で反復処理

性能と意義

クロック1.48GHz、2011年相当の性能
RISC-V CPUコアのAI完全設計は初
シミュレーションでuCLinux動作を確認
4月末に設計ファイル公開予定

スタートアップのVerkor.ioは、AIエージェントシステム「Design Conductor」を用いて、RISC-V CPUコア「VerCore」をわずか12時間で設計したと発表しました。219語の設計仕様書を入力するだけで、設計・実装・テスト・レイアウトまでを自律的に完了し、EDAソフトウェアで使用可能なGDSIIファイルを出力します。これはAIエージェントによるRISC-V CPUコアの完全設計として初の事例です。

Design Conductorは、LLMを構造化されたステップに沿って動作させるハーネスです。人間のチップ設計者が踏む工程を模倣し、仕様分析からRTL記述、電力供給やタイミング検証、レイアウトまでを段階的に処理します。一部のタスクではOpenROADなどの外部ツールも呼び出します。SynopsysやCadenceもAIツールを提供していますが、仕様から完成まで全工程を自律処理する点がDesign Conductorの特徴です。

VerCoreのクロック速度は1.48GHzで、CoreMarkベンチマークで3,261点を記録しました。これは2011年のIntel Celeron SU2300と同等の性能です。最先端CPUには及びませんが、RISC-Vはオープン標準で無償利用可能なため、コスト面での実用性があります。チップはまだ物理製造されておらず、RISC-Vリファレンスシミュレータ「Spike」と学術用7nmプロセスキット「ASAP7 PDK」で検証されています。

ただし、LLMには人間の直感が欠けるという限界もあります。タイミングエラーの修正で非効率な試行錯誤を繰り返すなど、経験ある設計者なら避けられる問題に陥ることがあります。Verkor.ioのDavid Chin副社長は「経験を計算資源で代替している」と表現しています。設計の複雑さが増すほど計算コストは非線形に増大するため、専門家の知見との併用が現実的です。

それでも、小規模チームでのチップ設計を可能にする点で大きな意義があります。Verkor.ioによると、現時点では5〜10人の専門家チームがあれば量産可能な設計に到達できるとのことです。同社は4月末に設計ファイルを公開し、6月のDAC(設計自動化カンファレンス)でFPGA実装のデモを予定しています。

Google、AIエージェント向けデータ基盤を刷新

3本柱の新アーキテクチャ

Knowledge Catalogでメタデータ自動整備
クロスクラウドでIcebergテーブル照会
AWS S3へエグレス費用なしで接続
Data Agent KitがVS Code等に統合

パイプライン時代の終焉

成果記述型へ移行、コード自動生成
エンジニアレビュー中心の役割に
DatabricksSnowflakeとも双方向連携
オープン標準Icebergで囲い込み回避

Googleは2026年4月のCloud Nextで、AIエージェントが自律的に業務を遂行する時代に対応する新データ基盤「Agentic Data Cloud」を発表しました。従来のデータスタックは人間がクエリを実行し、ダッシュボードで結果を確認する「リアクティブな分析基盤」として設計されていましたが、エージェントが24時間稼働でデータに基づく意思決定と行動を行う世界では、根本的なアーキテクチャ変革が必要だとGoogle Cloud VP兼GMのAndi Gutmans氏は語っています。

新基盤は3つの柱で構成されます。第1のKnowledge Catalogは、従来のデータカタログで必要だった手動のメタデータ管理をエージェントで自動化するものです。BigQuery、Spanner、AlloyDBなどに加え、Collibra、Atlanなどサードパーティカタログとも連携し、SAP、Salesforce、ServiceNowなどのSaaSデータもコピーなしで意味的コンテキストを取得できます。

第2の柱であるクロスクラウドレイクハウスは、オープンなApache Icebergフォーマットを採用し、Amazon S3上のIcebergテーブルをBigQueryから直接照会できるようにしました。Google Cross-Cloud Interconnect経由の専用ネットワークで接続するため、エグレス費用は発生しません。Databricks Unity CatalogやSnowflake Polarisとの双方向連携もプレビュー段階にあります。

第3の柱、Data Agent KitはVS Code、Claude CodeGemini CLIなどに組み込めるMCPツール群です。データエンジニアはSparkパイプラインを手書きする代わりに、「モデル学習用にクリーニング済みデータセットを用意する」といった成果を記述するだけで、エージェントが最適な実行エンジンを選択しコードを生成します。

競合各社も同様のアプローチを進めています。DatabricksはUnity Catalog、SnowflakeはCortex、MicrosoftはFabricのセマンティックモデル層をそれぞれ強化しています。Googleはオープン標準による相互運用性を差別化要因と位置づけ、他社のセマンティックモデルとも連携する方針です。Gutmans氏は「手動でカタログを管理している企業は、エージェント時代のクエリ量に対応できなくなる」と警告しており、企業のデータ基盤戦略に再考を迫る内容となっています。

Anthropic、Claude CodeをPro版から試験的に除外

料金プラン変更の経緯

新規Pro加入者の約2%が対象
Claude Codeへのアクセスを制限
既存のPro契約者には影響なし

背景と撤回

Max発売後の利用形態が大幅に変化
長時間エージェントの普及が負荷増大
公式ページの記載変更が混乱を招く
批判を受けPro版での提供を再び明記

Anthropicが、月額20ドルのPro版サブスクリプションから開発者向けツール「Claude Code」を除外するテストを実施していたことが明らかになりました。同社の料金ページが更新され、Pro版でClaude Codeが利用不可と表示されたことで、ユーザーの間に動揺が広がりました。

この変更はRedditやXで発見され、開発者コミュニティで急速に話題となりました。新規にPro版を契約したユーザーはClaude Codeにアクセスできなくなった一方、既存の契約者には影響がなく、月額100ドル以上のMax版では引き続き利用可能でした。

Anthropicの成長部門責任者であるAmol Avasare氏は、これが「新規ユーザーの約2%」を対象とした小規模テストだったと説明しています。約1年前にMax版を発売した当時はClaude Codeが含まれておらず、長時間稼働するエージェントやCoworkも存在しませんでした。しかしその後、利用形態が根本的に変化し、契約者あたりの使用量が急増したため、料金体系の見直しを検討していたとのことです。

一方で、わずか2%のテストにもかかわらず公式ページの表記を全面的に変更した点について、ユーザーからは混乱を招く対応だと批判の声が上がりました。Anthropicはその後、料金ページを再度更新し、Pro版にClaude Codeが含まれることを改めて明記しています。今回の件は、急成長するAIサービスの料金設計がいかに難しいかを示す一幕となりました。

Meta、社員PCの操作データでAIエージェント訓練開始

データ収集の全容

マウス操作やキー入力を記録
スクリーンショットも定期取得
業務用アプリとサイトが対象
オプトアウト不可の強制導入

社内の反発と経営の意図

社員から強い反発の声
CTO Bosworth氏がATA構想を発表
人事評価には使用しないと説明
AIが業務を担い人間は指示役へ

Meta米国の従業員のPCに「Model Capability Initiative(MCI)」と呼ばれるツールを導入し、マウス操作、クリック、キーストローク、スクリーンショットなどの操作データを記録してAIエージェントの訓練に活用することが明らかになりました。Reutersの報道をもとにThe Vergeが伝えたもので、業務用アプリやウェブサイト上での操作が対象となります。

MCIで収集されたデータは、AIモデルが人間と同様にコンピュータを操作できるようにするための訓練データとして使用されます。Metaの広報担当者は「日常的なPC操作の実例が必要」と説明し、機密情報保護のセーフガードを設けていると述べました。

CTO Andrew Bosworth氏は社内メモで「Agent Transformation Accelerator(ATA)」構想を発表し、「AIエージェントが主に業務を行い、人間の役割は指示・レビュー・改善の支援」というビジョンを示しました。社内データ収集の拡大もあわせて告知しています。

一方で社内では激しい反発が起きており、ある社員が「非常に不快だ。オプトアウトの方法は?」と質問したところ、Bosworth氏は「会社支給のPCではオプトアウトの選択肢はない」と回答しました。人事評価には使用しないとされていますが、従業員の不安は収まっていない状況です。

Agentforce Vibes 2.0がコンテキスト肥大化問題に挑む

コンテキスト肥大化の実態

複雑化で文脈量が膨張
トークン増加でコスト・遅延悪化
ノイズ混入で精度が低下
VentureCrowdも導入初期に直面

Salesforceの対策と業界動向

Skills/Abilitiesで文脈を制御
サードパーティ連携を拡充
Claude CodeCodexは自動圧縮型
取捨選択の設計が成否を分ける

AIエージェントの「コンテキスト肥大化(Context bloat)」が、企業導入における隠れた障壁として注目されています。ワークフローが複雑になるほどエージェントに渡すデータや指示が膨張し、トークン消費の増大・処理速度の低下・コスト上昇を引き起こします。オーストラリアスタートアップ投資プラットフォームVentureCrowdは、AIコーディングエージェントでフロントエンド開発サイクルを最大90%短縮した一方、まさにこの問題に直面しました。

VentureCrowdのCPO Diego Mogollon氏は「課題はエージェント自体ではなく、周囲の環境にある。AI問題に見えて実はコンテキスト問題だ」と指摘します。エージェントは実行時にアクセスできるデータを根拠に推論するため、不適切なデータや不明確なプロセスがあると、自信を持って誤った結果を出力してしまいます。

SalesforceAgentforce Vibes 2.0でこの課題に対応しました。新たに導入されたAbilities(目標定義)とSkills(ツール指定)により、エージェントが参照するコンテキストSalesforceのデータモデル内に限定できます。ReActなどサードパーティフレームワークへの対応も拡充され、無料プランから利用可能です。

一方、Claude CodeOpenAI Codexはファイル読み込みやコマンド実行で自律的にコンテキストを拡張し、肥大化時には自動圧縮で対処する設計です。いずれのアプローチもコンテキストの「制限」ではなく「管理」に重点を置いている点は共通しています。

Mogollon氏は「より多くの情報を与えることではなく、何を除外するかが重要だ」と強調します。コンテキストエンジニアリングへの投資と、自社に適した制約手法の選択が、企業のエージェント活用の成否を左右する局面に入っています。

OpenAI、Responses APIにWebSocket対応を追加

高速化の仕組み

永続接続で会話状態を再利用
トークン再レンダリングを省略
安全性チェックを差分のみに限定

導入効果

エージェント処理が最大40%高速化
GPT-5.3で1,000TPS超を達成
CodexCursor・Clineが即座に採用
推論高速化の恩恵をユーザーへ直結

OpenAIは2026年4月22日、Responses APIにWebSocketモードを正式導入したと発表しました。従来のHTTPベースでは、エージェントがツール呼び出しのたびに会話履歴全体を再送信する必要があり、推論速度が向上してもAPIのオーバーヘッドがボトルネックになっていました。WebSocketによる永続接続でこの構造的課題を解消し、エージェントのエンドツーエンド処理を最大40%高速化しています。

技術的には、WebSocket接続のライフタイム内で前回のレスポンス状態をインメモリにキャッシュする設計です。後続リクエストがprevious_response_idを指定すると、サーバーはキャッシュから状態を取得し、トークンの再レンダリングやモデル解決ロジックの再実行を省略します。安全性分類器やバリデーターも差分入力のみを処理するよう最適化されました。

開発の背景には、コーディングエージェントCodex向けの高速モデルGPT-5.3-Codex-Sparkの存在があります。同モデルは専用のCerebrasハードウェア上で1,000TPS超の推論速度を実現しますが、従来のAPI構造ではCPU側の処理がGPUの速度に追いつかない状態でした。WebSocketモードの導入により、本番環境で1,000TPSの目標を達成し、バースト時には4,000TPSも記録しています。

既にVercel AI SDK、Cline、Cursorなど主要な開発ツールがWebSocketモードを統合済みです。Vercelは最大40%、Clineは39%、Cursorは最大30%のレイテンシ改善を報告しています。既存のResponses APIと同じリクエスト・レスポンス形式を維持しているため、開発者はインテグレーションを大幅に書き換えることなく移行できる点も普及を後押ししています。

OpenAIはWebSocketモードを、2025年3月のResponses APIローンチ以来最も重要な機能追加と位置づけています。モデルの推論速度が急速に向上する中、APIインフラ側の最適化がユーザー体験に直結する時代に入ったことを示す事例といえます。

Gemma 4 VLA、8GBのJetsonで音声・視覚応答を実現

エッジ上のVLA構成

8GBのJetson Orin Nanoで動作
音声認識・TTS・視覚を統合
llama.cppでQ4量子化モデルを使用
ツール呼び出しで自律的に判断

デモの仕組みと導入

Parakeet STTで音声をテキスト化
必要時のみウェブカメラを起動
Kokoro TTSで音声応答を生成
単一スクリプトで環境構築可能

GoogleGemma 4 VLA(Vision-Language-Action)モデルが、わずか8GBメモリNVIDIA Jetson Orin Nano Super上で動作するデモが公開されました。音声入力から視覚認識、音声応答までを一台のエッジデバイスで完結させるチュートリアルで、NVIDIAのAsier Arranz氏がHugging Faceブログで詳細な手順を紹介しています。

デモの構成は、Parakeet STTによる音声認識、Gemma 4による推論、Kokoro TTSによる音声合成を組み合わせたパイプラインです。ユーザーがスペースキーを押して質問を話すと、モデルが質問内容を解析します。視覚情報が必要と判断した場合は、自律的にウェブカメラを起動して撮影し、画像を踏まえた回答を生成します。

技術的なポイントは、llama.cppを使ったローカル推論サーバーの構築です。モデルはQ4_K_M量子化版のGGUFフォーマットで提供され、ビジョンプロジェクターと合わせてGPUにオフロードされます。--jinjaフラグによりGemmaのネイティブツール呼び出し機能が有効化され、キーワードマッチングではなくモデル自身が視覚の必要性を判断する仕組みです。

導入手順はシステムパッケージのインストール、Python環境の構築、メモリの最適化、llama.cppのビルド、デバイスの設定、デモの実行という6ステップで構成されています。8GBという限られたメモリを最大限活用するため、スワップの追加やDocker・不要プロセスの停止といったメモリ管理の工夫も紹介されています。

テキストのみで試したい場合は、NVIDIA公式のDockerイメージを使ったワンライナーでの起動も可能です。ただしDocker版はビジョンプロジェクターを読み込まないため、VLAデモのフル機能は利用できません。エッジデバイス上でマルチモーダルAIを手軽に体験できる実践的なチュートリアルとなっています。

Anthropic Mythos、不正アクセスとCISA排除の二重問題

不正アクセスの経緯

Discord経由で2週間利用
委託先の権限を悪用
Mercor漏洩情報を手がかり
未公開モデルにも到達

CISA排除の影響

連邦サイバー司令塔が対象外
NSA・商務省は利用中
予算削減と人員流出が背景
重要インフラ防御に懸念

Anthropicのサイバーセキュリティ特化モデル「Claude Mythos Preview」が、主要OSやブラウザの脆弱性を発見・悪用できる能力を持つとされるなか、二つの深刻な問題が同時に浮上しています。Bloombergの報道によれば、限定公開初日の4月7日から「少数の無許可ユーザー」がモデルにアクセスしており、約2週間にわたり利用を続けていました。

不正アクセスを行ったのは、未公開AIモデルの情報を収集するDiscordチャンネルのメンバーです。Anthropic第三者委託先の権限と、先日発生したMercor社のデータ漏洩で得られた情報を組み合わせ、Mythosのオンライン上の所在を推測しました。メンバーは検知を避けるため、サイバーセキュリティ目的での利用は避けていたと報じられています。

一方、Axiosの報道で米国サイバーセキュリティインフラ安全保障庁(CISA)がMythos Previewへのアクセスを得られていないことが明らかになりました。NSAや商務省など他の連邦機関はすでにモデルを利用しているにもかかわらず、サイバー防衛の中核を担うべき機関が取り残されている状況です。

CISAはトランプ政権下で予算の大幅削減と人員再配置が進んでおり、DHS閉鎖中のハッキング検知能力も限定的だと幹部が議会で証言しています。2020年大統領選を「史上最も安全」と宣言した経緯から政治的攻撃を受けており、今回のMythos排除はその延長線上にあるとみられます。

重要インフラをサイバー攻撃から守る役割を持つ機関が、「主要OSとブラウザすべてにセキュリティ問題を発見した」とされるツールを利用できない事態は、米国のサイバー防衛態勢に構造的な空白を生じさせるリスクがあります。Anthropicは政府関係者と継続的に協議中としていますが、CISAへの提供時期は不透明です。

Google Gemini、エアギャップ環境で単一サーバー稼働が可能に

オンプレミス提供の仕組み

CirrascaleがGDC経由で提供
GPU8基搭載の専用アプライアンス
モデルは揮発メモリ上のみに存在
改ざん時は自動で機能停止

規制業界への影響

金融・医療・政府機関が主要顧客
データ主権問題への対応が可能に
専用環境で安定した応答速度を実現
2026年後半に本格普及の見通し

Cirrascale Cloud Servicesは2026年4月22日、Google Cloudとの提携拡大により、Google Geminiをオンプレミスのエアギャップ環境で稼働させるサービスを発表しました。Google Distributed Cloudを通じて提供されるこのサービスは、ネオクラウド事業者として初めてGoogleの最先端AIモデルを完全プライベートな切断型アプライアンスとして利用可能にするものです。Google Cloud Next 2026に合わせた発表で、プレビュー版の提供が即日開始され、一般提供は6〜7月を予定しています。

アプライアンスはDell製のGoogle認定ハードウェアで、Nvidia GPU8基を搭載し、コンフィデンシャルコンピューティングで保護されています。最大の特徴は、Geminiのモデルが揮発メモリ上にのみ存在する点です。電源を切るとモデルは消去され、ユーザーの入出力データもセッション終了時に自動的にクリアされます。物理的な改ざんが検知された場合は機器が自動停止し、再利用にはCirrascaleやDell、Googleへの返送が必要になります。

このサービスが解決するのは、規制産業が長年直面してきた「最先端AIモデルへのアクセス」と「データセキュリティ」の二律背反です。金融機関や医療機関、政府機関はこれまで、パブリッククラウドAPIを通じて機密データを外部に送信するか、性能の劣るオープンソースモデルで妥協するかの選択を迫られていました。Cirrascale CEOのDave Driggers氏は「フル版のGeminiであり、何も削られていない」と強調しています。

競合との差別化も明確です。MicrosoftのAzure OpenAIAWS Outpostsがクラウド拡張としてオンプレミスを提供するのに対し、CirrascaleのサービスではGoogleインフラから完全に独立した環境でモデルが動作します。最小構成はサーバー1台から導入でき、Google自身のプライベートインスタンスより小規模な展開が可能です。データ主権法への対応として、Google Cloud Platformの拠点がない国でもGeminiを利用できる点も大きな利点です。

料金体系はシートライセンス、トークン課金、定額制の3モデルを用意し、顧客のニーズに柔軟に対応します。ハードウェアの購入とマネージドサービスの組み合わせも可能で、大学や政府系研究機関の予算構造にも適合します。業界アナリストは2027年までにAIモデルの学習・推論40%がパブリッククラウドで実行されると予測しており、プライベートAIへの需要は急速に高まっています。Driggers氏は2026年後半に大手銀行や研究機関が本格導入を開始するとの見通しを示しました。

MIT、AIの「自信過剰」を正す訓練手法を開発

過信の原因と解決策

標準的な強化学習過信を助長
正解・不正解の二値報酬が原因
RLCR手法で信頼度スコアを同時出力
Brierスコアで報酬関数を補正

精度と実用性

校正誤差を最大90%削減
精度を維持したまま不確実性を表現
未知のタスクにも汎化を確認
信頼度による回答選択で精度向上

MIT CSAILの研究チームが、AIモデルに「わからない」と言わせる訓練手法RLCR(Reinforcement Learning with Calibration Rewards)を開発しました。現在の推論モデルは、正解でも推測でも同じ確信度で回答する傾向があり、医療・法律・金融など意思決定に使われる場面で深刻なリスクとなっています。この研究は国際学習表現会議(ICLR)で発表されます。

問題の根本は、OpenAIのo1などに使われる強化学習の報酬設計にあります。従来の手法では正解に報酬、不正解に罰則を与えるだけで、モデルが自身の確信度を表現する動機がありません。その結果、モデルは不確かな場合でも自信を持って回答するよう学習してしまいます。共同筆頭著者のMehul Damani氏は「標準的な訓練では、不確実性を表現するインセンティブが一切ない」と指摘しています。

RLCRは報酬関数にBrierスコアを追加することでこの問題を解決します。Brierスコアはモデルが表明した信頼度と実際の正答率のギャップを測る指標で、自信過剰な誤答と不必要に慎重な正答の両方にペナルティを課します。研究チームは70億パラメータのモデルで検証し、6つの未知のデータセットを含む複数のベンチマークで、校正誤差を最大90%削減しながら精度を維持・向上させました。

共同筆頭著者のIsha Puri氏は「通常の強化学習は校正を改善しないだけでなく、積極的に悪化させる」と述べています。モデルの能力が上がるほど過信も強まるという逆説的な現象が確認されました。一方、RLCRで訓練されたモデルは複数の候補回答から信頼度の高いものを選ぶことで、推論時の精度と校正の両方を改善できます。

さらに興味深い発見として、モデルが不確実性について推論する行為自体に価値があることも示されました。モデルの自己省察的な推論を分類器の入力に含めると、特に小規模モデルで性能が向上したのです。AIの信頼性向上を求める実務家にとって、「自分が何を知らないか」を表現できるモデルの実現は大きな一歩と言えるでしょう。

Thinking Machines LabがGoogle Cloudと数十億ドル規模の契約締結

契約の概要

数十億ドル規模クラウド契約
Nvidia最新GPU「GB300」搭載システムを利用
モデル訓練・デプロイ向けインフラ提供
Google Cloud初の大型顧客の一社

Thinking Machines Labの現在地

Mira Murati氏が2025年2月に設立
シードラウンドで20億ドル調達評価額120億ドル
強化学習ベースのカスタムAIモデル構築ツール「Tinker」を提供

OpenAI CTOのMira Murati氏が設立したAIスタートアップThinking Machines Labが、Google Cloudと数十億ドル規模(一桁台)のインフラ利用契約を締結しました。契約にはNvidiaの最新チップGB300」を搭載したAIシステムへのアクセスが含まれ、モデルの訓練とデプロイを支援します。

Googleは近年、AIスタートアップとのクラウド契約を積極的に進めています。今月にはAnthropicGoogleおよびBroadcomとTPU数ギガワット分の契約を締結。一方でAnthropicAmazonとも最大5ギガワットの契約を結んでおり、クラウド各社の競争は激化しています。Thinking Machines Labにとっては初のクラウドプロバイダー契約であり、排他契約ではないため将来的に複数プロバイダーの利用も想定されます。

Thinking Machines Labは2025年2月の設立後、20億ドルのシードラウンド評価額120億ドル)を完了し、同年10月に初製品「Tinker」を発表しました。TinkerはカスタムフロンティアAIモデルの構築を自動化するツールで、強化学習アーキテクチャを基盤としています。

今回の契約はTinkerの強化学習ワークロードを支える計算基盤の確保が目的です。GB300搭載システムは前世代比で訓練・推論速度が2倍に向上するとされ、Thinking Machines Labは同システムの最初期の顧客となります。急成長するフロンティアAIラボを早期に囲い込むGoogleの戦略が鮮明になった契約といえます。

NVIDIAとGoogle Cloud、AI工場基盤で協業拡大

次世代インフラ整備

Vera Rubin搭載A5Xを発表
推論コスト前世代比10分の1
最大96万GPU規模に拡張可能
OpenAIが大規模推論で採用

エージェントAIと産業AI

Nemotron 3をAgent基盤で提供
強化学習のマネージドAPI公開
Omniverseデジタルツイン構築
ロボット訓練からデプロイまで一貫

NVIDIAGoogle Cloudは、Google Cloud Next 2026において、AIファクトリー向けインフラの大幅な拡充を発表しました。10年以上にわたる協業の成果として、エージェントAIとフィジカルAIの本番環境への展開を加速する新たなマイルストーンとなります。両社はチップからソフトウェアまでフルスタックで共同設計したプラットフォームを提供し、開発者やエンタープライズのAI活用を支援します。

インフラ面では、次世代Vera Rubin NVL72を搭載したA5Xベアメタルインスタンスが発表されました。前世代と比較して推論コストを10分の1、メガワットあたりのトークンスループットを10倍に改善します。単一サイトで最大8万GPU、マルチサイトでは最大96万GPUへのスケーリングが可能です。

Blackwellプラットフォームでは、A4からA4X Maxまで幅広いVMラインナップを揃えました。OpenAIChatGPT推論ワークロードにGB300およびGB200 NVL72システムを採用するなど、フロンティアAIラボによる実運用が進んでいます。また、機密コンピューティング対応のConfidential G4 VMも発表され、規制産業向けにプロンプトやモデルの暗号化保護を実現しました。

エージェントAI領域では、Nemotron 3 SuperGemini Enterprise Agent Platformで利用可能になりました。NeMo RLベースのマネージド強化学習APIも導入され、クラスタ管理を自動化しながら大規模なRL訓練を実行できます。CrowdStrikeがサイバーセキュリティ向けにNeMoライブラリを活用するなど、実用事例も広がっています。

フィジカルAI分野では、OmniverseライブラリとIsaac SimがGoogle Cloud Marketplaceで提供され、デジタルツインの構築やロボットシミュレーションが可能になりました。Cosmos Reason 2などのNIM マイクロサービスをVertex AIにデプロイすることで、ロボットやビジョンAIエージェントが物理世界で推論・行動できる基盤が整います。SnapやSchrödingerなど大企業からスタートアップまで、9万人超の開発者コミュニティがこのプラットフォームを活用しています。

AIモデル5種のソーシャルエンジニアリング能力を検証

AIが生成する巧妙な詐欺

DeepSeek-V3が標的に合わせた攻撃文を自動生成
個人の関心事を織り込んだ自然な誘導
複数回のやり取りで信頼を構築
攻撃の全工程を自動化可能

防御と対策の現在地

攻撃の巧妙さより規模拡大が本質的脅威
企業攻撃の9割は人的リスクが起点
オープンソースモデルが防御側にも不可欠
AI監視ツールで詐欺メッセージを検知

Charlemagne Labsが開発したツールを用いて、5種類のAIモデルによるソーシャルエンジニアリング攻撃の能力が検証されました。テストではAIが攻撃者と標的の両方の役割を演じ、数百から数千回のシミュレーションを実行します。記者自身を標的にした実験では、DeepSeek-V3が記者の関心分野を巧みに織り込んだフィッシングメッセージを生成し、複数回のメールのやり取りを通じて不正リンクへの誘導を試みました。

テストに使われたのはAnthropic Claude 3 Haiku、OpenAI GPT-4o、Nvidia Nemotron、DeepSeek-V3、Alibaba Qwenの5モデルです。すべてのモデルがソーシャルエンジニアリング手法を考案しましたが、説得力にはばらつきがありました。一部のモデルは途中で混乱して不自然な出力を返したり、倫理的な制約から攻撃の続行を拒否する場面もありました。

SocialProof社CEOのRachel Tobac氏は、AIが攻撃の巧妙さを飛躍的に高めたわけではないものの、一人の攻撃者が大規模に攻撃を展開できる点が脅威だと指摘します。音声クローンやディープフェイク動画を使った詐欺事例もすでに報告されており、攻撃パイプライン全体の自動化が進んでいます。

Charlemagne Labsの共同創業者Jeremy Philip Galen氏は、現代の企業攻撃の90%が人的リスクに起因すると述べています。同社はMetaの最新モデルMuse Sparkの能力評価にも協力しました。一方で共同創業者のRichard Whaling氏は、防御側のAIモデル訓練にオープンソースモデルが不可欠であり、健全なオープンソースコミュニティの維持が防御の鍵になると強調しています。

Anthropic、8.1万人調査でAI職業不安の実態を公開

調査の概要と狙い

8.1万人Claude利用者を調査
月次サーベイを新たに開始
労働市場の定量データを補完
利用者の定性的な声を収集

雇用不安と生産性の実態

AI露出度が高い職種ほど不安増
若手ほど職業脅威を強く認識
生産性向上の最大要因は業務範囲拡大
高速化を実感する層ほど不安も増大

Anthropicは2026年4月22日、Claudeユーザー8万1,000人を対象に実施した大規模調査の結果と、新たな月次サーベイ「Anthropic Economic Index Survey」の開始を同時に発表しました。従来の雇用統計やAI利用率といった定量データだけでは捉えきれない、働く人々のリアルな声を定期的に収集し、AI時代の経済変化を先行的に把握する狙いがあります。

調査では回答者の約5分の1がAIによる職業の代替に懸念を示しました。特に、Claudeが多くのタスクを担っている職種に就く人ほど脅威を強く感じる傾向が確認されています。ソフトウェアエンジニアは小学校教員より不安が大きく、AI露出度の上位25%は下位25%の3倍の頻度で懸念を表明しました。キャリア初期の若手層もシニア層に比べて不安が顕著です。

一方で、生産性への影響は総じてポジティブでした。平均評価は7段階中5.1の「大幅に生産性向上」に達し、最大の恩恵は業務範囲の拡大(48%)と作業速度の向上(40%)です。高所得の専門職だけでなく、配達ドライバーがECサイトを立ち上げるなど低所得層でも活用が進んでいます。

興味深いことに、AIによる作業高速化を最も強く実感している層が、同時に最も強い雇用不安を抱えているというU字型の関係が明らかになりました。タスク処理時間の短縮が自分の役割の将来的な存続への懸念につながるという構造です。生産性の恩恵は主に労働者本人に帰属すると回答された一方、若手では自己への還元を感じる割合が60%にとどまり、シニアの80%との差が開いています。

新設の月次サーベイでは、2週間以上のアカウント歴を持つClaude個人ユーザーからランダムに招待し、AI Interviewerを通じて業務変化や将来予測を聞き取ります。Anthropicはこのデータをプライバシー保護技術と組み合わせ、労働市場の変化を集計統計に現れる前に検知する「早期警戒システム」として活用する方針です。

Gemini Embedding 2が正式版に昇格

マルチモーダル埋め込み

テキスト・画像動画音声に対応
複雑なパイプラインを統合可能
EC検索動画分析で実証済み

提供と今後の展開

Gemini APIとVertex AIで利用可能
本番環境向けの安定性を確保
Google製品の基盤技術を外部開放

Googleは2026年4月22日、マルチモーダル埋め込みモデルGemini Embedding 2の一般提供(GA)を開始しました。プレビュー期間中にEC向け検索エンジンや動画分析ツールなど多数のプロトタイプが構築されており、今回の正式版ではこれらを本番環境へ移行するための安定性と最適化が施されています。

Gemini Embedding 2の最大の特徴は、テキスト・画像動画音声をネイティブに扱えるマルチモーダル対応です。従来はモダリティごとに個別のパイプラインを構築する必要がありましたが、単一モデルで横断的な検索推論が可能になります。これにより、開発者は複雑なインフラ構成を大幅に簡素化できます。

提供チャネルはGemini APIVertex AIの2系統です。個人開発者から大規模エンタープライズまで、既存のGoogle Cloudワークフローに統合しやすい設計となっています。

同モデルはGoogleの各種プロダクトを支える基盤技術であり、社内で蓄積された研究成果を外部の開発者コミュニティにも開放する位置づけです。RAGやセマンティック検索を構築する際の選択肢として、マルチモーダル対応の埋め込みモデルが正式版で利用できる意義は大きいといえます。

OpenAIがInfosysと提携、Codexを企業向けに展開

提携の概要と狙い

CodexをTopaz AIに統合
ソフトウェア開発・DevOpsが対象
60カ国超の顧客基盤を活用
実験段階から大規模導入へ

業界動向と背景

インドIT大手の株価が年初来22%下落
AI関連売上は四半期約267億円
Codex Labs設立で導入支援を強化
週間400万人超Codexユーザー

OpenAIインドIT大手Infosysと提携し、コーディング支援ツールCodexを含むAIツール群をInfosysのTopaz AIプラットフォームに統合すると発表しました。ソフトウェア開発の近代化、ワークフローの自動化、AIシステムの大規模展開を支援する狙いで、まずはソフトウェアエンジニアリング、レガシーシステムの刷新、DevOps領域に注力します。

この提携はAI企業がグローバルITサービス事業者と組み、大企業でのAI導入を加速させるトレンドの一環です。OpenAIは以前からHCLTechと提携しており、InfosysもAnthropicと同様の契約を結んでいます。OpenAIにとってInfosysの60カ国超にわたる顧客基盤は、エンタープライズ市場への重要な販売チャネルとなります。

インドのIT業界は厳しい局面にあります。クライアント支出の鈍化と生成AIの急速な進化が重なり、Infosysの株価は年初来で22%以上下落しました。従来のアウトソーシング業務がAIに置き換えられるとの懸念や、米国・イランの地政学リスクも影響しています。一方でInfosysはAI事業を積極的に拡大しており、12月四半期のAI関連売上は約250億ルピー(約267億円)に達し、総売上の約5.5%を占めています。

OpenAIは同日、企業向けCodex導入を支援するCodex Labsの設立も発表しました。Accenture、Capgemini、Cognizant、PwC、TCSなど大手ITサービス企業が初期パートナーに名を連ねます。Codexは現在週間アクティブユーザー400万人を超えており、これらのパートナー網を通じてさらなる普及を目指します。金額など契約の詳細は公表されていません。

北朝鮮ハッカーがAIで暗号資産1200万ドル窃取

AIによる攻撃手法

ChatGPTCursorでマルウェア作成
偽企業サイトをAIデザインツールで構築
開発者向け偽求人で2000台以上に感染
未熟な人員でも高度な攻撃が可能に

北朝鮮のAI活用拡大

AI専門の研究センター227を設立
IT労働者の偽装就職にディープフェイク活用
31人規模の攻撃チームを運用
核開発・制裁回避の資金源として機能

サイバーセキュリティ企業Expelは、北朝鮮の国家支援ハッカー集団「HexagonalRodent」がAIツールを駆使して暗号資産約1200万ドルを窃取した攻撃活動を公表しました。攻撃者はOpenAIChatGPTCursor、Animaなど米国企業のAIツールを使い、マルウェアの作成から偽企業サイトの構築まで、攻撃のほぼ全工程をいわゆる「バイブコーディング」で実行していました。

攻撃の手口は、暗号資産関連の開発者に偽の求人を送り、採用テストと称してマルウェア入りのコード課題をダウンロードさせるものです。これにより2000台以上のPCに認証情報窃取マルウェアが仕込まれ、暗号ウォレットの鍵が盗まれました。攻撃者は自らのインフラセキュリティが甘く、AIへのプロンプトや被害者のウォレット追跡データベースが露出していました。

WannaCryの無力化で知られるセキュリティ研究者Marcus Hutchins氏は、マルウェアのコードに英語の詳細なコメントや絵文字が多用されている点をAI生成の証拠として指摘しています。コード自体は一般的なセキュリティツールで検知可能な水準でしたが、個人開発者を標的にすることで防御の隙をついていました。

北朝鮮は軍の偵察総局傘下にAI特化のハッキングツール開発組織「研究センター227」を設立し、国家ぐるみでAI活用を推進しています。IT労働者の偽装就職ではディープフェイクによる面接対応、AIによる履歴書作成や技術質問への回答生成が確認されています。OpenAIAnthropicも自社プラットフォーム上で北朝鮮による悪用を検知し、アカウントを停止しています。

Hutchins氏は、AIが北朝鮮にとって「力の増幅装置」として機能していると警告します。未熟なオペレーターにAIモデルへのアクセスを与えるだけで攻撃が可能になるため、攻撃チームは自動化で人員を減らすのではなく、むしろ31人規模まで拡大しています。同氏は、将来の仮想的なAI脅威よりも、今まさに起きているAIを悪用した実際の攻撃活動セキュリティ業界は注力すべきだと訴えています。

ソニーの卓球ロボット「Ace」がプロ選手に勝利

ロボットの技術構成

8関節の多軸アーム搭載
12台カメラで球の3D位置を計測
回転・角速度を推定し軌道予測
ITTF公式ルールに完全準拠

対人戦の成績

エリート選手に5戦3勝の成績
2025年12月にはプロにも勝利
Nature誌に研究論文を発表

ソニーのAI部門が開発した卓球ロボット「Ace」が、国際卓球連盟(ITTF)の公式ルールに従った試合でトップレベルの人間選手を破りました。チェスや囲碁ではAIがすでに人間を上回っていますが、高速で動くボールの回転や軌道変化に対応する必要がある卓球のようなフィジカルな競技ロボットが人間に勝つのは初めてのことです。

Aceは8つの関節を持つ多関節ロボットで、2つの関節がパドルの位置制御、2つが姿勢制御、残り3つが強力なショットの打ち分けを担います。コート周囲に配置された9台の通常カメラがボールの3D位置を特定し、さらに3台の「視線制御システム」がボールの角速度と回転を計測して軌道を正確に予測します。

2025年4月のテストマッチでは、10年以上の訓練経験を持つエリート選手に対して5戦3勝を記録しました。プロリーグで活躍する選手には2敗しましたが、その後2025年12月と2026年3月にはプロ選手にも勝利を収めています。この成果は学術誌Natureに論文として発表されました。

これまでの卓球ロボットとしては、オムロンのFORPHEUSがCES 2017でアマチュア選手と対戦した例がありますが、トップランクの選手と公式ルールで互角以上に渡り合えるロボットはAceが初です。AIによる身体的スキルの獲得が新たな段階に入ったことを示す成果といえます。

AI創薬候補の分析を自動化、10x Scienceが480万ドル調達

質量分析とAIの融合

質量分析データをAIで自動解釈
化学・生物学の決定的アルゴリズムと統合
規制対応に必要なトレーサビリティを確保

創業と資金調達

スタンフォード大ノーベル賞研究室が原点
Initialized Capital主導で480万ドル調達
Y Combinatorなど複数VCが参加

市場での評価

分析受託企業が作業効率の向上を実証
大手製薬企業との連携も進行中

10x Scienceは、AIが大量に生成する創薬候補化合物の分析を自動化するスタートアップです。2025年12月に設立され、Initialized Capital主導のシードラウンドで480万ドルを調達したと発表しました。Y Combinator、Civilization Ventures、Founder Factorも出資に参加しています。

同社の3人の創業者は、スタンフォード大学のノーベル化学賞受賞者キャロリン・ベルトッツィ博士の研究室で共に働いた経験を持ちます。がん細胞と免疫系の相互作用を研究する中で、分子レベルの正確な分析が困難であることに課題を感じたことが起業のきっかけとなりました。

10x Scienceのプラットフォームは、化学・生物学に基づく決定的アルゴリズムと、質量分析データを解釈するAIエージェントを組み合わせています。質量分析は分子の質量と電荷を測定して構成や構造を特定する手法で、高い精度を持つ一方、データ解釈に専門知識と時間を要します。同社はこの解析を自動化し、規制対応に必要なトレーサビリティも担保しています。

化学分析受託企業Rilas Technologiesの研究者マシュー・クロフォード氏は、数週間の利用で作業の高速化を実感したと語っています。AIがファイル名から分析対象のタンパク質を推定し、配列データベースを自動検索する機能に驚いたといいます。過去に試した他のAIツールと異なり、妥当な仮定を置いて分析を進める点を評価しています。

同社は今回の調達資金でエンジニアの採用とモデルの改良を進める方針です。投資家にとっては、特定の新薬の成否に依存しないSaaS型ビジネスモデルである点が魅力となっています。創業者らは将来的に、タンパク質構造と細胞の他のデータを統合した「分子インテリジェンス」の構築を目指すと述べています。

Google Maps、企業向け生成AI機能を発表

3つの新機能

Street View上でAI画像生成
衛星画像の自動分析機能追加
地理空間AIモデル2種を公開
従来数週間の作業を数分に短縮

企業への影響

映画や建設の事前可視化が容易に
自前AI構築が不要に
BigQueryとの連携で分析強化
都市計画や環境監視に活用拡大

GoogleCloud Next 2026にて、Google Mapsおよび地理空間アプリケーション向けの新たな生成AI機能を発表しました。今回のアップデートはエンタープライズユーザーを主な対象としており、マッピングプラットフォームに高度なビジュアル分析とデータ分析能力を追加するものです。

目玉機能の一つ「Maps Imagery Grounding」は、Gemini Enterprise Agent Platformにプロンプトを入力するだけで、Google Street View上にリアルなシーンを生成できる機能です。映画のロケ地や建設予定地のイメージを数秒で可視化でき、Veoを使ったアニメーション化にも対応しています。

もう一つの新機能「Aerial and Satellite Insights」は、Google Cloud BigQueryに保存された衛星画像をAIで分析する機能です。Googleによれば、従来数週間かかっていた画像分析作業を数分に短縮できるとしています。

さらに、橋梁・道路・送電線など特定のオブジェクトを画像から識別する2つのEarth AIモデルも新たに提供されます。これにより、企業が独自にAIモデルを構築・学習させる必要がなくなり、数カ月の開発期間を省略できます。

これらの発表は、Googleがエンタープライズ向け地理空間AIへの注力を強化する動きの一環です。すでにAirbusやボストン小児病院が環境モニタリングや災害対応にEarth AIプラットフォームを活用しており、都市計画やデータ分析分野での応用拡大が見込まれています。

Musk対Altman裁判が4月27日に開廷

裁判の争点

OpenAIの設立理念からの逸脱が焦点
AGIの管理・配布方針を左右する判決
陪審員助言付きの裁判官判断

注目の背景

Big Tech屈指の2大巨頭が法廷で対決
AI開発の公益性が司法で問われる初の大型訴訟
判決はAI業界全体の規範形成に影響
WIREDが5月8日に解説ライブ配信予定

イーロン・マスクサム・アルトマンが法廷で直接対決する注目の裁判「Musk v. Altman」が、4月27日に開廷します。この裁判では、OpenAIが「汎用人工知能(AGI)が人類に利益をもたらすようにする」という設立時の使命から逸脱したかどうかが争われます。

裁判は陪審員の助言を受けた裁判官が最終判断を下す形式で進行します。判決の結果は、世界最大級のAI開発企業であるOpenAIが今後どのように技術を管理・提供するかに直接影響を及ぼす可能性があります。マスク氏はOpenAIの共同創設者でありながら、同社が営利志向に転じたことを批判してきました。

この裁判は、AI開発における公益性と商業性の線引きを司法が初めて本格的に判断する事例として、業界全体から注目を集めています。判決次第では、他のAI企業の組織運営やガバナンスにも波及効果をもたらすと見られています。

米メディアWIREDは、裁判の経過を踏まえた解説パネルを5月8日に配信予定で、専門記者3名がリアルタイムで読者の質問に回答する計画です。AI業界の将来を占うこの裁判の行方に、世界中の関係者が注目しています。

ウォーレン議員、AI業界の債務膨張に金融危機リスクを警告

2008年危機との類似性

AI企業の巨額借入が急増
私的信用基金など不透明な資金源に依存
収益が投資ペースに追いつかず
債務不履行で連鎖的損失の恐れ

規制強化の提案

グラス・スティーガル法型の投資分離を提唱
デジタル専門規制機関の新設を要求
AI業界への公的救済拒否を主張

エリザベス・ウォーレン米上院議員は4月22日、ワシントンDCのバンダービルト政策イベントで講演し、AI業界の資金調達構造が2008年の金融危機と「驚くほど類似している」と警告しました。2008年の景気後退後に消費者金融保護局の設立を主導した同議員は、AI技術に「巨大な可能性」を認めつつも、企業の過剰な支出と借入が危険な状況を生み出していると指摘しています。

ウォーレン議員によると、AI業界の成長速度は支出の増加ペースに追いついておらず、企業は従来の銀行と同等の規制監督を受けない私的信用基金などの不透明な資金源からの借入に依存しています。「AI企業が超高速で収益を増やせなければ、膨大な債務を返済できなくなる」と同議員は述べました。

同議員はAI企業の資金構造を、地方銀行・保険基金・年金基金など多くの金融機関と紐づいた登山ロープに例えました。一社が転落すれば、すべてが巻き添えになるという構図です。その解決策として「ロープを切れ。AIにロープは不要だ」と訴えました。

具体的な政策提案として、リスクの高い投資と商業銀行業務を分離したグラス・スティーガル法に相当する規制の導入を提唱しています。さらに独占禁止・プライバシー・消費者保護を統括するデジタル専門の規制機関を新設し、業界が破綻した場合の公的資金による救済を拒否するよう議会に求めました。

AI生成の保守派インフルエンサーで数千ドル稼ぐ医学生

AIが提案した収益戦略

Google Gemini架空の女性画像を生成
保守派ニッチを「チートコード」と助言
高齢男性層の購買力とロイヤリティを狙う

背景と波紋

インドの医学生副業として開始
汎用的な美女画像では埋没し方針転換
Googleは中立設計と釈明
AI生成コンテンツ倫理的課題が浮上

インドの22歳の医学生「Sam」(仮名)が、Google Gemini画像生成機能を使って架空のMAGA支持者の女性インフルエンサーを作り上げ、数千ドルの収入を得ていることがWIREDの報道で明らかになりました。整形外科医を目指すSamは留学資金を貯めるため、オンラインでの副収入を模索していました。

当初は一般的なAI生成の美女画像Instagramに投稿していましたが、まったく反響を得られませんでした。そこでGeminiに相談したところ、保守派・MAGA層をターゲットにすることが差別化の鍵だと提案されました。Geminiは「米国の保守的な高齢男性層は可処分所得が高く、忠誠心も強い」と分析しています。

この事例は、AIツールが政治的ニッチの収益性を具体的に助言できる段階に達していることを示しています。Googleの担当者はGeminiが特定の政治的意見を持たない中立設計だと説明しましたが、ユーザーの誘導次第でマーケティング戦略を提示する実態が浮き彫りになりました。

AI生成画像による偽のペルソナ作成は、政治的分断の悪用やオンライン詐欺との境界が曖昧です。生成AIの普及に伴い、プラットフォームの責任とコンテンツの真正性をめぐる議論がさらに加速しそうです。

教皇のAI警告投稿、AI検出ツールが「AI生成」と判定

Pangram拡張機能の実力

精度99.98%を主張するAI検出ツール
SNS投稿をリアルタイムで自動判定
月額20ドルの有料Chrome拡張機能
シカゴ大学の第三者評価で最高評価

ネット上のAIスロップ問題

新規サイトの3分の1超がAI生成テキスト
Reddit・X・LinkedInに蔓延するAI投稿
教皇・著名人の投稿にもAI生成の痕跡
受動的な情報摂取への警鐘

AI検出ツールを開発するPangram Labsが、リアルタイムでSNS投稿のAI生成判定を行うChrome拡張機能の最新版を一般公開しました。月額20ドルの有料プランでは、Reddit、X、LinkedIn、Medium、Substackの投稿を自動的にスキャンし、「人間が書いた」「AI生成」「AIの補助あり」の3段階で分類します。同社は精度99.98%、誤検出率1万分の1と主張しています。

注目を集めたのは、教皇レオ14世の公式Xアカウントに対する判定結果です。AIが人間の精神に及ぼす危険性を論じるスレッドの中で、最初の投稿は「人間が執筆」と判定された一方、続く3つの投稿は「AI生成」とフラグが立てられました。「シミュレーションが常態化すると、人間の識別能力が弱まる」というAIへの警告文が、皮肉にもAI生成と判定されたのです。Pangram CEOのMax Spero氏は「教皇本人がSNSを運営していないのは明らかで、担当者がAIを使っている」と指摘しています。

この拡張機能が浮き彫りにするのは、インターネット上のAIスロップ(AI生成の低品質コンテンツの蔓延です。スタンフォード大学らの研究によると、2025年時点で新規ウェブサイトの3分の1以上がAI生成テキストを含んでいます。Redditでは新規アカウントによるAI生成投稿が確認され、LinkedInやSubstackのインフルエンサー投稿にもAI生成の判定が頻出しています。

Pangramの検出精度は第三者機関からも高く評価されています。2025年のシカゴ大学の調査では、AI検出ソフトウェアの中で最高評価を獲得し、特に長文での誤検出率がほぼゼロであることが確認されました。Spero氏は「人間とAIの境界に近い、より難しいサンプルでも訓練している」ことが競合より優れている理由だと説明しています。リアルタイム検出の普及は、読者がより批判的に情報を吟味するきっかけになると期待されています。

NVIDIA AIで地球を守る5つの取り組み

気候・防災への応用

Earth-2で高精度気象予測
津波警報を従来比100億倍高速化
衛星画像処理を秒単位に短縮

環境保全と資源循環

オランウータン巣の自動検出
AI選別で廃棄物回収率90%達成
リサイクル施設のCO2排出大幅削減
Planet社の地球観測データ即時分析

NVIDIAはアースデーに合わせ、AI技術で地球環境を保護する5つのプロジェクトを紹介しました。気候シミュレーション基盤「Earth-2」による高精度気象予測、絶滅危惧種オランウータンの保全、AIロボティクスによるリサイクル、津波早期警報、衛星画像のリアルタイム解析という5分野で、加速コンピューティングが環境課題の解決を後押ししています。

気象分野では、Earth-2がオープンなAI気象ソフトウェアスタックとして観測データの前処理から15日間の予測まで全工程を高速化します。Earth-2 Nowcastingは生成AIを活用し、国規模の予測をキロメートル解像度・6時間先までの局地予報に数分で変換します。データ同化モデル「HealDA」はNOAAやMITREと共同開発され、単一GPUで大気の全球スナップショットを数分で生成できます。

野生動物保全では、ボルネオとスマトラの熱帯雨林でGPU加速AIがオランウータンの巣をドローン画像から自動検出する研究が成果を上げています。従来は1時間のドローン飛行で30時間の画像分析が必要でしたが、AIモデルは1,800枚の画像を5分以内に処理します。InceptionV3ベースのモデルは99%超の精度を達成し、3種すべてが絶滅危惧種であるオランウータンの迅速な個体数モニタリングを可能にしています。

リサイクル分野では、NVIDIA InceptionメンバーのAMP社がAIロボティクスで廃棄物回収率90%を実現し、従来施設の約75%を大きく上回っています。これまでに20億ポンド以上の素材を埋立処分から転換し、推定73万9千トンのCO2排出を削減しました。NVIDIA Hopper GPUの採用でAI推論の消費電力も半減しています。

防災では、テキサス大学オースティン校のチームがカスカディア断層の津波予測でACMゴードンベル賞を受賞しました。物理モデルの事前計算とGPU処理により、従来手法の100億倍の速度で津波予測を完了し、沿岸住民の避難時間を確保します。また、Planet社はNVIDIAとの協業で衛星の生データからの画像処理パイプラインをGPUネイティブで構築し、山火事などの災害情報を従来の数時間から秒単位で提供する基盤を整えています。