OpenAI、1220億ドル調達 評価額8520億ドルでIPOへ布石

史上最大の資金調達

評価額8520億ドルで完了
SoftBanka16zら共同主導
個人投資家から30億ドル調達

急成長する事業規模

月間売上20億ドルに到達
週間ユーザー9億人超え
法人比率が売上の40%に拡大

インフラと今後の戦略

AIスーパーアプリ構想を発表
複数チップ基盤に分散投資

OpenAIは2026年3月、1220億ドル(約18兆円)の資金調達を完了したと発表しました。評価額8520億ドルに達し、同社史上最大の調達ラウンドとなります。年内に予定されるIPOに向けた布石とみられています。

ラウンドはSoftBankAndreessen Horowitzが共同主導し、D.E. Shaw Ventures、MGX、TPGなどが参加しました。AmazonNVIDIAMicrosoftも戦略的パートナーとして出資しています。初めて銀行チャネルを通じた個人投資家にも門戸を開き、30億ドル以上を集めました。

事業面では月間売上が20億ドルに達し、AlphabetやMetaの同時期と比べ4倍の成長速度だと同社は主張しています。ChatGPTの週間アクティブユーザーは9億人を超え、有料会員は5000万人以上です。検索利用は1年で約3倍に伸びています。

法人向け事業は売上全体の40%を占めるまでに成長し、2026年末までにコンシューマーと同等になる見通しです。最新モデルGPT-5.4エージェントワークフローの需要を牽引し、APIは毎分150億トークン以上を処理しています。広告事業も開始からわずか6週間でARR1億ドルを突破しました。

同社はAIスーパーアプリ構想を掲げ、ChatGPTCodex、ブラウジング機能などを単一のエージェント体験に統合する方針です。インフラ面ではNVIDIA、AMD、AWS Trainiumなど複数のチップ基盤に拡大し、回転信用枠も約47億ドルに増額しました。調達資金はAIチップデータセンターの拡充に充てられます。

axios等npm主要パッケージに連続サプライチェーン攻撃、保守者認証情報が弱点

axiosへの攻撃の全容

週1億DLのaxiosに悪意あるRAT混入
保守者のnpmトークン窃取が起点
OIDC認証を迂回しCLI経由で公開
公開から89秒で最初の感染確認

7カ月で3件の同種攻撃

2025年9月のShai-Huludワームで500超パッケージ被害
レガシートークンが毎回の根本原因
npm改革後も旧認証並存し無効化されず

企業が取るべき対応策

lockfileで該当バージョン有無を確認
感染時は全認証情報のローテーション必須
CI/CDignore-scriptsを強制適用

2026年3月31日、JavaScriptで最も広く使われるHTTPライブラリaxiosのnpmパッケージがサプライチェーン攻撃を受け、悪意あるバージョンが約3時間にわたり公開されました。攻撃者は保守者のnpmトークンを窃取し、遠隔操作型トロイの木馬を仕込んだ2つのバージョンを配布しています。

axiosは週1億回以上ダウンロードされ、クラウド環境の約80%に存在するとWizが報告しています。Huntressは公開から89秒で最初の感染を検知し、露出期間中に少なくとも135システムの感染を確認しました。影響を受けたバージョンはaxios@1.14.1とaxios@0.30.4です。

攻撃者はaxiosのソースコードには触れず、plain-crypto-jsという悪意ある依存パッケージを追加しました。このパッケージのpostinstallスクリプトがmacOSWindows・Linuxの各プラットフォーム向けRATを展開します。マルウェアは実行後に自身を消去し、フォレンジック調査を妨害する仕組みでした。

axiosプロジェクトはOIDC Trusted PublishingやSLSA証明など最新のセキュリティ対策を導入していました。しかしCI/CD環境にレガシーなNPM_TOKENが残存しており、npmはOIDCよりトークンを優先する仕様のため、攻撃者はOIDCを迂回できました。これは7カ月間で3件目のnpm認証情報を起点とする攻撃です。

AI採用スタートアップMercorも、オープンソースプロジェクトLiteLLMの侵害に関連するセキュリティ事故を公表しました。Lapsus$がデータ窃取を主張しており、Slackデータや業務動画の流出が指摘されています。サプライチェーン攻撃の被害が企業の事業データにまで波及する事例として注目されます。

企業の対応としては、lockfileやCI/CDログで該当バージョンの有無を確認し、感染が判明した場合は認証情報のローテーションとマシンの再構築が必要です。C2サーバー(sfrclak.com)のDNSブロック、CI/CDでのnpm ci --ignore-scripts強制、レガシートークンの棚卸しが推奨されています。

Claude Codeのソースコード51万行が誤って公開、内部機能が明らかに

リーク発覚の経緯

npm版v2.1.88にソースマップが混入
51万2千行のTypeScriptコードが露出
GitHubリポジトリが5万回以上フォーク
Anthropic人為的ミスと説明

判明した未公開機能

三層構造の自己修復型メモリ設計
常駐型エージェントKAIROS機能
たまごっち風ペットBuddyシステム
内部モデル名Capybara等のロードマップ

業界への影響と対策

競合にエージェント設計の青写真が流出
npm経由のサプライチェーン攻撃リスクも併発
公式はネイティブインストーラへの移行を推奨

2026年3月31日、Anthropicがnpmレジストリに公開したClaude Codeのバージョン2.1.88に、内部デバッグ用のソースマップファイル(59.8MB)が誤って含まれていたことが発覚しました。セキュリティ研究者のChaofan Shou氏がX上で最初に指摘しました。

流出したコードは約2,000のTypeScriptファイル、51万2千行以上に及びます。GitHubの公開リポジトリにミラーされ、数時間で5万回以上フォークされました。Anthropicは声明で「顧客データや認証情報の漏洩はない」と説明し、人為的なパッケージングミスだと認めています。

開発者らの分析で、Claude Code三層メモリアーキテクチャが明らかになりました。軽量インデックスのMEMORY.mdを常時読み込み、詳細はトピックファイルからオンデマンドで取得する設計です。自身の記憶を「ヒント」として扱い、実際のコードベースで検証する懐疑的メモリの仕組みが確認されました。

未公開機能として、常駐型バックグラウンドエージェントKAIROS」の存在が判明しました。ユーザーのアイドル時にメモリ統合処理を行うautoDream機能を備えています。また内部モデルのコードネームとしてCapybaraClaude 4.6)、Fennec(Opus 4.6)などが確認され、Capybara v8では虚偽主張率が29〜30%に悪化しているとの記述もありました。

Gartnerのアナリストは、ガードレール回避のリスクを指摘しつつも長期的影響は限定的との見方を示しています。一方、同時期にnpmパッケージaxiosへのサプライチェーン攻撃も発生しており、該当期間にインストールしたユーザーにはAPIキーの更新と公式ネイティブインストーラへの移行が推奨されています。

Anthropic、1週間で2度の情報流出 Claude Codeの全ソースも公開状態に

相次ぐ情報流出の経緯

Claude Codeのnpmパッケージに51万行超のソースコードが混入
セキュリティ研究者が即座に発見しXで公開
前週には約3,000件の社内ファイルが外部閲覧可能に
未発表モデルの情報を含むブログ下書きも流出

豪州政府との連携強化

AI安全研究オーストラリア政府とMOU締結
豪州の研究機関4校に300万豪ドルのAPI支援
シドニーにアジア太平洋4拠点目を開設予定

労働市場への影響分析

LLMが幅広い職種の80%以上の業務に対応可能と報告
根拠は2023年のOpenAI共著論文で最新データではない

2026年3月末、Anthropicはわずか1週間の間に2度の情報流出を起こしました。3月25日にはClaude Codeのバージョン2.1.88のnpmパッケージに、約2,000ファイル・51万2,000行超のソースコードが誤って含まれていたことが発覚しました。

セキュリティ研究者のChaofan Shou氏がほぼ即座に問題を発見し、Xに投稿して広く知られることになりました。Anthropicは「人的ミスによるパッケージングの問題であり、セキュリティ侵害ではない」と声明を出しています。

流出したのはAIモデルそのものではなく、モデルの動作指示やツール連携を定義するソフトウェア基盤です。開発者からは「APIラッパーではなく本格的な開発者体験」との分析が相次ぎました。競合他社にとって設計思想を知る手がかりとなる可能性があります。

前週の3月27日にはFortune誌が、Anthropicの約3,000件の社内ファイルが一般公開状態になっていたと報じました。未発表の新モデルに関するブログ下書きも含まれており、安全性を標榜する同社にとって信頼への打撃となりました。

一方でAnthropicオーストラリア政府とAI安全研究に関する覚書を締結し、CEOのDario Amodei氏がAlbanese首相と会談しました。豪州の研究機関4校に合計300万豪ドルのAPI支援を行い、希少疾患の遺伝子解析や小児医療研究などに活用されます。

またAnthropicが公表した労働市場影響レポートでは、LLMが幅広い職種で80%以上の業務を理論的に遂行可能とするグラフが注目を集めました。しかしその根拠は2023年8月のOpenAI共著論文に基づいており、最新の実証データではないとの指摘もあります。

Slack大改造、SalesforceがAIエージェント機能30種を一挙追加

Slackbotの進化

再利用可能なAIスキルを新搭載
会議の自動文字起こし・要約機能
MCP対応で外部ツールと連携
デスクトップ操作の監視と提案機能

競合PromptQLの挑戦

会話を共有Wikiに自動蓄積
仮想SQLレイヤーでデータ統合
従量課金制で全社導入を促進

企業導入の要点

属性ベースのアクセス制御を実装
リスク操作に人間承認を必須化

2026年3月、Salesforceはサンフランシスコで開催したイベントにおいて、企業向けチャットツールSlackに30の新AI機能を追加すると発表しました。CEO マーク・ベニオフ氏が登壇し、買収から5年で売上が2.5倍に成長したと述べています。

最大の目玉は再利用可能なAIスキルです。ユーザーが特定タスクを定義すると、Slackbotがチャンネルや接続アプリから情報を集約し、予算作成や会議設定などを自動実行します。スキルはカスタム作成も可能で、業務プロセスの効率化が期待されます。

SlackbotはMCP(Model Context Protocol)クライアントとして動作し、SalesforceAgentforceをはじめとする外部サービスと連携できるようになりました。会議の文字起こしや要約も可能となり、参加者は議事録やアクション項目をすぐに確認できます。

一方、GraphQLユニコーンHasuraからスピンオフしたPromptQLも、AI搭載ワークスペースとして注目を集めています。チーム内の会話を自動的に共有Wikiに蓄積し、AIエージェントが過去の文脈を参照して業務を遂行する仕組みです。CEOのタンマイ・ゴパル氏は「仕事について会話するのではなく、会話が仕事をする」と語っています。

PromptQLは仮想SQLレイヤーによりSnowflakeやPostgresなどのデータベースを直接クエリし、データ複製を不要にしています。セキュリティ面では属性ベースのアクセス制御を実装し、権限のないデータは自動で秘匿されます。高リスクな操作には人間の承認が必要で、SOC 2やGDPRなどの規制準拠も想定した設計です。

企業向けチャットツールがAIエージェントの中核基盤へと進化する流れが加速しています。Salesforceは既存100万社の顧客基盤を活かしたプラットフォーム戦略を、PromptQLは従量課金とデータ主権を武器にした差別化戦略を打ち出しており、両社の動向は今後の業務自動化の方向性を占う試金石となります。

Meta、コード審査の精度を93%に高める構造化プロンプト手法を発表

半形式推論の仕組み

LLMに論理証明テンプレートを付与
前提・実行パス・結論の明示が必須
コード実行不要で意味解析が可能
非構造的推論の推測・幻覚を大幅抑制

実験結果と精度向上

パッチ等価検証で精度93%達成
標準推論比で最大10ポイント改善
障害箇所特定やコードQAでも効果確認

導入時の留意点

推論ステップ数が約2.8倍に増加
既に高精度なタスクでは効果限定的

2026年3月、Metaの研究チームは、LLMによるコードレビューの精度を大幅に向上させる「半形式推論(semi-formal reasoning)」と呼ばれる構造化プロンプト手法を発表しました。コードを実行せずに高精度な意味解析を実現する手法です。

従来、AIエージェントによるコードレビューには、リポジトリごとにサンドボックス環境を構築する高コストな方法か、LLMに自由に推論させる非構造的な方法がありました。後者は根拠のない推測や幻覚が頻発するという課題を抱えていました。形式検証は厳密ですが、任意の企業コードベースには実用的ではありません。

半形式推論では、タスクごとに設計された論理証明テンプレートをLLMに提供します。エージェントは前提条件の明示、具体的な実行パスのトレース、検証可能な証拠に基づく結論の導出を義務付けられます。これにより関数名などの表面的パターンに頼らず、体系的に証拠を収集して判断します。

実験ではClaude Opus-4.5Sonnet-4.5モデルを使用し、パッチ等価検証・障害箇所特定・コード質問応答の3タスクで評価しました。パッチ等価検証では標準推論の78%から88%へ、実環境パッチでは93%の検証精度を達成し、非構造的推論の86%やテキスト類似度手法の73%を上回りました。

Djangoリポジトリの実例では、標準推論がformat()関数をPython標準関数と誤認して2つのパッチを同等と判断した一方、半形式推論はモジュール内で関数名がシャドーイングされていることを発見し、一方のパッチがクラッシュすることを正しく証明しました。

ただし導入にはトレードオフがあります。半形式推論は標準推論と比べて約2.8倍の実行ステップを必要とし、推論コストが増加します。また、既に高精度なタスクでは改善効果が限定的で、Sonnet-4.5のコードQAでは85%の精度から向上しませんでした。

さらに、精緻な証拠連鎖を構築するがゆえに、調査が深いが不完全な場合に高確信度の誤答を出すリスクがあります。サードパーティライブラリのソースコードが参照できない場合も、関数名に基づく推測に頼らざるを得ません。それでも非構造的推論と比較すれば幻覚は大幅に減少します。

この手法はモデルの追加学習やツール導入が不要で、プロンプトテンプレートのみで即座に適用できます。研究チームはテンプレートを公開しており、企業の開発現場で静的解析ツールの柔軟な代替として活用できる可能性を示しています。

AIエージェント急増でSOC運用が限界、各社が防御策を競う

エージェント時代の新たな脅威

侵害の最速突破時間が27秒に短縮
企業端末で1800種のAIアプリを検出
OpenClawの公開インスタンスが50万件に急増
CEOの端末が闇市場で2.5万ドルで販売

主要ベンダーの対応策

CiscoがSplunk向け6種のAIエージェント発表
CrowdStrikeがパイプライン型検知を実装
Palo Altoがエージェント専用レジストリ構築

残された課題と対策

エージェント行動基準を出荷したベンダーなし
ゴーストエージェント棚卸しと無効化が急務

RSAC 2026において、CrowdStrike CEOのジョージ・カーツ氏は攻撃者の最速突破時間が27秒に短縮したと発表しました。企業端末では1800種以上のAIアプリケーションが稼働し、約1億6000万のインスタンスが検出されています。AIエージェントの急増がSOC運用に深刻な影響を与えている実態が明らかになりました。

Ciscoの調査では企業の85%がAIエージェントの試験導入を進めている一方、本番運用に移行できたのはわずか5%にとどまります。この80ポイントの差は、どのエージェントが稼働しているか、何を許可されているか、問題発生時の責任者は誰かといった基本的な問いにセキュリティチームが答えられないことに起因しています。

深刻な事例として、英国企業CEOのOpenClawインスタンスがBreachForumsで2万5000ドルで売りに出されました。AIアシスタントとの全会話履歴、本番データベース、APIキーなどが暗号化されずに平文で保存されていたためです。Cato Networksの調査ではOpenClawのインターネット公開インスタンスが約50万件に達し、うち1万5200件が既知の脆弱性で攻撃可能な状態です。

各ベンダーはRSAC 2026で対策を発表しました。CiscoはSplunk ES向けの6種のAIエージェントとオープンソースの防御フレームワーク「DefenseClaw」を公開。CrowdStrikeは買収したOnumの技術Falconに統合し、パイプライン段階でのリアルタイム検知を実現しました。Palo Alto NetworksはPrisma AIRS 3.0エージェント専用のレジストリと実行時監視を導入しています。

しかし、いずれのベンダーもエージェントの正常行動の基準値を提供していません。人間とエージェントの活動をログ上で区別できない環境が多く、正規の認証情報を持つ侵害済みエージェントがアラートを発生させずに動作する危険があります。OWASP Agentic Skills Top 10がClawHavocを主要事例として公開され、業界標準の整備が始まっています。

企業が直ちに取るべき対策として、全端末のAIエージェント棚卸し、OpenClawのローカルホスト限定設定、既知CVE3件への対応、不要なゴーストエージェントの無効化、そしてエージェントの行動基準策定が挙げられます。エージェントが生成するアラートへの対応速度が、今後90日間のSOC運用の成否を分けることになります。

NVIDIA、AIデータセンターを送電網の柔軟な資産に転換する構想を発表

AI工場と電力網の統合

NVIDIAとEmerald AIが柔軟なAI工場構想を発表
Vera Rubin DSX設計とConductorで電力と計算の一体制御を実現
AESやNextEraなど大手6社が発電容量拡大で協力
電力1Wあたりのトークン生成数が12年間で100万倍向上

送電網AI解析の進展

ThinkLabs AIがシリーズAで2800万ドル調達
NVentures・Edison Internationalが戦略出資
従来30日の送電網解析を3分未満に短縮
精度99.7%の物理ベースAIモデルを開発

エネルギーインフラの革新

Maximoが100MW規模ロボット太陽光設置を完了
TerraPowerが原子炉デジタルツインで設計期間を大幅短縮

NVIDIAとEmerald AIは、エネルギー分野の国際会議CERAWeekにおいて、AIデータセンター(AI工場)を送電網の柔軟な資産として運用する新構想を発表しました。AESやConstellation、NextEra Energyなど大手エネルギー企業6社がこの取り組みに参画しています。

この構想は、NVIDIA Vera Rubin DSXのAI工場リファレンス設計とEmerald AIのConductorプラットフォームを基盤としています。計算処理と電力制御を一体化し、送電網の状況に応じて動的に負荷を調整することで、ピーク需要に備えた過剰なインフラ建設を抑制します。

一方、送電網シミュレーションを手がけるThinkLabs AIは、Energy Impact Partners主導で2800万ドルのシリーズA資金調達を完了しました。NVIDIA投資部門NVenturesやEdison Internationalも出資しており、送電網のAI活用に対する戦略的な期待の高さがうかがえます。

ThinkLabs AIの技術は、従来30〜35日かかっていた送電網の潮流解析を3分未満で完了し、精度99.7%を達成しています。物理法則に基づくAIモデルにより、1000万通りのシナリオを10分で処理でき、数十億ドル規模の設備投資判断の迅速化を支援します。

エネルギーインフラの現場でもAI活用が進んでいます。ロボティクス企業Maximoは100メガワット規模の自律型太陽光パネル設置を完了し、TerraPowerはNVIDIA Omniverseを用いた原子力発電所のデジタルツインで設計期間を数年から数カ月に短縮する取り組みを発表しました。

GE Vernova、Schneider Electric、Vertivもデジタルツインや検証済みリファレンス設計を通じ、AI工場を信頼性の高い送電網参加者として拡張する基盤を整備しています。電力からチップインフラ、モデル、アプリケーションに至る「5層のAIケーキ」全体での業界協力が加速しています。

GitHub Copilot中心の開発手法で3日間に11エージェント構築

エージェント駆動開発の背景

評価ベンチマーク数十万行分析が起点
繰り返し作業の自動化でeval-agents誕生
Copilot SDKで既存ツール・MCP活用

3つの開発戦略

計画モードで会話的プロンプトを重視
リファクタリングと文書整備を最優先に
契約テスト等のガードレール導入

チーム成果と実践手順

5人が3日で11エージェントと4スキル構築
345ファイル・約2.9万行の変更を実現

GitHub Copilot Applied Scienceチームの上級研究者が、コーディングエージェント中心の開発手法を実践し、5人のチームメンバーが3日間で11の新規エージェントと4つのスキルを構築した事例を公開しました。

きっかけは、TerminalBench2SWEBench-Proといった評価ベンチマークの分析業務です。1回の分析で数十万行のトラジェクトリ(エージェントの思考・行動記録)を読む必要があり、GitHub Copilotで重要箇所を絞り込む作業を繰り返していました。

この反復作業を自動化するため「eval-agents」ツールを開発しました。設計の柱は、エージェントの共有・利用を容易にすること、新規エージェントの作成を簡単にすること、そしてコーディングエージェントを主要な開発の担い手にすることの3点です。

開発で重視した戦略は3つあります。第一にプロンプト戦略として、計画モードでの会話的・詳細な指示を推奨しています。第二にアーキテクチャ戦略として、リファクタリング・ドキュメント整備・テスト追加を最優先事項に位置づけています。第三に反復戦略として、ミスが起きた際にエージェントではなくプロセスを改善する「ブレームレス文化」を採用しています。

具体的な開発ループとしては、Copilot/planモードで機能を計画し、テストと文書更新を含めた上で/autopilotで実装させます。その後、Copilot Code Reviewエージェントによるレビューを繰り返し、最後に人間がレビューする流れです。

筆者は、優れたエンジニアやチームメイトとしての能力が、そのままCopilotとの協働でも活きると結論づけています。厳密な型付け、堅牢なリンター、統合・E2E・契約テストの整備により、エージェントが自ら作業を検証できる環境を構築することが重要だと述べています。

Hugging Face、ポストトレーニング基盤TRLがv1.0に到達

TRL v1.0の設計思想

75種超の手法を実装
安定版と実験版を明確に分離
セマンティックバージョニング導入
抽象化を最小限に抑える方針

エコシステムでの位置づけ

月間300万回のダウンロード
UnslothやAxolotlの基盤として機能
汎用ライブラリとしての独自の立ち位置

今後の開発計画

非同期GRPOで学習効率向上へ
エージェント向け学習可視化を計画

Hugging Faceは2026年3月、大規模言語モデルのポストトレーニングライブラリ「TRL」のv1.0を正式リリースしました。6年以上の開発を経て、75種類を超えるポストトレーニング手法を実装する汎用ライブラリとして安定版の節目を迎えています。

ポストトレーニング分野は、PPOからDPO、さらにGRPOへと手法の中心が急速に移り変わってきました。TRLはこの変化に対応するため、強固な抽象化ではなく「変化に適応する設計」を選択しています。クラス階層を避け、実装間の重複をあえて許容することで、新手法への対応速度を維持しています。

v1.0の最大の特徴は、安定版と実験版の明確な分離です。安定版はSFT、DPO、報酬モデリング、RLOO、GRPOなどの主要トレーナーで構成され、セマンティックバージョニングに従います。実験版は新手法を素早く取り込む場として機能し、利用実績に応じて安定版へ昇格する仕組みです。

TRLは月間300万回ダウンロードされる規模に成長し、UnslothAxolotlといった主要プロジェクトの基盤としても利用されています。これらの下流プロジェクトへの影響を考慮し、破壊的変更は0.xリリース期間中に段階的に実施されました。

今後の開発では、生成と学習を分離する非同期GRPOの本格導入、KTOや蒸留系トレーナーの安定版昇格、マルチノード学習の強化が予定されています。さらに、学習ループにヒューリスティクスを組み込み、方策の崩壊や過学習を自動検知する「エージェント向け学習可視化」機能の開発も計画されています。

Google、低価格動画生成モデル「Veo 3.1 Lite」を提供開始

Veo 3.1 Liteの特徴

Veo 3.1 Fastの半額以下で同等速度
テキスト・画像からの動画生成に対応
720p・1080pの解像度を選択可能
4秒・6秒・8秒の長さ指定に対応

開発者向け提供体制

Gemini APIとAI Studioで即日利用可
4月7日にVeo 3.1 Fastも値下げ予定
縦横比16:9と9:16の両方に対応

Googleは2026年3月31日、動画生成AIモデルファミリーの新モデル「Veo 3.1 Lite」の提供を開始しました。開発者が大量の動画を低コストで生成できることを目的とした、同社で最もコスト効率の高い動画モデルです。

Veo 3.1 Liteの最大の特徴は、上位モデル「Veo 3.1 Fast」と同等の生成速度を維持しながら、コストを50%以下に抑えた点です。大量の動画を扱うアプリケーション開発において、大幅なコスト削減が期待できます。

機能面では、テキストから動画を生成する「Text-to-Video」と、画像から動画を生成する「Image-to-Video」の両方に対応しています。解像度は720p1080pを選択でき、動画の長さも4秒・6秒・8秒から指定可能です。

アスペクト比は横型の16:9と縦型の9:16に対応しており、SNS向けの短尺動画からビジネス用途まで幅広い活用が見込まれます。利用はGemini APIおよびGoogle AI Studioの有料プランから可能です。

さらにGoogleは4月7日からVeo 3.1 Fastの価格も引き下げる予定です。動画生成モデル全体のコスト低減を進めることで、より多くの開発者がプロダクトに動画生成機能を組み込めるよう環境を整備しています。

OllamaがApple MLX対応、Macでのローカル推論を大幅高速化

MLX対応の概要

Apple MLXフレームワーク対応開始
Ollama 0.19プレビューで提供
Qwen3.5-35Bモデルのみ対応
Apple Silicon搭載Mac・RAM32GB以上が必要

性能改善と圧縮技術

キャッシュ性能の向上を実現
Nvidia NVFP4圧縮形式に対応
メモリ使用効率の大幅改善

ローカルLLM需要の高まり

OpenClawGitHubで30万スター突破
クラウドAPIの料金・制限への不満が背景

ローカルLLM実行ツールOllamaは、Appleが開発したオープンソースの機械学習フレームワークMLXへの対応を発表しました。これにより、Apple Silicon搭載Macでの大規模言語モデルの推論性能が大幅に向上します。

今回の対応はOllama 0.19のプレビュー版として提供されており、現時点で対応モデルはAlibabaのQwen3.5-35Bパラメータ版のみです。利用にはApple Silicon搭載Macに加え、最低32GBのRAMが必要とされています。

MLX対応に加え、キャッシュ性能の改善やNvidiaNVFP4モデル圧縮形式への対応も同時に発表されました。NVFP4はモデルのメモリ使用量を大幅に削減する技術で、より効率的な推論環境の構築が可能になります。

ローカルモデル実行への関心は急速に高まっています。OpenClawGitHubで30万スター以上を獲得し、中国を中心に世界的な注目を集めています。研究者やホビイスト以外の層にもローカルLLMの活用が広がりつつあります。

背景には、Claude CodeChatGPT Codexなどのクラウドサービスにおけるレート制限や高額なサブスクリプション費用への開発者の不満があります。OllamaはVisual Studio Codeとの統合も拡充しており、ローカル開発環境の充実を進めています。

LangChainとMongoDBがAIエージェント基盤で戦略提携

統合プラットフォームの全容

Atlas上でベクトル検索・状態管理を一元化
自然言語からMongoDB問い合わせを自動生成
LangSmithエージェント全工程を可視化

導入企業の活用事例

Kai Securityが1日で本番運用を実現
Fortune 500企業が金融・医療分野で採用
コンプライアンスや顧客対応を自動化

オープンな設計思想

LLMプロバイダー・クラウド自由に選択可能
LangGraph等の主要コンポーネントはOSS公開

LangChainMongoDBは2026年3月、AIエージェントの開発から本番運用までを単一プラットフォームで完結させる戦略的パートナーシップを発表しました。6万5000社以上が利用するMongoDB Atlas上にエージェント基盤を構築する統合ソリューションです。

統合の中核は、Atlas Vector SearchによるRAG検索拡張生成の実装です。セマンティック検索、ハイブリッド検索、GraphRAGを単一のMongoDBデプロイメントから実行でき、ベクトルデータと業務データを同じ基盤で管理するため、同期処理や二重管理の負担がなくなります。

MongoDB Checkpointerエージェントの状態をMongoDBに永続化する仕組みで、会話履歴の保持、障害からの自動復旧、任意時点への巻き戻しデバッグが可能です。LangSmithデプロイメント環境で設定するだけで、アプリケーションデータと同じデータベースにエージェントの状態が保存されます。

Text-to-MQL機能では、自然言語をMongoDBクエリ言語に自動変換し、エージェントが業務データに直接アクセスできます。「過去30日間の配送遅延注文を表示」といった質問を、カスタムAPIなしで処理できるため、開発工数を大幅に削減できます。

サイバーセキュリティ企業のKai Securityは、この統合により1日で本番デプロイを達成しました。従来は別途データベース層の構築に1カ月を要していた作業が、既存のMongoDB基盤上で一時停止・再開、障害復旧、監査証跡を即座に実装できたとしています。

LangChain CEOのHarrison Chase氏は「MongoDBの顧客はプロトタイプから本番エージェントまで、既存インフラを離れずに完結できる」と述べています。全統合機能は即日利用可能で、AWS・Azure・GCPのマルチクラウドに対応し、主要コンポーネントはオープンソースとして公開されています。

IBM、文書理解特化の小型視覚言語モデル「Granite 4.0 3B Vision」公開

モデルの特徴と構造

企業文書の表・図・帳票を高精度抽出
30億パラメータの軽量設計
LoRAアダプタでテキスト専用と視覚の両対応
DeepStack方式で意味と空間情報を分離処理

ベンチマーク性能

図表要約スコア86.4%で全モデル首位
表抽出でも複数ベンチで最高精度達成
政府帳票KVP抽出で85.5%のゼロショット精度

導入と活用方法

Apache 2.0ライセンスで公開
Docling連携で大規模PDF処理に対応

IBMは2026年3月31日、企業向け文書理解に特化した小型視覚言語モデル「Granite 4.0 3B Vision」をHugging Faceで公開しました。30億パラメータながら、表・図表・帳票からの情報抽出で大型モデルを上回る性能を発揮します。

本モデルはGranite 4.0 Microの上にLoRAアダプタとして構築されており、画像処理が不要な場面ではベースモデルに自動的にフォールバックします。この設計により、1つのデプロイマルチモーダルとテキスト専用の両方に対応できます。

技術面では、独自のDeepStack Injection方式を採用しています。抽象的な視覚特徴を前段レイヤーに、高解像度の空間特徴を後段レイヤーに分離して注入することで、文書の内容と配置の両方を正確に理解します。

性能面では、図表理解ベンチマークChart2Summaryで86.4%を達成し、自身の2倍以上のサイズのモデルを含む全評価対象中で首位となりました。表抽出でもPubTables-v2やTableVQAなど複数のベンチマークで最高スコアを記録しています。

さらに、170万件の合成チャートデータセット「ChartNet」を独自開発し、CVPR 2026で発表予定です。24種類のチャートタイプと6つの描画ライブラリをカバーし、コード・画像・データ表・要約・QAの5要素を揃えた高品質なデータで訓練されています。

活用面では、単体での画像理解に加え、文書処理ツールDoclingとの統合により、大規模PDFの自動処理パイプラインを構築できます。請求書や財務報告書、学術論文など幅広い文書に対応し、Apache 2.0ライセンスで自由に利用可能です。

ReplitとSoftr、非技術者向けAIアプリ構築基盤を相次ぎ刷新

PM向けAIプロトタイピング

Replit Agent 4で設計と開発を統合
行動記述からプロトタイプを即時生成
ハンドオフの翻訳ロスを大幅削減
試作から本番コードへ直接移行可能

Softrのノーコード×AI戦略

AI Co-Builderで自然言語から業務アプリ生成
構造化ブロック方式でAI幻覚を抑制
Netflix・Googleなど100万ユーザー基盤
売上8桁ドル到達、黒字経営を維持

Replitは2026年3月、プロダクトマネージャー(PM)がAIを活用してプロトタイプを構築するためのガイドを公開しました。同時期にSoftrはAIネイティブのノーコードプラットフォームを発表し、非技術者向けアプリ開発市場が活発化しています。

従来のプロトタイピングでは、PMがアイデアを持ってからユーザーテスト可能なソフトウェアになるまで2〜4週間を要していました。設計・開発・QAへの各ハンドオフで翻訳ロスが発生し、当初の意図から乖離していく問題がありました。

Replit Agent 4では、PMが行動記述(ビヘイビアブリーフ)を書くだけで対話型プロトタイプが生成されます。設計と開発が同一ワークスペース内で完結し、プロトタイプがそのまま本番環境に統合できるため、再実装のギャップが解消されます。

一方Softrは、ベルリン発のノーコード企業として5年の実績を持ち、新たにAI Co-Builderを投入しました。自然言語で業務アプリを記述すると、データベース・UI・権限・ビジネスロジックを含む統合システムが生成されます。AI生成コードではなく事前検証済みの構造化ブロックを組み合わせる方式により、ハルシネーションの問題を回避しています。

Softr共同創業者のMariam Hakobyan氏は、バイブコーディング系ツールが「デモ段階で止まる」と指摘し、認証・権限・データ整合性が求められる業務ソフトでは根本的に不十分だと主張しています。同社はNetflix、GoogleStripeなど7,000以上の組織に利用されています。

Softrは2022年のシリーズA以降、追加の資金調達を行わず黒字経営を達成しました。従業員50名、営業チームなしで年間売上8桁ドルに到達し、PLG(プロダクト主導成長)による有機的拡大を続けています。今後はエンタープライズ向けの販売強化も計画しています。

両社のアプローチは対照的ですが、共通するのは「非技術者がアイデアから実用的なソフトウェアを直接構築できる」という目標です。AIアプリ構築市場はバイブコーディングスタートアップと従来型ノーコード勢の競争が激化しており、実運用に耐えるかどうかが差別化の鍵となっています。

Runway、AI動画の先へ 1000万ドルのVC基金と開発者支援を開始

VC基金の投資方針

1000万ドル規模のファンド設立
プレシード〜シード企業に最大50万ドル出資
AI・メディア・世界シミュレーションが対象
LanceDBやTamarind Bioなど既に投資実績

Builders支援プログラム

50万APIクレジットを無償提供
Characters APIへのアクセス開放
リアルタイム映像エージェント活用を促進

エコシステム戦略の狙い

自社では追えない用途を外部に委ねる構想
医療・教育・ゲーム分野への展開を期待

AI動画生成の大手Runwayは2026年3月、早期段階のスタートアップを支援する1000万ドル規模のベンチャーファンドと、APIクレジットを無償提供する「Builders」プログラムの立ち上げを発表しました。同社は動画生成ツールからより広い「映像知能」のエコシステム構築へと事業を拡大します。

ファンドは既存投資家やパートナーの出資で組成され、プレシードからシード段階の企業に最大50万ドルを投じます。投資対象は、AIの技術的フロンティアを開拓するチーム、基盤モデル上のアプリケーション層を構築する開発者、新しいメディア創作や配信に取り組む企業の3分野です。

過去1年半にわたり、Runwayは非公開で複数のスタートアップに出資してきました。AI向けデータベースのLanceDBや、AIでたんぱく質設計を行う創薬企業Tamarind Bio、リアルタイム音声生成のCartesiaなどが含まれます。

Buildersプログラムでは、シードからシリーズCの企業が50万APIクレジットと、同社の「Characters」APIを利用できます。Charactersはリアルタイムで対話可能な映像エージェントを生成する技術で、顧客対応やブランドキャラクター、遠隔医療、教育など幅広い活用が見込まれています。

Runwayはこれまでに約8億6000万ドルを調達し、評価額約53億ドルに達しています。AI企業がVC活動に乗り出す動きは、OpenAIのStartup FundやPerplexityの5000万ドルファンドなど業界全体に広がっており、Runwayもこの潮流に本格参入した形です。

Amazon、Alexa+にUber Eatsなど会話型フード注文機能を追加

会話型注文の仕組み

Uber Eats・Grubhubに対応
料理名やジャンルで店舗検索が可能
注文途中の変更・追加も会話で完結
Echo Show 8以上の端末で提供開始

今後の展開と業界動向

食料品買い物や旅行手配へ拡大予定
AI音声注文は精度に課題も
マクドナルドは誤注文で一時中断した例
Amazonは対話型AIで競争力強化を狙う

Amazonは2026年3月31日、AI音声アシスタントAlexa+に、Uber EatsとGrubhubからの会話型フード注文機能を追加したと発表しました。対応端末はEcho Show 8以上です。

従来の音声アシスタントは「質問と応答」の繰り返しでしたが、新機能では一連の会話の中で料理ジャンルの指定、メニュー閲覧、カスタマイズ、数量変更までを自然にこなせます。注文途中でデザートを追加したり、気が変わって変更したりすることも即座に対応します。

利用するにはAlexaアプリからUber EatsまたはGrubhubのアカウントを連携します。過去の注文履歴が自動同期され、お気に入りの再注文や新しいレストランの発見も容易になります。注文確定前にはカート内容・数量・価格の一覧が表示されます。

AI音声注文は外食業界でも導入が進む一方、精度の課題が残っています。2024年にはマクドナルドがAIドライブスルーで甘いお茶を9杯誤注文する事例が発生し、取り組みを一時停止しました。タコベルでも同様の誤作動が話題になっています。

Amazonは今回の食事注文を「長期ビジョンの第一歩」と位置づけ、今後は食料品の買い物や旅行手配など他分野への拡大を計画しています。生成AI搭載のAlexa+を通じて対話型体験を強化し、競争の激しいAIアシスタント市場での存在感を高める狙いです。

Amazon傘下Ring、AI活用アプリストアを米国で開設

アプリストアの概要

1億台超のカメラ基盤を活用
介護・店舗分析・賃貸管理など多分野展開
開発者Ring端末向けアプリを配信可能
年内に数百アプリ・数十業種が目標

プライバシーへの対応

顔認識やナンバープレート読取を禁止
監視技術への消費者反発を受けた措置
Flock Safetyとの提携も解消済み

収益モデルと配信方式

紹介手数料は10%に設定
AppleGoogleの課金を回避する独自構造

Amazon傘下のスマートカメラ企業Ringは2026年3月、自社カメラ向けのAIアプリストア米国で正式に開設しました。1月のCESで予告されていた同ストアは、世界に1億台以上設置されたRingカメラの映像・音声データをAIで活用し、ホームセキュリティ以外の用途へ拡張することを目指しています。

開設時点で約15のアプリが利用可能です。SoftBank出資のDensity社は高齢者の見守りアプリ「Routines」を提供し、転倒や生活パターンの変化を家族に通知します。QueueFlowは待ち時間・混雑状況の分析、Minutは民泊ホスト向けの騒音・温度監視など、業種特化のアプリが揃っています。

創業者兼CEOのJamie Siminoff氏は「AIにより長いテールのユースケースが開ける」と語り、年内に数百のアプリを数十の業種で展開する計画を示しました。鳥の識別やリスク検知、芝生の健康管理、来店者カウントなど多彩なカテゴリーのアプリが開発中です。

一方、監視技術への消費者の反発も強まっています。Ringは迷子ペット捜索や山火事検知などの機能を公開した結果、AIカメラによる追跡・録画への懸念が顕在化しました。同社は顔認識ツールやナンバープレートリーダーの提供を禁止し、法執行機関向けAIカメラのFlock Safetyとの提携も解消しています。

収益面では、Ringがユーザーをパートナーアプリに誘導した際に10%の手数料を徴収します。ユーザーはパートナーのアプリを別途ダウンロードする仕組みのため、AppleGoogleのアプリ内課金手数料を回避できる点が特徴です。サブスクリプションのほか買い切りや広告モデルにも対応する方針で、開発者はRingの開発者サイトからアプリを申請できます。

ChatGPTがApple CarPlayに対応、音声で車内利用可能に

CarPlay対応の概要

iOS 26.4以降でChatGPT利用可能
音声会話のみでテキスト表示なし
最新版ChatGPTアプリが必要

利用時の制約

ウェイクワード非対応
アプリをタップして起動が必要
ミュート・終了ボタンは画面表示
過去の会話履歴は一覧で確認可能

Apple側の対応

iOS 26.4で音声対話アプリをCarPlay開放
開発者ガイドラインでテキスト・画像表示を制限

OpenAIは2026年3月31日、ChatGPTApple CarPlayに対応したことを明らかにしました。iOS 26.4以降と最新版のChatGPTアプリをインストールすることで、車内ダッシュボードからAIチャットボット音声で利用できるようになります。

Appleは先日リリースしたiOS 26.4のアップデートで、CarPlayにおける「音声ベースの対話型アプリ」のサポートを追加しました。これにより、AI chatbotが車載プラットフォームで音声機能を通じて利用できる道が開かれました。

CarPlay上のChatGPTでは、テキストによる会話表示は行われませんApple開発者ガイドラインでは、アプリがテキストや画像をレスポンスとして表示しないよう求めており、安全な運転環境の確保が重視されています。画面上にはミュートボタンと会話終了ボタンのみが表示されます。

一方で、過去にChatGPTと交わした会話の一覧を確認する機能は備わっています。ただし、Siriのようなウェイクワードには対応しておらず、利用するにはCarPlay画面上でアプリアイコンをタップして起動する必要があります。

今回の対応により、運転中でもハンズフリーでChatGPTに質問や相談ができるようになります。経営判断やビジネス情報の確認を移動中に行いたいビジネスパーソンにとって、車内での生成AI活用の選択肢が広がる動きといえます。

a16z出資のAIモデル比較サービスYupp、1年足らずで事業閉鎖

Yuppの事業モデルと成果

800超のAIモデルを無料比較できるサービス
130万人のユーザーを獲得
月間数百万件のモデル評価データを収集

閉鎖の背景と業界動向

プロダクトマーケットフィット未達成
AIモデルの急速な性能向上が影響
専門家による強化学習が主流に
エージェント時代への転換が進行

資金調達と今後

a16zChris Dixon主導で3300万ドル調達
45超のエンジェル投資家が参加

2026年3月、AIモデル比較サービスを提供していたスタートアップYuppが、サービス開始から1年足らずで事業閉鎖を発表しました。共同創業者のPankaj Gupta氏とGilad Mishne氏がブログで明らかにしています。

Yuppは800以上のAIモデルを無料で試せるクラウドソーシング型のモデル比較サービスでした。OpenAIGoogleAnthropicなどの最先端モデルを含む複数の回答を返し、ユーザーがどのモデルが最適かフィードバックする仕組みです。匿名化されたデータをモデル開発企業に販売するビジネスモデルを構想していました。

同社は130万人のユーザーを獲得し、月間数百万件の評価データを収集するなど一定の成果を上げました。しかし「十分なプロダクトマーケットフィットに到達できなかった」と創業者は説明しています。AI モデルの性能がこの数か月で飛躍的に向上したことが一因とされています。

業界ではScale AIMercorが先行する手法、すなわちPhDなどの専門家強化学習ループに組み込むモデルが主流となっています。さらにCEOのGupta氏は「未来はモデル単体ではなくエージェントシステムにある」と述べ、AI同士が利用し合う時代への移行が消費者向けフィードバック事業の存続を困難にしたと示唆しています。

Yuppは2024年にa16z cryptoのChris Dixon氏主導で3300万ドルのシードラウンドを調達していました。Google DeepMindのJeff Dean氏、Twitter共同創業者のBiz Stone氏、PerplexityのCEO Aravind Srinivas氏ら45人超の著名エンジェル投資家も出資しており、資金力や人脈だけでは生き残れないスタートアップの厳しさを浮き彫りにしています。

自動運転データ整理のNomadic、840万ドル調達

資金調達と事業概要

シード840万ドル、評価額5000万ドル
TQ Ventures主導、Jeff Dean参加
NVIDIA GTCピッチコンテストで優勝
Zooxや三菱電機など顧客獲得済み

技術的な強み

映像を構造化データに自動変換
エージェント推論でエッジケース検索
複数VLMで行動と文脈を同時理解

今後の展開

LiDARなど非視覚データへの対応
マルチモーダルセンサー統合を開発中

スタートアップNomadicMLは2026年3月、自動運転車やロボットが収集する膨大な映像データを自動で整理・検索可能にするプラットフォームの開発資金として、840万ドル(約13億円)のシードラウンドを完了したと発表しました。

TQ Venturesがリードし、Pear VCおよびGoogle DeepMindJeff Dean氏が参加しました。ポストマネー評価額5000万ドルです。同社は先月のNVIDIA GTCピッチコンテストでも優勝しており、技術力の高さが評価されています。

自動運転やロボティクス企業は数千〜数百万時間の映像データを収集しますが、その大半は未整理のまま保管されています。NomadicMLは複数のビジョン言語モデル(VLM)を組み合わせ、映像を構造化された検索可能なデータセットに変換します。これにより車両監視や強化学習用データの生成が効率化されます。

共同創業者のValun Krishnan CTOは、同社のツールを単なるラベリングではなく「エージェント推論システム」と説明しています。ユーザーが求める条件を記述するだけで、警察官の誘導による赤信号通過や特定の橋の下の走行など、稀少なエッジケースを自動で発見できます。

Zoox三菱電機、Zendar、Natix Networkなどがすでに導入しています。Zendar副社長は、外注と比べ作業を大幅に高速化でき、ドメイン専門性で競合と差別化されていると評価しました。

今後はLiDARなどの非視覚センサーデータへの対応や、複数センサーの統合処理に取り組む計画です。投資家のTQ VenturesはAV企業がデータ基盤を内製する必要がなくなる点を強調し、専業プラットフォームとしての将来性に期待を示しています。

a16z、AI活用のIT運用管理Treelineに出資

MSP市場の構造変化

米国IT外注市場は年間2000億ドル超規模
約4万社のMSPが米企業の8割超にIT提供
従来型MSPは受動的な対応に依存

Treelineの事業モデル

AIで定型業務を自動化し効率向上
既存MSPを統合しソフトと専門知識を融合
解決事例を学習しシステムが自律改善

投資の背景と経営陣

a16zのJoe Schmidt氏が主導
Stanford出身の共同創業者2名が経営

Andreessen Horowitza16zは2026年3月、AI活用型IT運用管理サービスを提供するTreelineへの出資を発表しました。同社は従来のマネージドサービスプロバイダー(MSP)モデルをAIで刷新し、企業のIT運用を効率化します。

米国では企業の80%以上がIT機能をMSPに外注しており、その市場規模は年間2000億ドル超、事業者数は約4万社に上ります。デバイス管理やセキュリティコンプライアンスなど多岐にわたる業務を担うMSPは、米国テック経済の基盤となっています。

しかし大半のMSPは従来型の受動的な対応モデルに留まっていました。TreelineはIT運用の中核にソフトウェア基盤を構築し、ワークフローの標準化と定型業務の自動化を実現します。解決済みの問題をデータとして蓄積し、パターン認識や根本原因の特定を通じてシステムが継続的に改善される仕組みです。

同社の特徴は単なる「AI買収」ではなく、既存MSPの運用モデル自体を再設計する点にあります。自動化ワークフローによりチケット対応時間を大幅に短縮し、技術者は高度なサポートに集中できます。従来はフォーチュン100企業に限られていた先進的なIT環境を、中小企業にも提供することを目指しています。

Treelineの共同創業者Peter Doyle氏とHussain Kader氏で、両名はスタンフォード大学の同級生です。a16zのパートナーであるJoe Schmidt氏がDoyle氏と10年来の関係を持ち、今回の投資を主導しました。AIとソフトウェアの進化により、人的専門性とテクノロジーを一体化した新たなIT運用モデルの構築が期待されています。

米美大がAIカリキュラム導入、学生の7割は反発

教育現場のAI導入方針

CalArtsやMassArtが生成AI授業を推進
AdobeGoogleと連携し最新ツール提供
will.i.amがASUでAIエージェント講座を担当

学生教員の反発

Ringling調査で学生70%がAIに否定的
CalArtsで反AIポスターや抗議活動が発生
アラスカ大学生がAI作品を食べて破壊

業界が抱えるジレンマ

著作権侵害や無断学習への懸念が拡大
学校側は「技術理解が就職に不可欠」と主張

米国の主要美術大学が相次いで生成AIをカリキュラムに組み込み始めました。CalArts、MassArt、RCA、Pratt Instituteなどが学生にAIツールの探索を推奨しており、教育現場で大きな議論を呼んでいます。

CalArtsはAdobeGoogleと連携し、学生が最新のAIツールに直接触れる機会を提供しています。同校の広報担当ロビン・ワンダー氏は「学生が将来の技術を形作る側に立てるよう、批判的な関与を促す」と述べました。アリゾナ州立大学では、ミュージシャンのwill.i.amが2026年春にAIエージェント構築の授業を担当します。

一方で学生の反発は根強く、Ringling College of Art and Designの2023年調査では、学生70%がAIに対して「やや否定的」または「極めて否定的」と回答しました。大半がカリキュラムへのAI導入を望んでいないと明言しています。

抗議活動も各地で発生しています。CalArtsでは反AIのポスターやチラシがキャンパス中に貼られました。アラスカ大学フェアバンクス校では、映画専攻の学生がAI生成作品を物理的に食べて破壊するという過激な抗議も起きています。

教育機関側は、生成AIモデルの著作権問題倫理的課題を認識しつつも、AI活用能力が雇用主から求められる重要なスキルになっていると主張します。Pratt Instituteは「AIツールへの習熟は多くの業界で求められる能力」と声明を出しました。技術の進化に対応するか、取り残されるかという二択を突きつけられた美術教育の現場は、難しい舵取りを迫られています。

天気アプリにAI搭載の波、各社が予報の個人化を競う

AI天気アプリの最新動向

Weather社がAI搭載Storm Radarを刷新
カレンダー連携で天候と予定を自動統合
月額4ドル、iOS先行で提供開始
AccuWeatherChatGPT上にアプリ公開

AI予報技術の進化と課題

機械学習モデルが予報計算を高速化
精度低下リスクは複数モデル比較で補完
NOAA縮小で民間のデータ収集役割が拡大

個人化と透明性の設計思想

DarkSky創業者予報の不確実性表示を重視

2026年3月、Weather CompanyはAIアシスタントを搭載した天気アプリ「Storm Radar」の刷新版をiOS向けにリリースしました。レーダーや気温、風、雷などのレイヤーを自由に切り替えられる予報カスタマイズ機能が特徴です。

同アプリはカレンダーなど他のアプリと連携し、天候情報を日々の予定に紐づけたテキスト通知や要約を自動送信します。音声機能ではレトロなラジオ気象予報士風など複数のペルソナを選択でき、月額4ドルで提供されます。

天気アプリへのAI導入はStorm Radarだけではありません。AccuWeatherOpenAIChatGPT上に専用アプリを公開し、Rainbow WeatherなどAIファーストを掲げる新興アプリも登場しています。GoogleAppleも自社天気アプリにAI機能を組み込んでいます。

技術面では、機械学習モデルが従来スーパーコンピュータで行っていた大気シミュレーションを高速化しています。DarkSky創業者のGrossman氏は「機械学習は天気予報にとって最大の変化」と述べる一方、精度面の課題には複数モデルの比較で対処できると説明しています。

一方で米政府によるNOAAの縮小が進み、気象データ収集の一部が民間企業に委ねられる状況が生まれています。極端気象や気候災害の頻度が増すなか、予報精度の維持が課題となっています。

こうした潮流のなかで設計思想の違いも鮮明です。Storm Radarはデータ量を最大化しつつAIで要約する方針を取る一方、Acme WeatherのGrossman氏は「AIを使っていると感じさせるべきではない」と透明性を重視し、予報の不確実性を利用者に正しく伝えることを目指しています。

FLORA、Vercel基盤で画像生成AIエージェント「FAUNA」を構築

FAUNAの特徴と狙い

50以上の画像生成モデルを統合
アイデアから自動で多方向の視覚探索を展開
ワークフロー設計の負担をエージェントが代替

Vercel移行の効果

AI SDKとWorkflow SDKで基盤を一本化
本番投入までの速度が2倍に向上
インフラ議論からプロダクト議論へ転換

今後の展望と周辺機能

UI/UX以外の全デザイン業務を支援対象
Vercelがチーム間のDB移行機能も追加

クリエイティブワークフロー基盤を提供するFLORAは、VercelAIスタック上に画像生成AIエージェントFAUNA」を構築したと発表しました。50以上の画像モデルを統合し、ファッションキャンペーンなどの視覚制作を効率化する狙いです。

FAUNAは従来のノードベースのキャンバスとは異なり、ユーザーがアイデアを伝えるだけで参考画像の収集、モデル選択、バリエーション生成を自動で行います。ワークフロー設計の知識がなくても、プロ品質のビジュアル探索が可能になります。

技術面では、画像動画生成は数分かかり、1回のセッションで多数の並行ジョブが発生します。FAUNAはVercelAI SDKエージェントフレームワークとWorkflow SDKの永続化機能を組み合わせ、長時間実行や障害時の再試行に対応しています。

FLORA開発チームは以前LangChainとTemporalを併用していましたが、2つのシステムの保守負担が課題でした。Vercelへの移行により基盤が一本化され、本番投入速度が2倍に向上したと報告しています。インフラの議論が不要になり、プロダクト改善に集中できるようになりました。

FLORAはUI/UX以外の全デザイン業務の支援を最終目標に掲げています。また、Vercelは同時期にダッシュボードからチーム間でDB移行ができる機能も公開しました。Prisma、Neon、Supabaseに対応し、今後対応プロバイダーを拡大する予定です。

Galaxy S26のAI写真編集、自然言語で指示も精度に課題

自然言語で写真を加工

Galaxy S26に自然言語プロンプト対応のAI編集機能
背景変更や人物追加などGoogle Photosと同等の機能
不適切な画像生成へのガードレールは比較的堅固

編集精度と品質の限界

生成画像光沢感や歪みが残り偽物と判別可能
指示外の部分まで変更される過剰編集の傾向
人物追加で別人が生成される不整合も発生

写真の定義が揺らぐ時代

Samsung幹部が写真はコミュニケーションと定義
AI透かしとコンテンツ認証情報を付与も確認困難

Samsungは2026年2月のUnpackedイベントで、Galaxy S26のギャラリーアプリに搭載するAI写真編集ツール「Photo Assist」に自然言語プロンプト対応を追加すると発表しました。服の変更やペットの合成など、写真を自由に加工できる機能です。

安全面では、「死体」「火」などの危険なキーワードや、過去にGoogle Pixel 9で使われた回避手法がブロックされており、衣服の除去や犯罪シーンの生成もできません。ガードレールは比較的しっかり機能していると評価されています。

一方で編集精度には明確な限界があります。生成された部分には独特の光沢感があり、画像全体の画質も劣化する傾向が見られます。プロンプトと無関係な部分まで変更される過剰編集や、人物追加で別の被写体が複製されるなどの不具合も報告されています。

背景の除去や料理写真の補正など、比較的単純な編集では高い実用性を発揮します。子どもの写真の背景を宇宙空間に変えるといった遊び心のある加工も、一定の品質で実現できています。ただしAI透かしはトリミングで簡単に除去でき、コンテンツ認証情報の確認にも手間がかかります。

Samsungのカメラ部門責任者Sungdae Joshua Cho副社長は「写真とはコミュニケーションである」と述べ、AI編集を表現手段の拡張と位置づけています。写真の定義が揺らぐ中、どこまでがAI加工として許容されるかは、今後ユーザー個々の判断基準に委ねられることになりそうです。

Google、英国民向けAIスキル習得支援に約4億円投資

英国AI人材育成の全容

国民76%がキャリア停滞を実感
約200万ポンドのGoogle.org助成金拠出
大学・職業訓練所でAI実践講座を展開
デジタル格差解消へ草の根支援も実施

Googleサービスの最新動向

Gmailユーザー名の変更が米国で可能に
Pixel認定整備品が最大45%引きで拡充
Fitbitに生理周期・栄養管理機能を追加
Premium不要で健康コーチ機能を一部開放

Googleは2026年3月、英国で「AI Works for Britain」と題した全国規模のAIスキル習得支援プログラムを発表しました。約200万ポンド(約4億円)のGoogle.org助成金を含む本施策は、キャリアに行き詰まりを感じる英国民にAI活用スキルを届けることを目的としています。

Googleが委託した調査によると、英国民の76%が自身のキャリアや目標達成に対して「行き詰まり」を感じていると回答しました。その要因として、専門的な人脈やメンターの不足、自信の欠如、スキル不足などが挙げられています。一方で25〜34歳の75%がAIツールを「自信を高める手段」と評価しています。

プログラムはリーズ、リバプール、バーミンガムなどで「Squeeze the Juice」と呼ばれるポップアップ拠点を展開し、実践的なAI活用法を無料で指導します。大学キャンパスでのAI研修ツアーや、雇用支援センターでのGoogleキャリア認定資格の奨学金提供も並行して進めます。

このほかGoogleは、Googleアカウントのユーザー名(@gmail.com前の部分)を変更できる機能を米国の全ユーザーに開放しました。昨年から段階的に提供されていた機能で、ヘルプセンターから手続きが可能です。

またPixel認定整備品の取り扱いを大幅に拡大し、Pixel 8aを新たに追加しました。最大45%引きで販売され、純正パーツによる検査・修理済みで7年間のソフトウェアアップデートが保証されます。Amazon Renewedでも購入可能になりました。

Fitbitのパーソナルヘルスコーチ機能にも新たに生理周期の記録と分析、マインドフルネスや気分のトラッキング、栄養・水分摂取の記録機能が追加されました。Premium会員以外でもパブリックプレビューに参加して基本機能を利用できるようになっています。